I7 9750H @ 3,6 GHZ RTX2080TI

StoepselEi

Experte
Thread Starter
Mitglied seit
27.09.2011
Beiträge
1.074
Hi, wenn die Preise der RTX2080 ti in den Keller rustchen, bedingt durch die neue RTX3000er Reihe, würde ich mir gerne eine 2080TI in mein Alienware Ampliefer hauen. Die Frage ist, ob der I7 9750H der mit festen 3,6 GHZ bei mir läuft auf allen Kernen zum Problem werden könnte?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist halt die Frage, das ganze ist ja nur mit PCIe 3.0 x4 angebunden. Da geht bissel Leistung verloren. Von der CPU her sehe ich kein Problem.
 
Ist halt die Frage, das ganze ist ja nur mit PCIe 3.0 x4 angebunden. Da geht bissel Leistung verloren. Von der CPU her sehe ich kein Problem.
Das ist mir schon bewusst, das ca 10 Prozent Leistung verloren gehen wegen der nur 4x Anbindung,aber die kann man ja evtl wieder durch OC raus holen. Aber wenn die CPU Leistung dafür reicht denn ist ja alles supi :)
 
Denk dran, dass die meisten Karten nicht mehr in den (veralteten) Amplifer passen. Entweder lässt du den Deckel auf oder frässt das Gitter weiter auf. Beispiel:

1601152328536.png


Ansonsten ja, ein Leistungsverlust ist schon da, hält sich aber in Grenzen. 5-15% ja nach Spiel, Einstellung und Parameter.
 
Häng dir doch eine Wakü drauf, dann hast du auch nicht so ein hässlichen Klotz wie auf dem Bild da stehen.
 
Klar wird die CPU zum Bottleneck. Habe ne 2070 Max-P, die bisher nur in RDR2 und Rise of the Tomb Raider voll ausgelastet war.

Sonst macht die CPU bei 60-70% GPU Last dicht auf mittleren Settings in z.B. BFV.
Kommt immer aufs Spiel an. Für sowas wie RDR2 ist es sicher gut, aber eben ein kurzweiliges Singleplayer Spiel.

Watch Dogs 2 hält sich die Waage zwischen GPU und CPU Limit bei locked 72 FPS.

Dauert eh noch ne Weile, bis die 2080Ti im Preis fallen.

Mein Tipp: Höchstens mit einer 2070 non-Super paaren. Dann kommt man ungefähr bei der Desktopleistung einer 2060 raus, was für das CPU Limit passen würde.
 
Zuletzt bearbeitet:
Klar wird die CPU zum Bottleneck. Habe ne 2070 Max-P, die bisher nur in RDR2 und Rise of the Tomb Raider voll ausgelastet war.

Sonst macht die CPU bei 60-70% GPU Last dicht auf mittleren Settings in z.B. BFV.
Kommt immer aufs Spiel an. Für sowas wie RDR2 ist es sicher gut, aber eben ein kurzweiliges Singleplayer Spiel.

Watch Dogs 2 hält sich die Waage zwischen GPU und CPU Limit bei locked 72 FPS.

Dauert eh noch ne Weile, bis die 2080Ti im Preis fallen.

Mein Tipp: Höchstens mit einer 2070 non-Super paaren. Dann kommt man ungefähr bei der Desktopleistung einer 2060 raus, was für das CPU Limit passen würde.

also eine RTX2070 lohnt sich nicht. Habe ja schon ne RTX2070 max q drinnen . Es haben aber einige eine RTX2080 ti im Amliefer und weit aus scchlechtere CPUs zb I7 7700 oder gar einen aus der 6 er Reihe. evtl lohnt sich sich ja auch eher eine RTX3060 oder 3070 zu nehmen.
 
Hier ist n aktuelles Video dazu. 2080ti vs 3090 als egpu

 
Die 3090 würde sich definitiv nicht lohnen. Die 2080 ti wenn sie im Preis fallen sollte wohl eher. Aber mal warten was sie 3060 und 3070 so reißen werden.
 
Klar wird die CPU zum Bottleneck. Habe ne 2070 Max-P, die bisher nur in RDR2 und Rise of the Tomb Raider voll ausgelastet war.

Sonst macht die CPU bei 60-70% GPU Last dicht auf mittleren Settings in z.B. BFV.
Kommt immer aufs Spiel an. Für sowas wie RDR2 ist es sicher gut, aber eben ein kurzweiliges Singleplayer Spiel.

Watch Dogs 2 hält sich die Waage zwischen GPU und CPU Limit bei locked 72 FPS.

Dauert eh noch ne Weile, bis die 2080Ti im Preis fallen.

Mein Tipp: Höchstens mit einer 2070 non-Super paaren. Dann kommt man ungefähr bei der Desktopleistung einer 2060 raus, was für das CPU Limit passen würde.

Das liegt aber eher an den neuen Spielen und der ihren Code. Bei mir wird weder der 9900K noch die 1070 voll ausgelastet. Gibt da nur wenige Spiele wie Witcher die voll die GPU auslasten.
Das es an der CPU selber liegt bezweifle ich sehr, für Gaming gibt es kaum was besseres momentan. Die meisten Games gammeln bei mir ziwschen 70 und 90% GPU Auslastung.
Also ich sehe wie geschrieben kein Problem ein I7 9750H mit einer 2080ti zu betreiben.
 
Naja ich werde bis Weihnachten warten was die RTX3070 so bringt und wie teuer sie letzendlich wird. Auf jedenfall werde ich mit meinem Alienware Notebook denn doch noch gute ne weile spielen können , ohne gleich wieder nen Upgrade zu machen und die interne RTX2070 Max Q ist ja auch noch völlig ok.
 
Jetzt muß ich hier auch mal fragen: verstehe ich das richtig? Du nutzt die GPU außerhalb? Wie denn genau? Wo schließt du denn die an?

Grade mal etwas eingelesen. Aber so wie das aussieht, taugt das ja nicht wirklich was. Da ist die 2080TI als eGPU nicht ganz die Hälfte langsamer als die 2080Super und auf dem Niveau einer 2070Super....

 
Zuletzt bearbeitet:
Jetzt muß ich hier auch mal fragen: verstehe ich das richtig? Du nutzt die GPU außerhalb? Wie denn genau? Wo schließt du denn die an?
Alienware Noteboobs besitzen einen speziellen Anschluss und extra Zubehör, wo man die Grafikkarte einsetzen kann.

1601448105453.png


1601448140749.png


Da ist die 2080TI als eGPU nicht ganz die Hälfte langsamer als die 2080Super.
Die GPU läuft im Notebook dann über 4 PCIe Lanes und hat je nach Spiel, Auslastung und weiterer Parameter ca. 15% Leistungsverlust.
 
Sollen das wirklich „nur“ 15% sein? Das wäre ja nicht ganz so übel... und das geht nur bei Alienware Lappis?
 
Je nach Spiel und Ausstattung des Notebooks kann's auch mal mehr, mal weniger sein. Im Durchschnitt ist es aber so um die 15%. Zumindest als ich noch damals das Thema regelmäßig verfolgt habe. Auf jeden Fall ist der (AlienwareGraphicsAmpifier) AGA-Anschluss etwas besser als die Thunderbolt-Lösung. Jarrod und paar andere Youtuber haben da verschiedene Tests zu gemacht. Musst einfach mal auf YT bisschen suchen. Er hat letztens noch ne 3090 als eGPU getestet.

 
Wenn man ein alienware Notebook hat ist es am besten den amplifier zu nutzen, denn dann kann man den eigenen Anschluss nutzen und nicht Thunderbolt. Thunderbolt ist etwas langsamer wie der eigene alienware Anschluss, dazu gibt es auch Tests. Ca 10 Prozent teils sogar weniger ist der leistungsverlust . Über Thunderbolt ist er etwas höher .
Beitrag automatisch zusammengeführt:

Hier kann man sehr gut sehen das Thunderbolt etwas langsamer ist als der hauseigene alienware Anschluss
Beitrag automatisch zusammengeführt:

Und 10 Prozent ist ja nun nicht viel,die könnte man sogar durch oc wieder gut machen.
Beitrag automatisch zusammengeführt:

Aktuell werden die alienware amplifer gekauft wie verrückt ,sicherlich wegen den neuen 3000 Karten
 
Zuletzt bearbeitet:
Das geht bei allen mit Thunderbolt 3. Beide sind mit PCI 3.0 x4 angebunden. In der Regel ist der Alienware Anschluss überflüssig. :)
 
Das geht bei allen mit Thunderbolt 3. Beide sind mit PCI 3.0 x4 angebunden. In der Regel ist der Alienware Anschluss überflüssig. :)
Nö ist er nicht, da der Alienware Anschluss direkt an den pcie geht am Notebook. Thunderbolt geht über Umwegen an den pcie,daher ist der Alienware Anschluss schneller . Sich aber deswegen ein Alienware Notebook zu kaufen ist natürlich Quatsch, aber wenn man eins hat denn sollte man diesen Anschluss in Verbindung mit dem amplifier nutzen anstatt Thunderbolt
 
Aktuell werden die alienware amplifer gekauft wie verrückt ,sicherlich wegen den neuen 3000 Karten
Woher weißt du das so genau? Hast du von Dell eine inoffizielle Verkaufsliste bekommen oder vermutest du das einfach nur?

Und 10 Prozent ist ja nun nicht viel,die könnte man sogar durch oc wieder gut machen.
4 PCIe Lanes + Adaptierung kannst du auch nicht mit OC wegmachen. Es gibt nun mal bestimmte Hardware-Restriktionen und die sind nicht von der Hand zu weisen.
 
Woher weißt du das so genau? Hast du von Dell eine inoffizielle Verkaufsliste bekommen oder vermutest du das einfach nur?


4 PCIe Lanes + Adaptierung kannst du auch nicht mit OC wegmachen. Es gibt nun mal bestimmte Hardware-Restriktionen und die sind nicht von der Hand zu weisen.

Weil ich mit selber einen gekauft habe und es schwer ist überhaupt einen gebraucht zu bekommen für unter 100 Euro. Neu bekommt man die sicherlich . Davon ab bin ich im alienware forum aktiv 😉

Letztendlich sind mir 10 oder 15 Prozent Wurst, ich kann mein Notebook weiter nutzen und wenn ich mehr Leistung brauche denn kann ich den amplifier nutzen. Für mich kommt ein Desktop nicht in Frage da ich mobil bleiben möchte und auch Platzgründe spielen eine Rolle.
 
Ein interessanter Bericht


Anyone with the i7-9750h and an AGA RTX 2080 or lower will experience little to no bottlenecking due to the AGA when using an external monitor of 1440p or above. Folks using 1080p displays can expect a deficit of 5-7% at most as compared to an equivalent desktop.
People with elite hardware (i9-9880h / AGA RTX 2080ti) should expect a worst case AGA bottleneck of 10% at 1080p, 7% at 1440p and 5% at 4k compared to an equivalent desktop.
Severe cases of AGA bottlenecking can be seen at the extremes, with as much as a 30% decrease in framerate seen in certain esports titles played at 1024x768 resolutions and low settings. These experiences are rare and limited to situations where very high end hardware (51m + 9900ks + AGA RTX Titan) is used with exceptionally low visual settings.


Unfortunately, there is not a simple answer to this question. I'll try to give the best explanation I can because it gets asked a lot and misinformation abounds. For context, my comments apply to the recent Alienware models post 15R3 / 17R4. Some of the earlier devices did whacky things with the routing of PCIe lanes and resource allocation that make them a little different. TL;DR at the end.
Cause of the AGA Bottleneck
The bottleneck imposed by the AGA is a direct function of how much information needs to be sent over it's 4x PCIe 3.0 bus. The interface technically suffers a very small amount of bandwidth loss compared to the 4x PCIe 3.0 bus of a typical desktop computer because of the way it is implemented in the AGA. The caldera connector, cable length and inferior EMI shielding inherent in it's design all contribute, but it's a very small amount we can ignore for the sake of explanation.
The amount of information transmitting the PCIe bus is primarily determined by how much work the CPU has to perform and subsequently transmit to the GPU and vice versa. In most cases--especially when gaming--the majority of PCIe traffic navigates the bus from CPU to GPU, so this is where we are most worried about bottlenecking. This assumption does not necessarily hold when the GPU is working on a task in a headless configuration (no display being drawn at all) or when an image is being rendered on one GPU and drawn on a display attached to another GPU. For simplicity, let's assume we are discussing the AGA bottleneck when gaming on a display directly attached to the GPU in the AGA. When using the AGA to render an image and output it on the internal laptop display, users will experience a wide range of performance results, influenced by both the model of laptop, the version of Windows being used and the OS settings applied. Microsoft has been very active on finding new ways to accommodate systems with multiple GPUs, rendering and outputting on different GPU devices, GPU scheduling, so the results in such a condition likely to change even over the next few months.
Examples of where the AGA bottleneck does not exist
If an AGA bottleneck is a function of how much information transmits the PCIe bus, let's use a few practical examples to understand where the PCIe bus limits do and do not exist. I am going to generalize a bit here for sake of example, but the result holds true on average. In almost all cases, a CPU will have more information to transmit across the PCIe bus to the GPU when frame rates increase, all else constant. Frame rates are not the only factor, but they are an easy one to understand. For most games, a CPU generates much more information to send to the GPU at 120 FPS compared to 60 FPS, assuming the frame rate is all that changes. Such is the case when a frame limiter is used and no other visual settings or the resolution is changed. High CPU loads alone are insufficient to create a bottleneck. For example, in Civilization 6, the AI turn times towards the end of the game can get very slow while the CPU works hard to calculate the thousands of actions the AI must perform. Despite working the CPU hard, these late game AI turns have largely no effect on any bottleneck imposed by the AGA because very little of this work performed by the CPU needs to be sent to the GPU.
Similarly, extremely high GPU loads alone do not exacerbate an AGA bottleneck. A very simple game requiring minimal CPU power but drawn at an absurd 16k resolution will not require a lot of information sent across the PCIe bus, but will require an enormous amount of horsepower from the GPU. Another extreme example of GPU bottlenecking with minimal stress on the PCIe bus exists in a lot of non-gaming GPU work such as data science and crypto currency mining. If you have a moment to look at a crypto currency mining motherboard, you'll find many have a dozen or more 1x PCIe 2.0 slots to populate with powerful GPUs. Despite each one of these slots having 1/8th the bandwidth of even our lowly AGA, the 1x PCIe 2.0 interface does not bottleneck even the most powerful GPUs when it comes to crypto mining. The PCIe bus in this case is only used to send raw data to fill the VRAM, which the GPU slowly processes. The rate the GPU works through the data stored in its VRAM is slower than even the abysmal bitrate of a 1x PCIe 2.0 interface. Again, no bottleneck exists.
Where the AGA bottleneck does exist
So if the above extreme cases are where an AGA bottleneck does not exist, where will an AGA bottleneck be the most pronounced? The answer is where neither the GPU nor CPU are bottlenecks themselves, yet the information transmitted from CPU to GPU remains high.One such situation exists when playing relatively modern titles at low resolutions, and with exceptionally high frame rates. Such is the case with esports titles, where a game like CS:GO is still regularly played at very low resolutions of 1024x768. Even these games played on these competitive graphics settings are likely to hit a CPU or GPU bottleneck before the PCIe bottleneck on some hardware. Such was the case of my first AGA compatible 15R4 (i7-8750h), where I used a GTX 1080 in the AGA. The worst PCIe bottleneck I ever experienced (and was able to reliably measure) with this system was in CS:GO at 1024x768 and low settings. The AGA bottleneck in this scenario was an average frame reduction of about 10%, as measured against the exact same GPU in a desktop with an 8700k tuned to the equivalent TDP and frequency limits of the Alienware's 8750h. The case of CS:GO at 1024x768 low was the worst result I was able to identify after trying about 8 different games, all at unrealistically low resolutions. Rocket League also exhibited very similar behavior to CS:GO at 1280x800. While this is a seemingly significant result, the resolution is ridiculously low. I never experienced a bottleneck with this 15R4/AGA GTX1080 combination when playing a game at 1080p resolution or higher, no matter the game or graphics settings configuration. The CPU or the GPU would hit a wall before the PCIe bus bottlenecked.
The 15R4 and GTX 1080 is showing its age, so what about a more modern Alienware configuration? At the other end of the spectrum is my current system: an Area 51m with a 9900ks (tuned to only 4.4Ghz for heat & noise) and a Titan RTX in the AGA. This is more power than almost anyone else will try to force through the AGA, but it presents a useful anecdote at the other extreme end of the spectrum. In the same conditions as the earlier CS:GO test on the 15R4, the Area 51m exhibits an average reduction of 28% in framerate compared to the exact same CPU (identical power and frequency limits) and GPU in a Z390 desktop build. While this is a seemingly huge deficit in comparison to that exhibited by the 15r4, remember this is at 1024x768, low settings and with the best CPU + GPU combination available in an Alienware laptop + AGA (at least until the A51m R2 hits shelves.) At a more realistic 1080p resolution, the deficit was only 11% on average compared to the desktop equivalent. The gap shrunk to 7% and 4% at 1440p and 4k respectively.
While I was never able to reliably measure a drop in performance for the 15R4+GTX1080 system compared to its desktop counterpart at 1080p or above, the same cannot be said for the 51m + Titan RTX system. In the 8 games I tried, my experience is that you should expect a decrease in performance of 5-10%, compared to a desktop equivalent using the AGA with this level of elite hardware at 1080p. To oversimplify this result a bit, as the average FPS of the game increases, so too will the prevalence of an AGA bottleneck. At 1440p, the performance difference shrinks to between 4-7% and at 4k it closes to 2-5%.
I have also tried similar testing the 51m with a 2070S and 2080 in the AGA. I concluded there is effectively no practical difference between using them in the AGA compared to a desktop. Perhaps 1-3% variation at most, but I'm certainly not sharp enough to recognize a difference that small and it could very well be within the margin of error for the hardware. The difference grew slightly at 1080p, but still always remained within 5% of the desktop.
Last thoughts
A few last things to mention. First, Nvidia is emphasizing GPU features such as tensor cores and raytracing that largely perform without help from a CPU. Turning on raytracing on a compatible AGA GPU results in the expected reduction to framerates we would expect from raytracing, but it causes the GPU to bottleneck earlier, reducing the performance impact of an AGA attributable bottleneck. Said another way, the cost of enabling raytracing on an AGA RTX GPU is comparatively less than enabling RTX in a desktop. If a desktop were to drop 20% framerate performance by enabling RTX, enabling it on an AGA RTX GPU might only drop your framerate by 15%. This isn't particularly novel, but if features like raytracing are important to you, the AGA won't hold you back.
Second, Microsoft is moving towards more work being done on a GPU without help from the CPU through scheduling and DX12. I expect this to further reduce the stress on the PCIe bus as functions get moved directly to the GPU and no longer need to traverse the PCIe bus. I plan to test some of the new Windows and Nvidia driver updates in the AGA next month to see what improvements have been made.
Third, many gamers with the money to spend on a fancy Alienware laptop, AGA and another GPU will also do their AGA gaming on an external monitor with a resolution higher than 1080. Very little bottlenecking exists under these conditions, even with extremely high end hardware. Only the most devout esports gamers who want to play at exceptionally low resolutions (<720p) and high FPS should absolutely shy away from the AGA in favor of a desktop because of AGA bottlenecking.
Lastly, a well-thought-out system and properly configured game settings will always provide the best experience. Please don't pair an 8750h with a 2080ti and expect to get the same FPS as people with the same GPU in a 9900k desktop. Your laptop chip is inferior to the desktop ones used for GPU reviews. Even the 9900ks in my 51m is grossly inferior to the same chip unrestricted under Noctua copper in a desktop. These are not the fault of the AGA, but rather the result of our world's current fascination with thin-and-light machines. You can always modify your graphics settings to find the right balance of visuals and frames that work to minimize any premature GPU, CPU or AGA PCIe bottleneck.
Overall, the AGA is still a fantastic performer in 2020 and outperforms any TB3 enclosure.
 
Ok und was bedeutet das jetzt genau?
Willst du provozieren? Er wird die Aussage nicht ohne Grund getroffen haben. Und wenn man in dem Forum unterwegs, kann man nach einiger Zeit sehen wieviele sowas wollen und kaufen.
Beitrag automatisch zusammengeführt:

Wäre natürlich fett, wenn die Hersteller an der Seite einen PCI Express x16 Anschluss anbringen könnten. Man klappt eine Gummilasche auf und kann dann dort direkt die externe GPU ohne Verlust anschließen. Dafür hat der Laptop dann keine interne MXM GPU mehr. Den freien Platz auf der Rückseite kann man mit weiteren Heatpipes für die CPU samt Kühler verwenden. Dann stimmen die Temperaturen dort auch. Würde ich direkt kaufen.
 
Zuletzt bearbeitet:
Jep, das wer richtig cool. Intern nur CPU mit IGP und fürs Gaming einen externen PCIe x16 Anschluss. Man könnte auch auch einfach die Thunderbolt Lanes mit PCIe 4.0 anbinden. Schon hat man so gesehen den Speed von 3.0 x8 und der ist echt zu vernachlässigen. Thunderbolt müsste dann halt 80 GBit's machen. Leider macht Thunderbolt 4 auch nur 40 GBit's.
 
Willst du provozieren?
Machst du das nicht gerade mit deiner Frage? Finde deine Fragestellung im Zusammenhang mit deiner Begründung etwas fragwürdig. Insbesondere da ich schon einige Male bei deinen persönlichen Fragestellungen geholfen habe (Beispiel). Vielleicht verstehe ich sie auch einfach nur etwas falsch.

Da ich dich scheinbar, aus welchem Grund auch immer, getriggert habe und du eine Frage gestellt hast, erläutere ich dir gerne warum ich dem TS diese Frage gestellt habe.

1. Behauptet der TS, dass der AGA wie verrückt gekauft wird.
2. Begründet seine Aussagen damit, dass er im AW-Forum aktiv ist.
3. Kopiert einen 3 Meter langen Text, die nur die Meinung eines einzelnen widerspiegelt.

Fangen wir beim dritten Punkt an. MMn muss das Copy&Paste nicht unbedingt sein. Wenn die Leser der Roman interessiert kann man das auch ganz normal zur Quelle verlinken und sich dann auch weitere Meinungen zu dem Thema durchlesen ohne gleich 3 Meter hier durch den Thread zu scrollen. Ich selber schreibe auch häufig lange How To's, Test, Anleitungen usw. (Beispiel1, Beispiel2, Beispiel3, Beispiel4, Beispiel5). Wenn ein genanntes Thema dann aufkommt, verlinke ich einfach mein Text/ mein Thread und gut ist. Im hier genannten Fall ist es nur die Meinung eines einzelnen und wenn man weiß wo die Quelle (NBR Forum) herkommt, schadet es sicherlich nicht die Meinung von verschiedenen anderen Leuten dort anzuhören, auch wenn man ein wenig aufpassen muss, von wem da eine Meinung kommt, aber das ist jetzt ein anderes Thema.

Zu Punkt 2. Er schreibt, er ist im AW-Forum aktiv. Das ist schön, ich glücklicherweise aber auch und im Gegensatz zum TS, bin ich nicht erst wenige Tage/ Wochen dort angemeldet und habe auch nicht 5-6 Beiträge, sondern befasse mich täglich seit Jahren mit der Alienware Thematik und nicht nur da, sondern auch im NBR-Forum, Reddit und Co, Repaste und modde ebenfalls Geräte der Community, baue Kühler (zum Teil alles geräteunabhängig) und und und. Muss ich jetzt in einem Thread, wo es um AW-Notebooks geht, das jedem auf die Nase binden, dass ich im AW Forum aktiv bin, um damit meine Meinung zu unterstreichen? Davon ab, sagt das noch lange nichts darüber aus, in wie weit man sich mit der Materie auskennt. Genau aus dem Grund habe ich die Frage gestellt. Nur weil jemand wo anders "aktiv" ist, sagt das noch gar nichts aus. Wenn ich mich jetzt bei Github anmelde und drei Beiträge dort schreibe, bin ich auch kein Programmierer.

Zu Punkt 3. Da ich häufig mit den AW-Geräten zu tun habe, beobachte ich auch den Gebrauchtmarkt regelmäßig. Wenn der TS mir hier ein erzählen will, dass der AGA wie verrückt gekauft wird, beruht das allein auf seine Erfahrung/ Meinung. Auch wenn du es nicht glaubst, Gaming-Notebooks sind ein Nischen-Produkt, speziell AW-Notebooks noch mehr und der AGA ist noch "nischiger". Daher ist der AGA auf'n Gebrauchtmarkt nicht großartig vertreten. Hinzu kommt natürlich wie man nach dem AGA sucht. In der Regel sind meistens so 2-3 Stück online, in einem Preisbereich von 90-150€. Schaut man heute auf ebay KA rein, deckt sich das auch ungefähr.

Wäre natürlich fett, wenn die Hersteller an der Seite einen PCI Express x16 Anschluss anbringen könnten. Man klappt eine Gummilasche auf und kann dann dort direkt die externe GPU ohne Verlust anschließen. Dafür hat der Laptop dann keine interne MXM GPU mehr. Den freien Platz auf der Rückseite kann man mit weiteren Heatpipes für die CPU samt Kühler verwenden. Dann stimmen die Temperaturen dort auch. Würde ich direkt kaufen.
Und wie willst du das Notebook dann benutzen, wenn du alle PCIe Lanes auf einen Anschluss legst? Zumal ja die Verlustleistung mit 4x noch vertretbar ist. Der mobile Intel Chipsatz HM370 unterstützt max. nur 16 Lanes, der erweiterte QM370 bis max. 20 Lanes, was aber nicht bedeutet, dass die Hersteller diese auch vollständig nutzen. Soweit ich das gesehen habe, nutzt der m15 R1 und m15 R2 den HM370. Der m15 R3 weiß ich nicht. Der Area 51m R1 & R2 nutzt den QM370. Trotzdem läuft der AGA dort über vier Lanes. Gut möglich, dass sie der dedizierten GPU mehr Lanes zur Verfügung stellen.

Fraglich ist auch, ob AW die ganze AGA Geschichte überhaupt noch weiter supporten wird. Während das gesamte Portfolio umgestellt und der neuen Design-Sprache angepasst wurde inkl. Peripherie wie Tastatur, Maus, Monitor usw., ist der AGA immer noch unverändert seit 2016 (glaub ich). Die 20er Serie hat da schon kaum reingepasst und mit der 30er Serie wird's noch schlimmer. Es ist zumindest nicht auszuschließen, dass zukünftige Geräte den AGA Anschluss nicht mehr besitzen werden, da eine Weiterentwicklung seitens Dell nicht zu sehen ist.
 
Zuletzt bearbeitet:
In erster Linie sieht man doch nicht das schlimmste in jedem, oder? Und wenn er meint das man gebrauchte nur mit Glück bekommt, dann ist das für mich plausibel. Warum auch nicht?

Du hast doch auf dem Board den x16 Anschluss der MXM Karte. Kann man denn den nicht „verlängern“ und den Anschluss am rechten Gehäuserand platzieren? Das muß doch technisch möglich sein? Da wird doch dann nur das eh schon vorhandene anders angeordnet.
 
Und wenn er meint das man gebrauchte nur mit Glück bekommt, dann ist das für mich plausibel. Warum auch nicht?
Wenn man erst seit kurzem ein AW Notebook besitzt und sich auch seit kurzem erst mit der Materie auseinandersetzt, kann man das meinen, ja. Wie gesagt, mein ebay Link aus dem vorherigem Post funktioniert nach wie vor und es sind immer noch mindestens drei Anzeigen online + die paar, wo die Leute das Notebook + AGA verkaufen. Es ist halt ein absolutes Nischen-Produkt, welches nicht gerade oft gekauft wird. Zumindest nach meiner Erfahrung und dem, was ich auf Reddit, NBRF und im deutschsprachigem Raum die letzten Jahre darüber gelesen habe. Mit der richtigen Ausstattung und optimaler Kühlung (eigenes Thema für sich) haben die Notebooks ausreichend Power mMn und benötigen keine externen Geräte.

Du hast doch auf dem Board den x16 Anschluss der MXM Karte.
Alienware hat nur bis zum AW17x R4 MXM Karten verbaut (bzw. der 18"er hatte auch noch MXM) und seither nur noch BGA. Das ist mal locker um die 10 Jahre her. Wie kommst du drauf, dass GPUs mit 16x angeschlossen sein müssen? Schaut man ins Schematics Dokument vom AW17 R4/ AW15 R3 ist die GPU (10er Serie) mit 8x Lanes angebunden.


AW17 R4 AW15 R3.jpg


Selbst im Area 51m ist die GPU "nur" mit 8x Lanes angebunden. Hier ist die GPU ähnlich (DGFF) wie der MXM-Standard eingebaut:

Area 51m Schematics.jpg



Kann man denn den nicht „verlängern“ und den Anschluss am rechten Gehäuserand platzieren? Das muß doch technisch möglich sein? Da wird doch dann nur das eh schon vorhandene anders angeordnet.
Das kann ich nicht beantworten, da ich weder Ingenieur bin, noch bei Compal arbeite. Sicherlich würde es da irgendein Kompromiss als Lösung geben, aber dann müsste man das Notebook an anderer Stelle kastrieren und wahrscheinlich ist das auf heutige Sicht einfach nicht mehr zeitgemäß.

Es ist zumindest nicht auszuschließen, dass zukünftige Geräte den AGA Anschluss nicht mehr besitzen werden, da eine Weiterentwicklung seitens Dell nicht zu sehen ist.
Mittlerweile häufen sich auch die Berichte, dass die neue RTX Generation nicht mit dem AGA kompatibel ist. (Quelle: NBRF, Dell-Forum). Da sieht man welche Wichtigkeit das Thema bei Dell hat. Bei anderen Notebooks läuft selbst ne RTX 3090 problemlos übern TB-Port (siehe Video im vorherigen Beitrag).
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh