Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

Ich denke, Nvidia hatte nie vor den GA102 als Release Chips rauszukloppen, da war der GA104 angedacht. Da sie AMDs Potential jetzt aber relativ gut einschätzen können, sahen sie sich genötigt, den GA102 zu benutzen. Die 5376 Shadereinheiten wollen auch unter 7nm mit Strom versorgt werden und evtl. ist der Effizienzsprung auf 7nm genau dafür benutzt worden - um mehr Shader bei gleichem Takt laufen zu lassen. Dazu kommen aber noch einmal 60W für die 24GB. Igor hats ja schön runtergerechnet, dass der Die an sich eher im 230W Bereich rumdümpelt. Das paßt alles schon.

AMDs Big Navi hätte im Vollausbau 5120 Schadereinheiten - nicht so weit entfernt. Und auch wenn wir das nicht gleichsetzen können, wird Nvidia auf Nummer sicher gehen und einfach nen Chip mit "mehr" rauskloppen. Bis zum Schluss kann Nvidia ja noch am Takt schrauben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja ist doch irgendwo schon mal gut, AMD zwingt Nvidia mit BN zum Äußersten, dann geht's voran mit der Leistung. :)
 
Nö, das passt eben so nicht... Dass man das durch die AMDler Brille nicht sieht, verstehe ich aber. Nix für ungut ;) Wer da nicht erkennt, dass da was nicht stimmen kann, sorry... Kann ich nix für. Sie müssten sich massiv verschätzt haben.
Auch deine Aussage zu Turing ist völlig aus der Luft gegriffen. Ne GPU entwickelt sich nicht von jetzt auf gleich. So ein 700mm² Ding schon gleich gar nicht. Zumal es (ggü. dem GV100 auf der TitanV) auch nichts ändert. Wir wissen, dass 5120 ALUs in 12nm gehen und das auch in nicht minder mehr Leistungsaufnahme. Das müsstet ihr eigentlich doch gerade durch AMD langsam gelernt haben? Mal eben so fix umbauen, weil was mehr benötigt wird, ist nicht...
Was die 60W beim Speicher auf einmal für ein großes Problem sein solle, ist mir ebenso ein Rätsel - die 8000er RTX mit 48GB säuft auch nicht sonderlich mehr wie andere. Modelle mit viel geringerem Ausbau. Die Menge machts dort btw. auch nichtmal unbedingt. Eher die Kombo aus Takt und Interfacebreite. Btw. zeigt auch die TitanRTX, dass der Verbrauch mit doppeltem Speicher bei GDDR6 nicht nennenswert steigt. Hier wäre dann die Frage, warum sollte man dann meinen, dass mit GDDR6X, dessen Notwendigkeit bei so popligen Mehrleistungsregionen sogar noch in Frage steht, auf einmal sonst wie viel mehr Verbrauch drin sein sollen?

Irgendwas stinkt da noch gewaltig im Spekulatius-Haufen.
 
Naja ist doch irgendwo schon mal gut, AMD zwingt Nvidia mit BN zum Äußersten, dann geht's voran mit der Leistung. :)

AMD geht hier auch bis zur Kotzgrenze, da kannst du sicher sein. Ansonsten wäre die XTX Variante nicht aufgetaucht. Nur haben die so langsam Erfahrung damit, ihre Hardware im rot-roten Bereich laufen zu lassen. Auch wenns bei AMD 3 Kopfnüsse braucht bis es klingelte, die Ryzen Chips brauchst du praktisch nicht mehr overclocken, weil die out-of-the-box schon krass gut fahren. Wenn die das jetzt auch auf BN anwenden... holla die Waldfee, das wird ne Schlammschlacht.

Bleibt nur die finale Frage: Wird der Preis deswegen fallen, oder setzen beide hoch an bleiben oben? Ich fürchte ja eher, dass Nvidia mit Preisen richtung 2.000€ agieren wird und AMD nicht weit dahinter ansetzen wird.
 
Zuletzt bearbeitet:
Jedes Jahr wieder das Gehype... ihr lernt es auch einfach nicht, oder? :d
 
Ne GPU entwickelt sich nicht von jetzt auf gleich. So ein 700mm² Ding schon gleich gar nicht.
Nvidia hat bisher so ziemlich jeden Chip beschnitten, um ihn in eine SKU zu quetschen. Da wird einfach vom Vollausbau was weggenommen und schon haben sie ihren "neuen Chip". die Frage ist nur, ob der Vollausbau ausreicht. Bei GA104 offensichtlich nicht, also wurde es der GA102. Und wenn der nicht gereicht hätte, hätten sie zur not ne titan auf nem GA100 basierend gebastelt - nur um die Krone zu haben.

Zumal es (ggü. dem GV100 auf der TitanV) auch nichts ändert. Wir wissen, dass 5120 ALUs in 12nm gehen und das auch in nicht minder mehr Leistungsaufnahme. Das müsstet ihr eigentlich doch gerade durch AMD langsam gelernt haben? Mal eben so fix umbauen, weil was mehr benötigt wird, ist nicht...
Puh - da muss ich ausholen: Polaris war damals gar nicht auf die Taktraten ausgelegt, mit dem Polaris am Ende geliefert wurde. Die ganze 2.8x mehr Effizienz ist komplett verpufft, weil man nicht bei 1.000MHz getaktet hat, sondern auf 1.550+ am Ende. Somit war jegliche Effizienzdiskussion erledigt. Je größer der Chip ist, desto geringer ist der Scheitelpunkt, ab dem du in den Runaway-Effekt kommst. Das lässt sich nur auf Transistor-Level noch etwas ausgleichen - was man irgendwie mit Vega versucht, aber nicht geschafft hat. Erst die jetzigen APUs die Vega auf 2.000+ MHz treten kommen so langsam in den Genuss die Architektur auszureizen, aber dafür isses halt viel zu spät - egal, anderes Thema.

Ich kenne den Scheitelpunkt bei Ampere nicht, aber wenn der bei 1.800MHz liegt und Nvidia den Chip auf 2.000MHz treten will und das ding steil nach oben geht, weil es noch keine Transistoroptimierungen gibt (wir erinnern uns an Fermi), dann kann es durchaus ein Schluckspecht sein. Kurzum: Ja, es muss was faul bei sein.


Was die 60W beim Speicher auf einmal für ein großes Problem sein solle, ist mir ebenso ein Rätsel - die 8000er RTX mit 48GB säuft auch nicht sonderlich mehr wie andere.
Taktet ja auch anders.

Modelle mit viel geringerem Ausbau. Die Menge machts dort btw. auch nichtmal unbedingt. Eher die Kombo aus Takt und Interfacebreite. Btw. zeigt auch die TitanRTX, dass der Verbrauch mit doppeltem Speicher bei GDDR6 nicht nennenswert steigt. Hier wäre dann die Frage, warum sollte man dann meinen, dass mit GDDR6X, dessen Notwendigkeit bei so popligen Mehrleistungsregionen sogar noch in Frage steht, auf einmal sonst wie viel mehr Verbrauch drin sein sollen?

Irgendwas stinkt da noch gewaltig im Spekulatius-Haufen.
Dem stimme ich zu.


Jedes Jahr wieder das Gehype... ihr lernt es auch einfach nicht, oder? :d
Doch, schon. Nur wir haben trotzdem Spaß beim Fantasieren. :d
 
Zuletzt bearbeitet:
Nvidia hat bisher so ziemlich jeden Chip beschnitten, um ihn in eine SKU zu quetschen. Da wird einfach vom Vollausbau was weggenommen und schon haben sie ihren "neuen Chip". die Frage ist nur, ob der Vollausbau ausreicht. Bei GA104 offensichtlich nicht, also wurde es der GA102. Und wenn der nicht gereicht hätte, hätten sie zur not ne titan auf nem GA100 basierend gebastelt - nur um die Krone zu haben.
Du denkst zu kurz - da entwickelt man doch keinen 04er Chip um dann, fix und fertig im Laden stehen festzustellen - scheiße, Jensen - wir brauchen mehr ALUs, das reicht nicht. Lass noch einen 02er drüber stellen...

Titan auf GA100 geht auch nicht, weil GA100 keine RT Cores hat. Damit machen sie sich selbst einen. Von den 6x HBM2 Stacks ganz abgesehen, auch wenn nur 5 davon aktiv...


Ich kenne den Scheitelpunkt bei Ampere nicht, aber wenn der bei 1.800MHz liegt und Nvidia den Chip auf 2.000MHz treten will und das ding steil nach oben geht, weil es noch keine Transistoroptimierungen gibt (wir erinnern uns an Fermi), dann kann es durchaus ein Schluckspecht sein. Kurzum: Ja, es muss was faul bei sein.
Für sich genommen wäre das ein valider Punkt - zusammen mit dem Rest aber funktioniert das so nicht. Sicher kennen wir zu Ampere nichts, woher auch. Aber NV sollte es wissen. Sie wissen was sie wann wie und wo bauen wollen und wollten. MMn muss, wenn die 5376 ALUs stimmen, was gerade mal 1/6 mehr sind als TU102 im Vollausaub und exakt nichts mehr wie Volta GV100, komplett aufs falsche Pferd gesetzt haben. Ein derartig riesiger Prozess-Schwenk von 12nm auf 8/7/7nm+ - und dann 16,67% mehr ALUs und mit der Brechstange über den Takt??? Ich möchte ja vieles glauben, aber das kann ich nicht nachvollziehen...
Selbst wenn man die Gerüchte seinerzeit aufgreift, wo es hieß, Turing ist so groß, weil für irgend einen Prozess unterhalb 12nm (10nm Samsung? oder so war mal im Gespräch) geplant - ergibts keinen Sinn so nen winzigen Sprung zu planen.
Was Ich mir vllt noch vorstellen könnte - 3080 aka der Performance Chip kommt auf nem GA104 mit besagten 5xxx ALUs - und OnTop dann irgendwas größeres. Aber weiß nicht, so recht schlüssig ist das auch nicht...


Übrigens, mal noch einen Schritt weiter. GV100 ist ähnlich Turing in der Lage, meines Wissens nach zumindest (ich hab keine GV100 GPU aktuell) INT + FP gleichzeitig zu können - wie Turing auch. GV100 hat 84SMs zu 64 ALUs = 5376 ALUs. Das Ding ist riesig. FP64 dediziert, dafür kein RT Stuff und weniger Tensor Cores.
NV hat Turing aus Volta abgeleitet. Sie wussten doch, dass sie da ein paar ALUs mit ein wenig mehr Takt mehr oder weniger 1:1 eintauschen. Das HBM SI gegen ein 384Bit GDDR6 SI tauschen und dann vllt noch minimal Strom drauf packen müssen. Fertig... Sooo viel mehr ist das ja nicht. Zumindest High Level gesehen.
GA102 mit 5376 ALUs wäre dann ein Volta GA100 mit RT Cores ohne auch ohne FP64... Volta ist aus 2017. Das sind 3 Jahre Stillstand für 1:1 nen Prozessshrink mit exakt keinem Fortschritt? Sowas hat selbst Intel bis jetzt nicht hinbekommen - und die haben nach wie vor einen Prozessstillstand seit knapp 4 Jahren oder so.

Taktet ja auch anders.
Das sind Peanuts. Ne Hand voll Prozent - das geht komplett im Rahmen der Messtoleranzen unter, wenn überhaupt. Vor allem weil die Taktraten eh dynamisch sind.
Das Teil hat, soweit ich das richtig sehe als 48GB Version genau so wie die 24GB Version TBP von 295W und 260W TDP vom Chip. Die TitanRTX kommt auf real gemessene 280W mit 24GB. Taktet ein wenig höher. Hat aber meine ich kein ECC? Die Quadros haben es... Das sind 100% sicher keine riesigen Differenzen. Die Basis muss, egal ob 12GB, 24GB oder 48GB wenn dann sehr viel mehr Verbrauchen als bei GDDR6 ohne X, sonst bringt diese Angabe nichts negatives zur Sache, was sie nicht auch schon täte. (das machts dann halt aber auch nicht sinniger, wenn es daran auch nicht liegt)
 
Zuletzt bearbeitet:
naja 8/16 GB Ram is so 2007
Klar leider kann ich obenhin nicht mitreden, aber eine 1050 2GB bietet eine durchweg bessere Performance als eine 560 4GB.
Da muss natuerlich Nvidia MS bestochen haben dass das so ist und wer von der Linux Community hat Nvidia bestochen ?Canonical?
 
Du denkst zu kurz - da entwickelt man doch keinen 04er Chip um dann, fix und fertig im Laden stehen festzustellen - scheiße, Jensen - wir brauchen mehr ALUs, das reicht nicht. Lass noch einen 02er drüber stellen...

Titan auf GA100 geht auch nicht, weil GA100 keine RT Cores hat. Damit machen sie sich selbst einen. Von den 6x HBM2 Stacks ganz abgesehen, auch wenn nur 5 davon aktiv...
Andersrum: Nvidia ist noch in der Validierungsphase der PCBs - da kann man noch allerhand schrauben, auch wenn die Strafe 1 Monat Verzug wäre. Wenn die jetzt mitten beim Zusammenschrauben der Validationsboards festgestellt haben "Jensen, scheiße, das reicht eventuell nicht" dann kommt Jensen an und denkt sich "Ich fress meine Lederjacke, hol den GA102 raus!"

Nvidia wollte Marge mit kleinen Chips, muss jetzt aber wieder groß bauen, weil AMD *endlich* die Architektur halbwegs hingebaut bekommen hat. Und auf einmal sind die in Chipfläche konkurrenzfähig. Tja - da reichts dann nicht mehr mit einem 700mm^2 Chip AMDs 250mm^2 Chip zu kontern, wenn AMD auf einmal >500mm^2 rausholt. (Mal so ganz grob gedacht)



Für sich genommen wäre das ein valider Punkt - zusammen mit dem Rest aber funktioniert das so nicht. Sicher kennen wir zu Ampere nichts, woher auch. Aber NV sollte es wissen. Sie wissen was sie wann wie und wo bauen wollen und wollten. MMn muss, wenn die 5376 ALUs stimmen, was gerade mal 1/6 mehr sind als TU102 im Vollausaub und exakt nichts mehr wie Volta GV100, komplett aufs falsche Pferd gesetzt haben. Ein derartig riesiger Prozess-Schwenk von 12nm auf 8/7/7nm+ - und dann 16,67% mehr ALUs und mit der Brechstange über den Takt??? Ich möchte ja vieles glauben, aber das kann ich nicht nachvollziehen...
Selbst wenn man die Gerüchte seinerzeit aufgreift, wo es hieß, Turing ist so groß, weil für irgend einen Prozess unterhalb 12nm (10nm Samsung? oder so war mal im Gespräch) geplant - ergibts keinen Sinn so nen winzigen Sprung zu planen.
Was Ich mir vllt noch vorstellen könnte - 3080 aka der Performance Chip kommt auf nem GA104 mit besagten 5xxx ALUs - und OnTop dann irgendwas größeres. Aber weiß nicht, so recht schlüssig ist das auch nicht...
7nm hat ein Ende was die maximale Chipgröße angeht. Es gibt derzeit 2 Varianten davon - Samsung und TSMC. Samsung kann große 7nm Chips bauen, die haben aber eine geringere Effizienz. TSMC kann nur bis max 520mm^2, dafür laufen die aber richtig Sahne. Wenn Nvidia jetzt bei TSMC baut und das der GA102 ist, dann können die gar nicht größer. Oder sie machen es bei Samsung und der Scheitelpunkt ist im Popo. Woran genau es fehlt - kein Plan. Aber irgendwo muss ja der wurm drin sein, wenn Nvidia gleich mit ner Titan "kontert", was AMD so angeteasert hat.


GA102 mit 5376 ALUs wäre dann ein Volta GA100 mit RT Cores ohne auch ohne FP64... Volta ist aus 2017. Das sind 3 Jahre Stillstand für 1:1 nen Prozessshrink mit exakt keinem Fortschritt? Sowas hat selbst Intel bis jetzt nicht hinbekommen - und die haben nach wie vor einen Prozessstillstand seit knapp 4 Jahren oder so.
Heißes Thema. Es gab ja zwischendurch Gerücht, dass Nvidia bei Samsung was versucht hat und das gründlich in die hose gegangen sein sollte, weswegen sie schnell zu TSMC sind. Nur dort konnte man halt auch nicht irgendwas mal eben aus dem Hut zaubern und man hatte evtl. den Chip kleiner machen müssen? Des Weiteren hat AMD die Wafer für den besseren 7nm Prozess gebucht. Ob die auch für BN kommen oder ob das für Zen 3 reserviert ist... das steht in den Sternen. Aber Nvidia wird da Sicherlich nicht die bessere node als AMD bekommen. Andersrum wird da eher ein Schuh draus.


Das sind Peanuts. Ne Hand voll Prozent - das geht komplett im Rahmen der Messtoleranzen unter, wenn überhaupt. Vor allem weil die Taktraten eh dynamisch sind.
Das Teil hat, soweit ich das richtig sehe als 48GB Version genau so wie die 24GB Version TBP von 295W und 260W TDP vom Chip. Die TitanRTX kommt auf real gemessene 280W mit 24GB. Taktet ein wenig höher. Hat aber meine ich kein ECC? Die Quadros haben es... Das sind 100% sicher keine riesigen Differenzen. Die Basis muss, egal ob 12GB, 24GB oder 48GB wenn dann sehr viel mehr Verbrauchen als bei GDDR6 ohne X, sonst bringt diese Angabe nichts negatives zur Sache, was sie nicht auch schon täte. (das machts dann halt aber auch nicht sinniger, wenn es daran auch nicht liegt)
Kann ich nicht beurteilen, dafür müsste ich die Karten kennen. Ich kann nur sagen, dass meine Vega mit etwas undervolting besser lief als Stock und ich deswegen den Eindruck habe, dass man mit etwas tuning ne Menge aus ner Karte rausoptimieren kann. Evtl. laufen die quadro-Karten einfach näher am Sweet-Spot, wodurch solche Werte möglich sind... keine Ahnung.
 
Klar leider kann ich obenhin nicht mitreden, aber eine 1050 2GB bietet eine durchweg bessere Performance als eine 560 4GB.
Da muss natuerlich Nvidia MS bestochen haben dass das so ist und wer von der Linux Community hat Nvidia bestochen ?Canonical?


ging um Ram und nicht um VRam ;) und wenn die 4 GB reichen is doch gut
 
Was berichtigt das?, 2007 war 2-4GB RAM standard
nimmt man Steam als Gam0r Quelle sind noch immer mehr als 50% mit 8GB und weniger unterwegs :fresse2:


So um jetzt den Gam0r vorweg zu nehmen wer ist der echte Gam0r:
Ac irgendwas durchgespielt mit RTX 2080TI
CupHead mit einer intel IGP durchgespielt


Eigentlich sind viele PC Spieler nur ein haufen Lappen die sich mit Grafik und Geld profilieren koennen, jedoch nicht mit ihrem spielerischen Talent.:p
Das sind die gleichen die 144Hz Monitore eine Highend GPU, CPU etc. et all kaufen und dan cheater schreien wenn sie jemand mit einer IGP und 60 Hz TN Monitor einkassiert.
 
Zuletzt bearbeitet:
Andersrum: Nvidia ist noch in der Validierungsphase der PCBs - da kann man noch allerhand schrauben, auch wenn die Strafe 1 Monat Verzug wäre. Wenn die jetzt mitten beim Zusammenschrauben der Validationsboards festgestellt haben "Jensen, scheiße, das reicht eventuell nicht" dann kommt Jensen an und denkt sich "Ich fress meine Lederjacke, hol den GA102 raus!"

Nvidia wollte Marge mit kleinen Chips, muss jetzt aber wieder groß bauen, weil AMD *endlich* die Architektur halbwegs hingebaut bekommen hat. Und auf einmal sind die in Chipfläche konkurrenzfähig. Tja - da reichts dann nicht mehr mit einem 700mm^2 Chip AMDs 250mm^2 Chip zu kontern, wenn AMD auf einmal >500mm^2 rausholt. (Mal so ganz grob gedacht)

Kein Plan, dann müssten die Jungs und Mädels bei NV irgendwie völlig benebelt sein. Ich kann dir, ohne das Ding in der Hand gehalten zu haben sagen, dass man da ohne große IPC Sprünge oder irgend ein "Software" Wunder bei GV100 ALU Gleichstand und popligen 1/6tel mehr zum TU102 nicht erst im Nachgang sieht, dass man nen GA102 brauchen soll, damit Jensen nicht an seiner Jacke erstickt...
Das ist wie dein Polaris Beispiel von eben - da wundert sich doch AMD auch nicht, dass man mit 2304 ALUs nicht HighEnd gebaut bekommt. Das war, wenn dann so geplant. Die Frage ist eher, warum sollte NV das so geplant haben?
Marge? Möglich - aber Marge bekommt der Leader nicht, wenn man keine Produkte mehr verkauft. stump BWL funktioniert nicht in dem Geschäft, wo sich der Marktführer selbst übertreffen muss um nochmal was verkauft zu bekommen. Da muss er liefern. Und liefern heißt, die Kunden müssen nochmal kaufen. Das klappt nicht ohne Anreize. Mit AMD hat das erstmal nichts zu tun...

Btw. an welcher Stelle der AMD Vergleich passt, erschließt sich mir nicht so ganz? Wie kommst du denn auf die Zahlen respektive die Relationen? AMD hat aktuell den Prozess-Vorteil, den sie aber auch brauchen um auf der Effizienzhöhe zu sein. So halbgswegs zumindest. Zeitlich gabs da auch nix zu kontert. Mal schauen wer nächste Runde eher dran ist.


7nm hat ein Ende was die maximale Chipgröße angeht. Es gibt derzeit 2 Varianten davon - Samsung und TSMC. Samsung kann große 7nm Chips bauen, die haben aber eine geringere Effizienz. TSMC kann nur bis max 520mm^2, dafür laufen die aber richtig Sahne. Wenn Nvidia jetzt bei TSMC baut und das der GA102 ist, dann können die gar nicht größer. Oder sie machen es bei Samsung und der Scheitelpunkt ist im Popo. Woran genau es fehlt - kein Plan. Aber irgendwo muss ja der wurm drin sein, wenn Nvidia gleich mit ner Titan "kontert", was AMD so angeteasert hat.
??
GA100 ist 820mm²+ bei TSMC in irgend einem der 7nm Prozesse, die die da haben. Das mit der Größe ist mMn ein absolutes Märchen. Es ist eher eine Frage des Geldes und eine Frage der Ausbeute. GA100 erkauft sich NV mit offenbar geringer Ausbeute, sodass sie recht viel deaktiveren um verfünftige Preise zu bekommen. Also vernünftig im HPC Rahmen meine ich :fresse:

Aber Nvidia wird da Sicherlich nicht die bessere node als AMD bekommen. Andersrum wird da eher ein Schuh draus.
Möglich, aber selbst wenn - es erklärt nicht warum der Fortschritt trotz Prozess-Schwenk so gering ausfallen soll und es ist auch kein Indiz, wenn AMD nen besseren Prozess haben soll/bekommen würde, dass es so wäre mit dem mauen Fortschritt...

Kann ich nicht beurteilen, dafür müsste ich die Karten kennen. Ich kann nur sagen, dass meine Vega mit etwas undervolting besser lief als Stock und ich deswegen den Eindruck habe, dass man mit etwas tuning ne Menge aus ner Karte rausoptimieren kann. Evtl. laufen die quadro-Karten einfach näher am Sweet-Spot, wodurch solche Werte möglich sind... keine Ahnung.
UV funktioniert bei NV nicht minder schlecht - generell ist UV aber kein wirklich guter Basiswert, weil jeder von den Schrauberbubies seine Stabilität anders bewertet. Aber darum gings ja nicht. Du sprachst die 60W an, die da im Raum stehen. Ich sehe da wenig negatives an den 60W - entweder die 60W sind in relativ ähnlicher Größenordnung heute schon drin oder der GDDR6X muss da gewaltig mehr zu langen. Da gabs doch mal seinerzeit ne Folie von NV - wo sie sich über AMD lustig gemacht haben mit ihren TDP Angaben und dann aber selbst nur GPU only ggü. AMDs Angaben verglichen haben? Find das aber auf die Schnelle gerade nicht... Da kann man ggf. was von ableiten.

Btw. AMDs Folien damals zu HBM ggf. GDDR5 zeigten auch schon relativ viel Verbrauch für den Speicher. Da ging es aber eben darum, HBM zu beschönigen... Sehe hier wenig Angriffsfläche. Der Speicher kam vorher drauf, er kommt jetzt drauf. Ob das jetzt 10 oder 20W mehr oder weniger sind, macht den Kohl nicht fett.
Maximal noch wäre schlüssig, dass sie das PCB für 350W overall auslegen, warum auch immer - das erschließt sich mir nicht. Aber dann sollte das Teil weiter mit um die 250-280W im Realbetrieb nutzbar sein. Wie gesagt, Quadro RTX 6000/8000, 260W Chip/295W Board -> der NV Page zur Folge. Erfahrungsgemäß deckelt das hart an. Es gibt zwar Peaks, aber im Schnitt passt der Wert unter Last.


Mal ne andere Richtung vom Spekulatius - 3090 geistert ja noch rum. Früher war das mal ne Dual GPU, die "90" oder die "95". Dual kann ICH mir nicht vorstellen im Gaming. Aber Profi??
Alternativ wäre natürlich auch eine Art FE-OC denkbar. Quasi eine Titan für Gamer mit OC und doppeltem VRAM? Irgendwas findet sich sicher um den Verbrauch hoch zu ballern...
 
GA100 ist 820mm²+ bei TSMC in irgend einem der 7nm Prozesse, die die da haben. Das mit der Größe ist mMn ein absolutes Märchen. Es ist eher eine Frage des Geldes und eine Frage der Ausbeute. GA100 erkauft sich NV mit offenbar geringer Ausbeute, sodass sie recht viel deaktiveren um verfünftige Preise zu bekommen. Also vernünftig im HPC Rahmen meine ich :fresse:
Da bin ich jetzt auch überfragt. AMDs Prozess hat ne Maximale Größe - also muss Nvidia einen anderen benutzen.
 
Wieso nicht einfacher, durch dass das Nvidia keine Konkurrenz hat rutschen sie nochmal rauf aus 80/TI wird 90 :fresse2:
70 wird 80
60 zu 70
50 zu 60
30 zu 50
10 zu 30

GT 710 war ja die letzte 10er
 
Wieso nicht einfacher, durch dass das Nvidia keine Konkurrenz hat rutschen sie nochmal rauf aus 80/TI wird 90
Und was soll das bringen?
Mehr Modelle = breiteres Modellangebot = größere Preisstaffel.
Das Ding ist, man spekuliert hier darüber, dass die großen Modelle, also die 80TI/90 oder vllt gar die Titan ganz oben mit ~30% zulegt ggü. Turing. Da ists doch bumms egal wie sich das Ding schimpft, es wird nicht mehr ;)

Da bin ich jetzt auch überfragt. AMDs Prozess hat ne Maximale Größe - also muss Nvidia einen anderen benutzen.
Ich behaupte mal ganz frech - AMDs Prozess hat ebenso keine Maximale Größe und wenn, dann liegt die ähnlich hoch und wird durch andere Parameter bestimmt. Man kann nicht ewig große Chipflächen belichten in der Form soweit ich das in Erinnerung habe. Zumindest meine ich das mal irgendwo gelesen zu haben. Warum aber 500 oder 550mm² irgendwo ein Problem sein sollen, erschließt sich mir nicht...

Das mit der Chipgröße wurde bei Pascal schon damals behauptet - und dann kam GP100 und hats komplett egalisiert das Argument ;)
Genau so wie GV100 bewiesen hat, dass auch 12nm, was ein Abklatsch der 16nm ist bei TSMC, in diesen Größen fertigbar ist und war...
 
wo stürzt denn ein Rechner mit ab? Dein Gelaber ist eher ohne Hand und Fuß. Hätte mich auch gewundert wenn du auf mein Zitat geantwortet hättest :lol:
Ich glaube hier haben wir einen Fanboy ;)

Dann steck dir ne Navi in dein PC und du wirst sehr schnell sowas erfahren.

Da geht das schon über Monate so und findet bis heut kein Ende.
 
Ich behaupte mal ganz frech - AMDs Prozess hat ebenso keine Maximale Größe und wenn, dann liegt die ähnlich hoch und wird durch andere Parameter bestimmt. Man kann nicht ewig große Chipflächen belichten in der Form soweit ich das in Erinnerung habe. Zumindest meine ich das mal irgendwo gelesen zu haben. Warum aber 500 oder 550mm² irgendwo ein Problem sein sollen, erschließt sich mir nicht...
Dann müssten die Vögel was falsches gezwitschert haben - was ich nicht ausschließen will.
 
Dann steck dir ne Navi in dein PC und du wirst sehr schnell sowas erfahren.

Da geht das schon über Monate so und findet bis heut kein Ende.
möglich dass die 5700 broken sind, keine Ahnung, warum sollte ich mir eine einbauen?.
Allerdings verallgemeinerst du etwas, du behauptest halt einfach mal. Hatte mit grün und rot irgendwie noch nie Probleme, weiß nicht obs an mir liegt :hust:
Unglaublich oder, dass ich von beiden Seiten kaufe? Das passt jetzt garnicht in dein Weltbild:lol:
 
Das mit den 5700-Problemchen kann auch auf die Netzteile zurückzuführen sein. Eine nicht zu unterschätzende Gruppe von Leuten hat die Bildfehler gelöst, in dem ein Kabel von ner anderen Rail benutzt wurde oder das Netzteil eben nicht auf Kante kalkuliert wurde, weil man 5€ sparen wollte. Ist vor allem ein Ami-Problem, die zu jedem Stück leicht stromhungriger Hardware direkt wieder ein Netzteil kaufen dürfen, weil sie halt nur auf Kante ohne Reserve nach oben kaufen. Ich hab selbst mit meiner Vega64 Probleme gehabt und musste OCP beim 1.000W Netzteil ausschalten, damit ich mit dem Teil sauber durchzocken konnte. Jetzt, wo ich 1.600W habe, gehts ohne Tricks.

Ist natürlich absoluter overkill für ein System, was unter Vollast sowas wie 400W zieht, aber da passiert wohl irgendwas mit Inrush-Current oder ähnliche Scherze.

PS: Die geleakten Benches stammen einer unekannten Graka - ob das jetzt die 3080 ist, die 3080Ti oder die 3090 wird sich noch zeigen. 30% mehr als ne 2080Ti ist aber erst einmal das, was BN als Gegner hat. Um die Titan mache ich mir weniger Sorgen, die konnte ja auch bei Turing für 3.000€ gekauft werden und wird bei Ampere nicht groß anders bepreist werden.
 
Zuletzt bearbeitet:
Dann steck dir ne Navi in dein PC und du wirst sehr schnell sowas erfahren.
Da geht das schon über Monate so und findet bis heut kein Ende.
dann sind wir wohl auch mal wieder die berühmte Ausnahme :d - im Pc meiner Holden werkelt seit Anfang des Jahres eine Sapphire Nitro+ 5700XT mit einem Ryzen 3600/B450 als Unterbau und da wird des öfteren mal nen Runde gespielt mit, aber bis jetzt gab es keinen einzigen Absturz beim Spielen.
Windows 10 ist halt immer am aktuellesten Stand und auch jeweils die neusten Amd Treiber (Grafik und Chipsatz) sind installiert. Gespielt werden die Sims und Anno und das jeweils mit allem was geht, so dass in whqd halt noch so 60 Fps am Tacho stehen.

Das Netzteil ist ein BQ Pure Power 500 Watt und damit läuft es wirklich problemlos, es ist halt so das die 5700XT im Peak schon mal für ein paar ms die 350-400 Watt Marke knackt, das sollte also nicht gar zu knapp bemessen sein - siehe auch igors Test zur Nitro

es ist also wohl bei einigen mit den Navi Problemen, womöglich doch eher ein Hardware Problem mit einem zu schwachen NT, als ein reines Treiberproblem...

Wobei ich generell weder bei Grün noch bei Rot jemals in der Vergangenheit größere Probleme wegen der Treiber gehabt habe, einzige Ausnahme war GTA 4 und die 4850 oder hatte ich da schon die 5870 :unsure: :d

ich sehe das ganze recht entspannt und bin einfach neugierig was dann wirklich von rot und grün kommt, das einzige, dass mich wirklich nervt ist, dass es noch min bis zum Spätherbst dauern wird bis es endlich neue Grakas zu kaufen gibt - meine 1080ti ist in 4K wirklich am Limit und ich möchte endlich RDR2 ordentlich in 4K spielen :shot:

und nein das Geld für ne 2080ti (zudem auch die rdr2 noch nicht perfekt in 4K 60fps durchgehend packt) schmeiss ich Nvidia zum jetzigen Zeitpunkt nicht mehr in den Rachen - das habe ich leider verpasst da ich nicht damit gerechnet habe das es solange dauern wird bis da endlich mal was stärkeres kommt :fresse2:
 
Zuletzt bearbeitet:
Ist vor allem ein Ami-Problem, die zu jedem Stück leicht stromhungriger Hardware direkt wieder ein Netzteil kaufen dürfen, weil sie halt nur auf Kante ohne Reserve nach oben kaufen.
Amis kaufen Netzteile auf Kante? Wird da nicht nen 600W PC in nen Office Rechner gesteckt? Und sobald ne dGPU drin ist wird >= 750W gekauft?

Ich hab selbst mit meiner Vega64 Probleme gehabt und musste OCP beim 1.000W Netzteil ausschalten, damit ich mit dem Teil sauber durchzocken konnte. Jetzt, wo ich 1.600W habe, gehts ohne Tricks.
Was nur bestätigt dass die AMD GPUs seit Polaris irgendwie doch etwas "spezieller" sind, das kann man nicht als normal abtun.
 
Ich hab selbst mit meiner Vega64 Probleme gehabt und musste OCP beim 1.000W Netzteil ausschalten, damit ich mit dem Teil sauber durchzocken konnte. Jetzt, wo ich 1.600W habe, gehts ohne Tricks.

Ernsthaft? :lol:mein Bequit 750W hat keine Probleme mit meiner Vega. Und die mag in Timespy auch mal gerne 380W

Jungens ich weiß nicht was ihr mit eurer Hardware und Treibern macht :P
 
Naja so abwegig ist das jetzt nicht, AMD hat ja für Vega schon 750 Watt NTs empfohlen, der Grund waren doch diese enormen Spannungsspitzen, Igor hatte das doch auch mal untersucht.
 
Was der Hersteller empfiehlt ist aber i.d.R. weit über dem was man benötigt. Zumindest wenn man sich nicht so einen China-Böller rein baut. Aber mal ehrlich, was soll da verbaut sein für über 1000Watt? Schlimmer noch, 1600Watt?! Klar, kann man machen, läuft aber vermutlich zu 99,438227% der Zeit mit max. 40% Auslastung....
 
Wer den Schaden hat, braucht für den Spott nicht zu sorgen... Das 1000W Netzteil war ein be-quiet! dark power pro 10 und das 1600W Netzteil ist ein Corsair AX1600i - nur als HG-Info. (sollte eigentlich auch in meiner System-Übersicht stehen) Die Vega64 ist auch nicht mehr in meinem System und wurde unlängst durch die 5700XT abgelöst, welche mir keine Probleme macht. Btw, die OCP sprang sowohl Stock als auch im UV Modus an - im UV Modus sogar öfter als Stock. (Bis ich dann OCP beim be-quiet ausgeschaltet habe, beim Corsair gings ohne Tricks)

Möge sich ein Elektriker damit auseinandersetzen, ich bin meine Probleme los. :d

Was der Hersteller empfiehlt ist aber i.d.R. weit über dem was man benötigt. Zumindest wenn man sich nicht so einen China-Böller rein baut. Aber mal ehrlich, was soll da verbaut sein für über 1000Watt? Schlimmer noch, 1600Watt?! Klar, kann man machen, läuft aber vermutlich zu 99,438227% der Zeit mit max. 40% Auslastung....
Jupp, wenn mein 2700X und meine 5700XT auf Vollast laufen, kratze ich an den 500W Gesamtlast - nix was auch nur annähernd ein 1600W PSU rechtfertigen würde, aber: Ich wollte das Teil halt haben. :d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh