GH100-GPU: NVIDIA präsentiert die Hopper-Architektur

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.554
h100-gpu.jpg
Wie erwartet hat NVIDIA auf der Keynote der GTC 2022 den Nachfolger der Ampere-Architektur namens Hopper vorgestellt. Die GH100-GPU ist der Datacenter-Ableger – analog zur GA100-GPU der Vorgänger-Architektur. Gefertigt wird die GH100-GPU in 4 nm bei TSMC (N4) und die Anzahl der Transistoren gibt NVIDIA mit 80 Milliarden an. Der Vorgänger brachte es auf 54 Milliarden Transistoren und wurde in 7 nm gefertigt.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verbrauch ist natürlich abartig, aber wenn die Rechenleistung der Wahrheit entspricht
(also auch in realen Anwendungen ankommt) und gut runterskalierbar ist.. hört es sich ganz gut an.
 
Verbrauch ist natürlich abartig, aber wenn die Rechenleistung der Wahrheit entspricht
(also auch in realen Anwendungen ankommt) und gut runterskalierbar ist.. hört es sich ganz gut an.
Außerdem ist es ein Vollausbau, welches man nie zu 100% so betreibt. Es reicht schon zu wissen, dass die in 4nm gefertigt werden.
 
Bei CB ist von 700W die Rede schaut man sich den Vorgänger an und schaut dann auf die 3090Ti dann könnten die Gaming Karten tatsächlich in die im Vorfeld Spekulierten Bereiche vorstoßen!

Meine 3080Ti klebt jetzt schon an der 400W Marke wen ich sie lasse und das finde ich schon ziemlich heftig !
Früher kam ich da nur mit OC hin heute muss man nur das Powerlimit freigegeben !
 
Lieferbar 2042 :devilish::ROFLMAO:
 
Kommt denn dann auch spürbar mehr Leistung an? Bin ja immernoch mit meiner UV 1070 unterwegs. Und die rennt problemlos mit 2000mhz unter last. Die 100mhz mehr machen den Kohl nicht fett die ich bei max oc hätte. Aber 20°c kühler ist sie unter last. Die Technik ist natürlich jetzt schon ein paar Jahre weiter.
 
@Don

Kann man anhand des Vollausbaus schon erkennen wohin die Reise mit der 4000er Serie geht?
 
@Don

Kann man anhand des Vollausbaus schon erkennen wohin die Reise mit der 4000er Serie geht?

sind doch 2 unterschiedliche Architekturen mit unterschiedlichen Fertigungsgrößen und unterschiedlicher Speicheranbindung. Kann man da überhaupt was "deuten" oder wäre das nicht schon Kaffeesatz lesen?
 
Das ist doch schön mit dem Limit. Die Chips skalieren doch inzwischen wunderbar.


Von GB/s nach TB/s sind doch eine nette Steigerung in etwas mehr als 20 Jahren. 20 mio zu 80 mrd Transistoren knallt auch ordentlich. Moores law geht schön strack weiter.
 
sind doch 2 unterschiedliche Architekturen mit unterschiedlichen Fertigungsgrößen und unterschiedlicher Speicheranbindung. Kann man da überhaupt was "deuten" oder wäre das nicht schon Kaffeesatz lesen?
Ja, den Gerüchten zu Folge wird die 4000er aber nicht gut, Mehrleistung erkauft durch hohe TDP. Das ist ja bei den RTX 3000 nicht gut, vor allem wie man jetzt bei der 3090 Ti sieht.
Kommt denn dann auch spürbar mehr Leistung an? Bin ja immernoch mit meiner UV 1070 unterwegs. Und die rennt problemlos mit 2000mhz unter last. Die 100mhz mehr machen den Kohl nicht fett die ich bei max oc hätte. Aber 20°c kühler ist sie unter last. Die Technik ist natürlich jetzt schon ein paar Jahre weiter.
Natürlich kommt da mehr Leistung an. Nur die Preise gehen gar nicht. Das wird sich vermutlich auch nicht mehr ändern. Also muss man zukünftig entweder ins Scalping einsteigen oder hoffen dass es wieder eine UVP-Aktion bei AMD gibt. Die dicken Karten aus 2021 sind aber auch nicht für 1080p-Gaming gedacht, dafür wären sie völlige Verschwendung. Leider wirst du für den damaligen Preis einer 1070 nichts signifikant schnelleres bekommen, der einzige Trost ist dass du aktuell noch 300 - 400 € (Neupreis) für so eine Karte bekommst. Damit tut das Upgraden dann nicht mehr so sehr weh als wenn man komplett neu kauft.
 
Ne die bleibt schön im Büro ich such was für den oled :fresse:
Aber da das dann rein zum 4k zocken ist werd ich wohl auf die nächste gen warten. Da sollte eine graka der 7er oder 8er Reihe genug Bums haben
 
Ich zocke schon seit 2015 auf 4K. Die aktuelle Generation ist die erste die 4K bei meist weit über 60 FPS schafft. In Grafikkrachern reicht es meistens für 60 FPS. Allerdings wirst du mindestens 1 K für so eine GPU ausgeben müssen. Ältere Spiele laufen auch auf langsameren Karten, die 1070 hatte ich zum Beispiel auch mal, die schaffte damals problemlos 60+ FPS in BF1 (was damals neu rauskam) mit ein paar optimierten Einstellungen. Eine Karte wie die 6900 XT macht hier allerdings mit allen Reglern auf Anschlag um die 120 - 140 FPS in dem Spiel. Für mich ist nun erst mal ein neuer Monitor fällig, eventuell heißt das gar die kommende Generation dann zu überspringen. Die Preissituation wird sich definitiv nicht bessern. Meine Hoffnung ist aber auch dass eventuell gar nicht das Topmodell nötig ist, das RDNA3-Flaggschiff soll 2.5x so viel Leistung bekommen wie die 6900, damit würde die Karte mutmaßlich sogar aktuelle Grafikkracher mit weit über 100 FPS schaffen.
 
Die Gerüchteküche der letzten Wochen bis gestern sagt:

- 4090 etwa 75% mehr Power als die 3090. Man kann ja mal n bischen den Dreisatz bemühen und Shaderzahlen vergleichen - ich denke das könnte hinhauen.
- Gleichzeitig wird das Gerücht gekocht, dass bis 600W unter Luft gekühlt werden kann. Das würde mit dem effizienteren Node und 75% mehr Pixelpower zusammenpassen.
- Jetzt wird die Fertigung durch die feinere Node teurer, der Chip größer und das Risiko für Defekte in der Fertigung höher (Yield). Gleichzeitig werden größere Kühler und mehr Spannungsregelungselektronik gebraucht. Das lässt nix gutes für die Preise erahnen. Gerüchteküche sagt: Preis/Leistung bleibt bei Nvidia +- gleich. Würde bedeuten, basierend auf der 3090, dass die 4090 Richtung 2500€ UVP geht.
- Weiter gehts mit dem Gerücht, dass AMD im Highend die Krone übernehmen wird. Das wiederum bedeutet, dass Nvidia die Chips treten wird um dran zu bleiben. Viel Strom, viel Takt, wenig Effizienz.
- letztes Gerücht: AMD Chips werden deutlich effizienter (30% und besser) für gleiche Leistung. Das heißt auch, dass Nvidia bei Strom und Takt am Anschlag sein dürfte (hallo Untervolting) und AMD kann sich aussuchen ob sie den kleineren Chip treten und mit Strom und Takt an die nächste Leistungsklasse ran bekommen, oder ob sie den Chip gemütlich arbeiten lassen, eine Klasse weiter unten. Chipgröße und Transistorzahl wird in den Klassen **70-*700, **60-*600, **90-*900 wahrscheinlich hochinteressant werden.
 
Zuletzt bearbeitet:
Für mich wird ab dem nächsten Kauf auf jeden Fall ausschlaggebend sein, wie viel GB RAM die neue Grafikkarte haben wird. Die 10GB oder 12GB würde ich nicht mehr kaufen. Da kann sich Nvidia auf den Kopf stellen. Und die 24GB der 4090 oder 4090ti kommen dann preislich nicht infrage. Ich hoffe auf AMD, auch wenn ich an sich immer Nvidia bevorzugt habe. Von Intel bin ich auch auf AMD umgestiegen, bin also nicht festgefahren.
Hinterher habe ich wieder einen Intel als CPU und diesmal eine AMD Graka, wer weiß 🤷‍♂️. Oder auch der 20.April ist ja nicht mehr weit.
 
Na und Du bist erstmal zu Intel gegangen. Auch nicht schlecht^^
 
- Weiter gehts mit dem Gerücht, dass AMD im Highend die Krone übernehmen wird. Das wiederum bedeutet, dass Nvidia die Chips treten wird um dran zu bleiben. Viel Strom, viel Takt, wenig Effizienz.
- letztes Gerücht: AMD Chips werden deutlich effizienter (30% und besser) für gleiche Leistung. Das heißt auch, dass Nvidia bei Strom und Takt am Anschlag sein dürfte (hallo Untervolting) und AMD kann sich aussuchen ob sie den kleineren Chip treten und mit Strom und Takt an die nächste Leistungsklasse ran bekommen, oder ob sie den Chip gemütlich arbeiten lassen, eine Klasse weiter unten. Chipgröße und Transistorzahl wird in den Klassen **70-*700, **60-*600, **90-*900 wahrscheinlich hochinteressant werden.
Davon gehe ich mittlerweile auch aus. RDNA ist bereits effizienter als NVIDIA, wobei NVIDIA auch mehr Computeleistung hat (dafür wurde es entwickelt nicht für Gaming). Wo ich NVIDIA im Aus sehe ist MCM, was ja bei RDNA3 schon bestätigt ist. Damit könnte AMD ein wesentlich günstigeres und gleichschnelles oder gar schnelleres Produkt bringen. Da AMD momentan ja taktmäßig sogar vorne ist ist das gar nicht so unabwegig. ~2,6 GHz auf einer RDNA2 sind ja schon die Norm, es wird an die 3 GHz dran gehen auch mit dem 15000 Shader-Monster.
Für mich wird ab dem nächsten Kauf auf jeden Fall ausschlaggebend sein, wie viel GB RAM die neue Grafikkarte haben wird. Die 10GB oder 12GB würde ich nicht mehr kaufen. Da kann sich Nvidia auf den Kopf stellen. Und die 24GB der 4090 oder 4090ti kommen dann preislich nicht infrage. Ich hoffe auf AMD, auch wenn ich an sich immer Nvidia bevorzugt habe. Von Intel bin ich auch auf AMD umgestiegen, bin also nicht festgefahren.
Hinterher habe ich wieder einen Intel als CPU und diesmal eine AMD Graka, wer weiß 🤷‍♂️. Oder auch der 20.April ist ja nicht mehr weit.
Wenn der RAM so bleibt ist NVIDIA echt unten durch. Kann ich mir aber nicht vorstellen. AMDs Ruf bessert sich schon massiv, manche kaufen trotzdem nur grün und reden sich dann schön wenn das Produkt überteuert mit zu wenig VRAM kommt. Bei NVIDIA sind die VRAM-Bestückungen momentan ja die reinste Achterbahn, 8 GB im Einstieg, 12 GB in der Mittelklasse, 8-10 GB in der Oberklasse. Die 3080 LHR 12 GB und die 3080 Ti 12 GB gibt es ja auch noch, wobei die schon dermaßen teuer sind dass man sie kaum zählen kann. Vor allem angesichts der Preise für den VRAM. Ic hrechne mit locker 32 GB für das AMD-Topmodell, NVIDIA wird da nachlegen müssen. AMD liefert aber auch die kleineren Modelle mit demselben VRAM aus, also Big Navi mit 16 GB, das Mittelklassemodell mit immerhin 12 GB. Das wird sich beim nächsten Mal verdoppelt. NVIDIA muss hier dringend nachziehen.

Eine MCM-Lösung von NVIDIA wird es langfristig sicher auch geben, man darf ja auch nicht vergessen dass AMD erst seit kurzem überhaupt wieder im Spiel ist. Die großen Gewinne durch Ryzen werden sicher auch in die Entwicklung von GPUs eingeflossen sein, zudem hat AMD den Hausvorteil was das MCM-Design betrifft. Dass der die Zukunft ist sagte ich schon vor Jahren, jetzt sieht man dass es so ist. Ich hoffe langfristig auf bessere GPUs zu Preisen wie in der Anfangszeit von Ryzen. Deshalb wäre es wünschenswert wenn NVIDIA noch was bringt. Es tut denen aber auch mal gut endlich mal nicht mehr an der Spitze zu sein. Die Gier ist wie bei Intel vorher echt zu heftig geworden. Bei Intel hat sich das aber schlagartig gelegt als AMD zurück war, ohne Konkurrenz kein Fortschritt und keine günstigen Preise.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh