NVIDIA Editors Day: Details zur Blackwell-Architektur und der GeForce RTX 50

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.356
Zur CES stellte NVIDIA die ersten vier Modelle der GeForce-RTX-50-Serie auf Basis der Blackwell-GPU vor. Einige wenige Details gab es im Rahmen der Keynote, kurz darauf gingen die Produktseiten online, sodass wir die technischen Spezifikationen im Grunde bereits kennen. Auf einem Editors Day sprach NVIDIA aber etwas genauer über die verwendeten Technologien und nannte weitere Details, wie diese im Zusammenhang mit der Blackwell-Architektur stehen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm... ich halte mich ja sonst mit solchen Kommentaren zurück, aber warten wir mal die Rohleistung im Vergleich zu den 40xx ab.
So schön DLSS, etc. auch ist, so dermaßen aussagekräftig finde ich persönlich es nicht.
 
Ohje... Ich befürchte nichts Gutes :(

was tun nun? Ich weiß: ich warte nun und beobachte wie die 5090 Preise schön auf knapp 2200 fallen - dann kaufe ich erst eine 5090

Sorry NVIDIA

Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.
 
Laut den Diagrammen von NV scheinen die neuen Karten von der Rohleistung nicht viel schneller, als ihre vergleichbaren Vorgänger.
 
1736954367025.png
1736954382968.png


was denn nun? :d
 
960 GB/s ist korrekt, zusammen mit 30-GBit/s-Chips.
 
15% ist schon hart bei der 5080.

Aber 30% pure Rasterleistung on top zur 4090 finde ich jetzt absolut akzeptabel. Bei Indy würde ich damit in 4k+RT ohne FG/MFG nämlich permanent über die 60 FPS kommen. Mit der 4090 sind da auch Dips in die hohen 40er dabei.

Trotzdem am Ende alles wurscht, nur die finalen Reviews zählen. Insbesondere wenn das eigene Game der Wahl dabei ist.
 
Zuletzt bearbeitet:
Wird die RTX 6000 Serie dann auch wieder +100% auf den offiziellen Folien haben, weil dann 8 anstatt 4 extra Frames berechnet werden? Das Spiel kann man ja unendlich weiter spielen ohne die Rasterizer-Leistung signifikant erhöhen zu müssen.
 
Auch die Video-Engine wird aktualisiert. Der NVENC-Decoder liegt in der sechsten Generation vor, beim NVENC-Encoder ist es die neunte Generation. Unter anderem ermöglicht wird ein AV1 mit einem neuen UHQ-Profil (Ultra High Quality). Zudem kann möglich ist ein Decoding von Multi View-HEVC – zum Beispiel für VR-Anwendungen.


Die neue Blackwell-Video-Engine verfügt zudem über gleich zwei H.264-Decoder und ermöglicht das De- und Encoding von 4:2:2-Videoinhalten. 4:2:2-Videoencoding ist ein Farbunterabtastungsverfahren, bei dem die Helligkeitsinformationen (Luma, Y) vollständig erhalten bleiben, während die Farbinformationen (Chroma, U und V) halbiert werden. Im Vergleich zu 4:4:4, das alle Informationen vollständig speichert, und 4:2:0, das die Farbwerte noch stärker reduziert, bietet 4:2:2 ein gutes Gleichgewicht zwischen Qualität und Dateigröße, was es ideal für professionelle Videoproduktionen macht.

schön, dass nvidia eine Editors Day gemacht hat und das oben zitierte geschrieben hat

weil das für mich auch ein faktor für die 5000er serie und spannend mit deren varianten im vergleich zur 4000er serie
 
Wird die RTX 6000 Serie dann auch wieder +100% auf den offiziellen Folien haben, weil dann 8 anstatt 4 extra Frames berechnet werden? Das Spiel kann man ja unendlich weiter spielen ohne die Rasterizer-Leistung signifikant erhöhen zu müssen.
Auch bei Intel spricht man schon über XeSS FG für mehr als einen generierten Frame zwischen den gerenderten bzw. es sieht so aus, als sei der Weg, den man aktuellen gehen wird bei den GPU-Herstellern. Ob uns das nun gefällt oder nicht.
 
Auch bei Intel spricht man schon über XeSS FG für mehr als einen generierten Frame zwischen den gerenderten bzw. es sieht so aus, als sei der Weg, den man aktuellen gehen wird bei den GPU-Herstellern. Ob uns das nun gefällt oder nicht.
Da gibt es m.M.n. nichts nicht zu gefallen. Schließlich dürften die physikalischen Möglichkeiten, die Rohleistung zu steigern immer kleiner bzw. teurer auszubeuten werden. Somit ist AI ein legitimer Weg, weiterhin steigende Frameraten zu liefern.

Natürlich muss das Input Latency Problem noch irgendwie gelöst werden. MFG wird hier besser sein, aber es wird noch dauern bis das irgendwann auch in Shootern genutzt werden kann. Könnte mir aber vorstellen dass in Games bald Technologien wie RT oder MFG gar nicht mehr abzuschalten bzw. standard sein werden. Somit herrscht dann da auch wieder gleichstand und auch die Competitive Gamer werden sich daran gewöhnen müssen (oder ewig CS2 spielen). We'll see.
 
Gibts das Architecture Whitepaper schon fuer die Gaming Blackwell? Konnte es bisher nicht finden bei Nvidia.
 
Ne 5070 mit der Leistung der 4070Ti im Raster und 35W weniger Verbrauch und alle neuen Features und 4080 Niveau bei DLSS (an mehr glaube ich aktuell nicht). Klingt für mich gut... Freue mich auf die Tests 👍
 
Wenn ich das richtig verstanden habe wird das Transformer Modell in RR und Superresolution auch von der 4000er gut unterstützt ?
Nur das bei der älteren Gen. mehr Vram benötigt wird als bei der Blackwell Architektur?

Eigentlich finde ich genau eben dieses Transformer Modell und Reflex 2 am interessantesten.
Da sind die optischen Verbesserungen. Mal sehen ob in diesem Zusammenspiel dann auch Frame Generation besser aussehen wird.
Für mich persönlich das beste was Nvidia vorgestellt hat. Denke die 6090 wird ne tolle Karte und die 5090 wird einfach mal übersprungen.
Wenn DLSS 4 so viel an optischer Verbesserung bringt, dann wird auch im Mode 4K Balance oder Performance auch nochmals anders aussehen.
Freue mich auf den neuen Treiber. Werde DLSS 4 direkt dann mit Ready or Not ausprobieren.

Rein von der AI Leistung kommt die 4090 noch an die 5070 Ti ran laut Datenblatt. Bin mal gespannt ob das dann ausreichend ist
für zukünftige Games der nächsten 2 Jahre.
 
Also in Sachen Rasterizer-Leistung scheint die neue Generation wirklich nicht der große Wurf zu werden. Ich habe eben ein Video von Daniel Owen angeschaut, wo er eine Tabelle auf Computer Base zeigt.

Ich habe anhand dieser Basis mal folgende Tabelle gebaut, die immer die neue Generation mit der alten vergleicht.

Zugewinn an Shadern lt. Computer BaseRaster-Performance geschätzt lt. HW LuxxZugewinn an Leistungsaufnahme lt. Specs
RTX 5090+33%+30%+28%
RTX 5080+11%+15%+13%
RTX 5070 ti+17%+20%+5%
RTX 5070+4%+20%+25%

Über die Architektur selbst scheint zumindest was Rasterizing angeht kaum Mehrleistung pro Shader und Takt da zu sein gegenüber Lovelace. Mehrleistung wird eigentlich nur durch mehr Shader und eine voraussichtlich höhere Leistungsaufnahme generiert.
 
Möchte Dir nicht zu nahe treten aber das ist seit Wochen klar.
 
Naja liest ja nicht jeder im Thread mit.
Deswegen wiederholt sich das halt öfters.

Naja da die 5000er mal so ne echt schlechte Gen. wird könnte die Verfügbarkeit vielleicht 1-2 Stunden aufrecht erhalten werden :d
 
Ich bin mal auf die Aussagen zum berüchtigten Stromstecker gespannt, wenn die 5090er Grafikkarten jetzt vermutlich öfters Richtung 600W Stecker Spezifikation arbeiten werden als das dies noch die 4090 getan hat :unsure:
 
Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.
Wieso sollte das passieren? Selbst die 4090 ist verglichen mit ihrer UVP gerade so mit ach und krach auf 75% ihres Neupreises (also 1500€ statt 2000€) gefallen. Ja, gab auch ne Phase da gab es sie für 1700€ neu aber günstiger als 1400€ war sie da gebraucht auch nicht wirklich. Und jetzt fehlt sogar die Konkurrenz durch AMD.
 
Oder wenn man nicht schon eine GeForce-RTX-40-Karte hat. Nicht jeder nimmt jede Generation mit.
wird zeit ne 3080-3090 am gebrauchtmarkt zu kaufen. oder 6950... dann kann die in meinem rechner idlen wie die 2080.

was ich am besten an der gen finde ist das pcb mit seinen fragmenten und dem flow through. ansonsten _gefühlt_ eher "gähn".
 
ch sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.
Weil sie so teuer sind aber ich sehe auch schon kommen dass der Markt relativ schnell gesättigt sein wird. 30-40 % Mehrleistung sind wie die 2080 Ti nur doppelt so teuer. Für Gamer absolut nicht lohnenswert. Ob ich dann in 2-3 J Jahren gebraucht eine kaufe ist auch fraglich, die müsste schon so fallen wie jene Ti. Die FTW3 damals bekam ich 3 J später für etwas über 500 €. Für so einen Kurs ein absoluter P/L Schnapper. Da kann man auch mal für 30 % upgraden.
15% ist schon hart bei der 5080.

Aber 30% pure Rasterleistung on top zur 4090 finde ich jetzt absolut akzeptabel. Bei Indy würde ich damit in 4k+RT ohne FG/MFG nämlich permanent über die 60 FPS kommen. Mit der 4090 sind da auch Dips in die hohen 40er dabei.

Trotzdem am Ende alles wurscht, nur die finalen Reviews zählen. Insbesondere wenn das eigene Game der Wahl dabei ist.
Das sieht jeder anders. Rasterleistung ist auch ausreichend eigentlich, in RT wird die 5090 abgehen und vermutlich sogar 200 FPS liefern mit dem FG Zeug und DLSS. 60 FPS auf einer 2 K+ Karte würd ich mir aber nicht antun.
Wieso sollte das passieren? Selbst die 4090 ist verglichen mit ihrer UVP gerade so mit ach und krach auf 75% ihres Neupreises (also 1500€ statt 2000€) gefallen. Ja, gab auch ne Phase da gab es sie für 1700€ neu aber günstiger als 1400€ war sie da gebraucht auch nicht wirklich. Und jetzt fehlt sogar die Konkurrenz durch AMD.
Eher 13-1400 das sind die billigsten Preise im Moment. Ebay ist teurer. Dass die Karten so wertstabil sind spricht für die gute Leistung. Ist aber auch zB bei OLEDs so, weil es da kaum Verbesserungen gibt. Ohne Konkurrenz seitens AMD wird die 4090 nicht unter 1 K fallen. Trotzdem versuche ich eine zu kaufen, sie ist vermutlich immer noch besser als die 5080 und die nächsten zwei Jahre das zweitbeste. Der Wertverlust wird sich in Grenzen halten. Erstmal muss was von AMD kommen oder eine gute Gen von NVIDIA mit Mehrleistung und die wird dann auch wieder teurer. Dass die 5080 so "günstig" ist ist allein der geringen Mehrleistung geschuldet. Trotzdem hat sie nur 16 GB und bei 360 W TDP kann man sich den Verbrauch der 4090 echt schönrechnen. Zumal diese real in Spielen meist weit unter 400 W zieht, insbesondere mit Framelimiter und UV was sich sowieso von selbst versteht.
 
Find das aus Sicht eines 3080-Besitzers (für UVP 700€ gekauft damals zu Release) alles sehr unattraktiv. Für 3-Fache Rasterleistung (die ich für 8K 165Hz brauche) muss ich jetzt auch 3x soviel Geld zahlen, 4,5 Jahre später.
 
Wie wird wieder getrickst?

Welche Latenzen kommen raus?
Wie hoch ist die Shutter Rate?
Wie hoch Ram(generell) und Cpu Auslastung?
etc. etc.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh