[Sammelthread] NVIDIA GeForce RTX 5090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again again

1736244932867.png
1736244961580.png



1736245051482.png


Release Date

30.1.2025 - 15 Uhr
Reviews: 23.1.2025 - 15 Uhr

5090 Präsentation


Eine gute Übersicht zwischen einer 5090 und 4090 (Quelle)

1736325661137.png

Grafikkarten Garantie Übersicht - Stand 12/2023 (Danke an @Nobbi Habogs) :

1736247713146.png


1736249056256.jpeg

Zusammenfassung: DLSS 4 – Was ist neu? (Quelle)

  • Was ist DLSS 4?
    • Neural Rendering-Technologie von NVIDIA für höhere Bildraten und bessere Grafikqualität.
    • Multi Frame Generation für RTX 50 GPUs: Bis zu 3 zusätzliche Bilder pro gerendertem Bild.
    • Verbesserungen bei Bildqualität (weniger Ghosting, mehr Details bei Bewegungen) durch Transformer-Modelle.
    • Bis zu 8x mehr FPS im Vergleich zu nativer Darstellung, 1.7x Upgrade von Frame Generation.
  • Unterschiede zu früheren DLSS-Versionen:
    • Neu: Multi Frame Generation (RTX 50), Ray Reconstruction und Super Resolution (für alle RTX-Karten).
    • Transformer-Modelle ersetzen teilweise CNN-Modelle, bieten stabilere und schärfere Bilder.
  • Verfügbarkeit und Updates:
    • DLSS 4 unterstützt alle RTX-Karten (20, 30, 40, 50 Serien).
    • Super Resolution bleibt aktiv entwickelt, Beta-Version verfügbar.
    • Multi Frame Generation in 75 Spielen am Starttag unterstützt.
  • Leistung und Latenz:
    • Multi Frame Generation bietet mehr FPS mit minimaler Latenz.
    • Verbesserte KI-Modelle für optimierte Leistung.
  • NVIDIA App:
    • Notwendig für DLSS Override, um Multi Frame Generation in unterstützte Spiele zu integrieren.
  • Transformermodell vs. CNN:
    • CNN: Lokaler Fokus, pixelweise Analyse.
    • Transformer: Bewertet alle Pixel und mehrere Frames gleichzeitig.
    • Ergebnis: Stabilere Bilder, weniger Ghosting, höhere Details.
  • Zukünftige Kompatibilität:
    • Alle RTX-Nutzer erhalten Updates für Ray Reconstruction, Super Resolution und DLAA.
    • Nutzer können alte CNN-Modelle weiterhin nutzen oder auf Transformer-Modelle upgraden.
5090 News:
Grafikkartenübersicht:

WIP
 
Zuletzt bearbeitet:
@ralle_h - Hier das Video dazu. Er sagt nicht welches Tool, aber viell. erkennt es jemand am Skin im screenshot? Ich glaube ist kein AB skin?



1737890066117.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@JennaMcKenna
1.Weil es sehr sehr sehr leise ist
2.Geslevte Kabel hat
3.und es mir super gefällt
Wenn es die gleichen Kabel sind wie beim „normalen“ TX 1600, dann sind die Kabel kein Kaufgrund. Sie sind starr, hart in der Oberfläche und unsortiert. Die Kämme muss man selbst dran machen und bricht sich dabei die Finger ab. Vor allem kann man die Kämme kaum in der Position verändern.
 
Die soll ja auch keiner kaufen, es sollen die Premium Modelle gekauft werden. :haha:

0815 TUF reicht mir diesmal, meine 4090 Strix OC hat mich nicht überzeugt das sie (viel) mehr Geld wert war…
(Und es muss eine Asus bei mir sein wegen 2x HDMI 2.1)

OC ist ja quasi eh völlig irrelevant geworden, die richtige magic entsteht bei UV und trotzdem bissel mehr Leistung rauskitzeln und das dann speichern für 24/7.
 

Da kann das 4.0 Riser Kabel wohl erstmal bleiben.
 
Kann das jmd bestätigen?
Wird es noch ne rtx7090 geben?
Das ist schwierig da die nodes ab n3 23k$ kostet und mit gaa ab n2 sich die preise quasi verdoppeln.

Nvidia hat keine Mcm Lösung daher müssen die desktop dgpu monolithisch sein das ist teuer da vor dem gaa das si nicht halbiert werden kann
Und da a16 vermutlich 2026 risk und Massenfertigung 2028 kommt dürfte das grob 45k$ per wafer sein
nehme ich die aktuelle design zugrunde müsste ein high end chip maximal 150mm² groß sein damit lässt sich keine vernünftige sku bauen
Außer man geht voll auf HBM und steigert den Takt auf maximum möglich sind grob 5,0ghz
das käme grob auf etwa die doppelte rtx4090 perf. bei grob 130mm² mit etwa 470w
Das Si beträgt dann nur 192bit was ein problem ist hbm ist unausweichlich wäre aber gleich grob bei 3072bit

Ein chip würde dann 107$ kosten mit 4gpc a16sm a256alu ließe sich noch ne sku mit 6 gpc bauen bei grob 135$
Das würde gehen aber das hat Konsequenzen bei der Wärmedichte den auf 150mm² müssen 470w weggekühlt werden gut möglich das die 5ghz gar nicht erreicht werden können und man in eine Wand rennt um die 3,5ghz dann muss man umdenken
Die Lösung wird mit Sicherheit mehr Si sein also auf 512bit gehen was dann etwa 255mm² chip wird. (alu si 30-70) chip bei grob 258$ bei gleicher Leistung aber mit mehr Takt gehe da von maxed 4,0ghz aus.
6*14*256(192)*2=129tf
Das blöde ist das dies a16 node ist und dieser vermutlich erst 2029 für nvidia infrage kommt eher 2030 dazwischen hat man nix n3 dürfte grob nur ne Effizienzsteigerung sein bei 150sm a128alu +-86tf
Das wären neben der nur 460w tbp +15%

Die folge rtx6090 wird wie rtx5090 ne derbe Enttäuschung sein.
erst die rtx7090 dürfte da mehr perf. bringen das ist nebenbei erst 2029

Für kleine chips sehe ich ganz dunkel da es sich nicht lohnt da man ohne massiven Bandbreitenverlust keine vernünftige sku hinbekommt.
Die Lösung ist hier hbm und deutlich mehr alu letztere brauchen neben platz auch Energie die weggekühlt werden muss.
In n3 geht das noch aber mit gddr7 ist das ausgeschlossen da man hier auf maxed 128bit gehen kann (122mm²) doppelt frisst zu viel Fläche
Dies aber limitiert die Bandbreite auf maxed 36gbps +- 576gb/s das ist bei 3gpc a16sm (46sm) a256alu bei 49tf viel zu wenig; mit 192bit 162mm² wäre es knapp mit 864gb/s dann ist es denkbar.
Nur ob sich das lohnt das im Gegensatz zur Konkurrenz aussieht eher nicht.

4 gpc stehen so gut wie sicher was nutzbare alu bei 60sm a256alu maximal bringt bei maxed 192bit Si
chip ab 178$ +-60tf akä rtx4090 perf. und die wird schon bei 1008gb/s leicht limitiert
Die folge ist das man ein hybrid Ansatz bauen muss oder was wahrscheinlicher ist hbm
3072bit brauchen da grob 150mm²
Das gepaart mit günstigen hbm3 5,6gbps und man hätte keine Bandbreiten sorgen mehr aber Kapazitätsprobleme da hbm bis 2030 ausgebucht ist.

Die Antwort auf rtx6090 und rtx7090 ist
ein refresh auf n3e mit 10gpc (150sm) 3,2ghz a128alu +-86tf stillstand quasi 2027 365w
Ein redesign a16 node bei 6gpc a256alu 4,0ghz 129tf 2029 470w
Alles mit gddr7 32gbps bis 36gbps

Amd wird gewinnen wenn dass der plan ist

Was die mid class angeht wird man lediglich rebrand geben wie man auch zu 65nm Zeiten getan hat. (2007-2010)
Was entry angeht (60 class) ist die rtx5060 die letzte gen gut möglich das der chip nochmal rebrand wird bis man mit a16 node eventuell ne sku hinbekommt wenn die Konkurrenz es erlaubt.
Den das ist sehr fraglich.
 
Doch das geht schon. Hat sich aber bisher so ganz öffentlich anscheinend nur "Tech Yes City" mit befasst.

Erst mal vielen Dank für die Info!

Mein letzter Stand war, das UV nicht geht mit der 5090 (AB wird nicht weiterentwickelt), was angesichts der Tatsache, dass keiner, kein Reviewer, kein Review, das ich gesehen habe, darauf eingeht, auch nicht zu weit hergeholt war.

An dieser Stelle ich bin maximal enttäuscht - und zwar von allen die jetzt schon eine 5090 haben, testen können und darauf nicht eingehen. Stattdessen kichert man wie ein kleines Mädchen vor sich hin, wenn man den astronomischen Verbrauch der Karte präsentiert.

Ich habe mir mal kurz die Mühe gemacht und uns für CP2077 (weil ich da gerade auch dabei bin mein Playthrough entlidch fertig zu bekommen) mal einen Vergleich mit der 4090 erstellt.

4K MAX Details, RT/PT ON, DLSS Balanced

4090 STOCK 2715@1.05
Screenshot 2025-01-26 132635.png


4090 UV 2700@0.95v
Screenshot 2025-01-26 132521.png


4090 UV 2505@0.90v
Screenshot 2025-01-26 132802.png


STOCK sind 378W, UV2700 sind 317W, also schon nur noch 83% des Verbrauchs BEI GLEICHEN FPS! Geht man weiter, vergleicht das UV2500 mit STOCK, sind es satte 100W weniger, bei 4FPS weniger. (übertrieben gesagt, rund 1/3 o. 1/4 weniger Verbrauch bei gleicher Leistung)

Meine 4090 lief abseits von solchen Tests, nicht eine Minute STOCK. Wie retardiert muss man sein und die Karte STOCK laufen zu lassen angesichts solcher Zahlen?

Die Karten werden nicht nur deutlich sparsamer, deutlich effizienter, man verliert nicht mal (nennenswert) Leistung, gewinnt aber in allen negativ behafteten Eigenschaften wie Lautstärke/Lüfterdrehzahl, Verbrauch, Coilwhine, Temperatur etc

Ich bin enttäusch, maßlos enttäuscht und zwar von allen Reviewern und Reviews, wenn man gerade bei einer Karte die fast 600W zieht, nicht auf solch essentielle Einstellungen eingeht!
 
Zuletzt bearbeitet:
Das ist in den Games, die ich zocke irrelevant. Da kommt keines auf 60FPS nativ (außer RDR2, aber das hat eh kein FG)

Weiß ja nicht für welche Indie Titel ihr eure 4090 verschwendet, aber meine wird in jedem Game an die Kotzgrenze gebracht (Greyzone Warfare, Indy, W3 RT, Hitman 3 RT, RDR2, 6 days in Fallujah...) ohne DLSS gibt's da keine 60 FPS in 4k mit max Settings.

FH5 ist das einzige Game mit top Grafik, dass auch nativ auf gute FPS kommt. Aber da brauche ich dann eben auch kein FG.
Hab mal wieder nativ probiert (mit dem 9800X3D) und unschöne Ruckler gehabt. Mit DLSS "Qualität" hab ich (für mich weiche) 120fps, mit gelegentlichen Drops auf 110fps
Hinzu kommt, dass Smoke mit DLSS an der Rändern weicher ausläuft. Nativ sieht das schrecklich aus :cautious:

Ok, ingame hat mal "ganz andere Probleme" (zu überleben) :fresse:
Da achtet man eh nicht drauf...

Links DLSS - rechts nativ
Screenshot 2025-01-26 140426.pngScreenshot 2025-01-26 140353.png
Leider kein gutes Beispiel. Sieht nativ manchmal noch krasser (negativ) aus

btw:
Hier fällt es extremer auf (sind alte, native 6K-Shots)
trzuertzwq4e73.jpgfthzdtrz0edwx.jpg
 
Zuletzt bearbeitet:
Meine 4090 lief abseits von solchen Tests, nicht eine Minute STOCK. Wie retardiert muss man sein und die Karte STOCK laufen zu lassen angesichts solcher Zahlen?

Bei mir läuft alles @stock, weil ich überhaupt keine Lust mehr habe, dahingehend irgendwelche Settings auszuloten, egal ob CPU, GPU oder Speicher. XMP ist da das höchste der Gefühle.

So wenig wie ich zocke ist mir das auch total latte, ob da jetzt 100 Watt mehr oder weniger verbraucht werden oder ich 5 FPS mehr oder weniger habe. Und die Wakü ist so überdimensioniert, dass Lautstärke keine Rolle spielt.

Und irgendwann crasht der Haufen dann doch und das Gesuche geht los, ne danke, da weiß ich mit meiner Lebenszeit echt Besseres anzufangen.
 
Ich bin enttäusch, maßlos enttäuscht und zwar von allen Reviewern und Reviews, wenn man gerade bei einer Karte die fast 600W zieht, nicht auf solch essentielle Einstellungen eingeht!
Sehe ich ähnlich, es wird wahrscheinlich der Einfachheit halber nur der PT Regler bedient und kritisiert das der nur bis 70% geht :>
War das aber bei den verganenen Releases anders? Weiss es echt nicht grad, aber würde sagen eher nicht? An dieser Stelle könnte man jetzt dein Curve Editor Tutorial Video verlinken, welches ich nach ner gewissen Zeit immer mal wieder aufrufe und in der 2080TI Zeit entstand :d
 
Zuletzt bearbeitet:
Gerade von jemandem wie unserem "OC-Guru", dem 8auer, hätte ich bei seinem letzten Video absolut erwartet, dass man auf UV eingeht.

Das Video bzw Thumbnail soll mit einem dicken "+20% Effizienz" locken/catchen/baiten und man geht dann nicht auf UV ein, sondern verschiebt nur ganz billig den PT Regler?!

-> enttäuschend hoch 10 was da abgeliefert wird

Der FE Kühler ist bei gleicher Lautstärke "150W besser", man stelle sich mal die Lautstärke der 5090 FE bei ordenltich UV vor, die karte wir leiser als eine 4090 FE und leistet trotzdem mehr. Warum zeigt sowas keiner?!?
 
Ein deutsches Review wo vernünftiges UV via Curve Editor ausgelotet wurde kenn ich ebenfalls nicht.

Selbst der8auer hat lediglich die TDP Regler bedient. Die Geschichte mit dem Curve Editor hat ja schon bei der 3090 ziemlich Fahrt aufgenommen. Mit einer Referenz Karte hing man ja ständig im PL und das war bisschen blöd unter Wasser und so konnte man mehr aus der Karte raus holen. Bei der 4090 machte es eben Sinn einmal bei Luftkühlung und für manche wegen Strom sparen.
 
sowieso, ist das erste was ich mache wenn sie da is :>
...ach ne, gleich zu Anfang mach ich meist erst paar benches stock usw, aber jo :> Ich mein, wir haben da ja wenigsten ein ganz vollen UV Thread zu.
 
Ein weiterer Punkt wäre klassisches OC, mit dem Bedienen der Curve, sprich dem Anpassen der Voltage-/Frequency Curve, könnte man die 5090, die bei 600W im PT hängt zu noch mehr Takt/Leistung bewegen, wenn man nur im Stande wäre die V/F Curve zu bedienen...
 
Irgend einer wird sich schon drum kümmern. Für mich völlig legitim die Karte erst einmal im Auslieferungszustand auf Herz und Nieren zu prüfen, schließlich werden viele sie auch so laufen lassen.

Meine 4090 läuft auch @ stock, habe überhaupt keine Lust irgendetwas auszuloten. Habe ein bisschen OC betrieben für die Benchmarks und das war's dann.

Im GPU Tweak Tool habe ich ein 2.9/12GHz OC Setup hinterlegt, dass ich per click aufrufen kann, aber ansonsten nutze ich nur den Frame Limiter (120FPS) und DLSS als Stromsparmaßnahmen.
 
Leute Roman ist ein Vollzeit Unternehmer natürlich kann er da nicht wie früher sich um jeden Aspekt kümmern im Gegenteil wir können froh sein das er überhaupt noch solche Videos bringt mit dem Inhalt und der Länge

Wenn man sieht wie seine Firma gewachsen ist und welche Produkte er jetzt anbieten tut und vor allem an wen er seine Produkte mittlerweile liefert das kommt eben nicht von ungefähr und spielt eben Youtube nicht mehr die erste Geige
 
Ne ist nur aufgefallen, das alle Reviewer das selbe bringen.

Nicht nur das UV Thema ist nirgends vorhanden auch beim Thema MFG haben alle die Latenzen mit den max. Frames getestet.
Die Leute haben aber nicht alle 240 oder gar 480 HZ Bildschirme.
Die meisten Gaming Monitore nutzen 144 Hz. Viele UWQHD haben sogar noch 100 HZ oder die ganzen OLED nutzer aus LG OLED CX Zeit @ 120 HZ.

Also warum misst man nicht mal die Latenzen in einem FPS Cap @ 2x,3x,4 , wenn alle Varianten den FPS Bereich erreichen.
Wenn es zb. so wäre man hat einen FPS Cap bei 144 HZ Gsync @ Reflex = 138 FPS und ich würde theoretisch mit MFG 4x natürlich die Karte deutlich weniger belasten
als mit FG 2x. Dann muss man mal sehen wie ist denn der Inputlag mit 3x oder 4x im FPS Cap, aber das hat kein Review was ich gelesen habe getestet.
Das wäre kein großer Aufwand gewesen kurz in der Nvidia App ein FPS Cap Global einzustellen und dann die Latenzen im Overlay von der Nvidia App auszulesen.

Ist auch wieder so ne Sache. Dies muss jeder selber testen. Nvidia wirbt in dieser Generation massiv mit MFG.
Also muss man dieses auch mal ordentlich durchleuchten als Reviewer. Hoffe da passiert noch was.
Ich hab keine 5090 geplant, aber interessiert mich trotzdem.
 
Frisch aus dem OC Forum von einem User der wohl Kontakte zu Asus hat

I heard a rumour through some contacts , it seems there is an Asus 1000w xoc bios :love: , cross my fingers is true and we can get our hands on it.
Also good news confirmed shunt mods do work on the 5090 :love: .
 
Frisch aus dem OC Forum von einem User der wohl Kontakte zu Asus hat

I heard a rumour through some contacts , it seems there is an Asus 1000w xoc bios :love: , cross my fingers is true and we can get our hands on it.

Also good news confirmed shunt mods do work on the 5090 :love: .

Mal sehen ob dies der 12VHPWR überlebt ;)
3x 8 Pin mit guten NT´s hat das gepackt. Man hat dann Einzelstränge genommen.
Da macht jeder Strang bis 300 Watt mit ohne das NT oder Kabel/Anschluss darunter gelitten haben auch wenn dieser mit 150 Watt spezifiziert worden ist.
Auch der Grund warum es diese gedoppelten Kabel gab.
 
Bei der 4090 gab es auch schon die XOC Bios leute die WEIT! über 1000watt drauf geballert haben und der Stecker kein Problem hatte im gegenteil einige 4090 sind Gestorben weil die Spannung zu groß war daher ist der Stecker nicht das schwächste Glied und jetzt gibt es ja den neuen Stecker mit den kürzeren Senspins der da auch abhilfe schaffen soll

Aber selbst mit 1000watt XOC Bios wird man wieder bei 700-800Watt landen bei der 5090 wenn überhaupt!!!!
Bei der 4090 war bei 750watt Schluss mehr ging nicht ohne Hardware Mods oder Elmor EVC und wird bei der 5090 auch so sein

Die 1mill Frage wird einfach sein wie hoch der Effektive Takt ist und ob das XOC Bios hier wieder einen Vorteil bringt und auch was den Speicher angeht ob die Timings wieder straffer sind und wenn ja was bzw wieviel Performance das bringt weil Ram OC scheint hervorragend zu sein +2000 schaffen so gut wie alle ohne Probleme
 
Zuletzt bearbeitet:
Naja der 8auer hat ja gesagt, dass ihm aktuell die Zeit fehlt, weil die FE Karten kurz vor NDA Fall der Reviews kam und da stehen halt die nächsten Custom Karten schon zum Testen an. Kann schon verstehen, dass man nicht alles bedienen kann. Geht anderen Reviewern sicherlich auch so.
 
Roman hat im ersten video angekündig dass noch weitere folgenden werden

und UV ist OC und OC ist glückssache. das hat in einem objektiven review in dem erstmal das getestet wird, was für 99,9% der potentiellen käufer interessant ist
 
Bei der 4090 gab es auch schon die XOC Bios leute die WEIT! über 1000watt drauf geballert haben und der Stecker kein Problem hatte im gegenteil einige 4090 sind Gestorben weil die Spannung zu groß war daher ist der Stecker nicht das schwächste Glied und jetzt gibt es ja den neuen Stecker mit den kürzeren Senspins der da auch abhilfe schaffen soll

Aber selbst mit 1000watt XOC Bios wird man wieder bei 700-800Watt landen bei der 5090 wenn überhaupt!!!!

Bei der 4090 war bei 750watt Schluss mehr ging nicht ohne Hardware Mods oder Elmor EVC und wird bei der 5090 auch so sein

Wenn die 4090 eh max. 750 Watt gepackt hat, dann war dieser im Pufferbereich.
Glaube 750 Watt war auch das was diese Kabel aushält, aber keine 1000 Watt.
Das war auch das was Der8auer mal in einem Video kritisiert hatte, dass der Puffer deutlich kleiner ausfällt als bei den 8 Pin Kabel.
Warum sollte die 5090 bei 750 Watt ein Ende sein? Der Chip ist doch größer. Denke dieser wäre auch in der Lage mehr Strom zu ziehen als ne 4090,
aber diese Fragen wird die Zeit klären. XOC war aber für mich eh nie ein Thema. Selbst unter Wasser habe ich mir nie ein XOC Bios drauf geschmissen und
daher auch weniger mich mit diesen Fragen beschäftigt.
 
Sorry, aber dieses Zeit Argument ist schwachsinn. Es hat mich 5 Minuten gekostet den Vergleich oben anzustellen. Sowas sinnvoll irgendwo einzubauen kostet 30 Minuten mehr Arbeit.

Er hat die Zeit Videos zu machen, dann hat er 30 Min für UV... abosluter Käse meiner Meinung nach das noch zu verteidigen. Ich mach doch kein Video zur Effizienz und lass das UV außen vor....

Zumal es ja nicht nur er ist, keiner ist drauf eingengangen, sodass Enthusiasten wie ich sich schon fragen müssen, obs technisch gar nicht mehr geht weil es keiner macht...
 
Wie soll man denn UV wenn Blackwell voltage regulation im Afterburner noch nicht geht ?
Jo stimmt hab eben das Jay2cent Video gesehen und mich gefragt wieso dreht der die Voltage nicht auf 100%dann sollten die +300 auf dem Core gehen:ROFLMAO: Aber der Slider ist noch nicht vorhanden

aber keine 1000 Watt.
Das Kabel hält mehr wie 1000watt aus gibt genug Berichte/Videos von dem Typen der das Bios Flash Tool gemacht hat für die 4090 wo er Regelmäßig 1000-1100 watt auf seine Tuf geballert hat mit Elmor EVC
Warum sollte die 5090 bei 750 Watt ein Ende sein? Der Chip ist doch größer. Denke dieser wäre auch in der Lage mehr Strom zu ziehen als ne 4090.
Das kommt darauf an was NV uns ans Spannung gibt wenn wir wieder 1,1V bekommen bei 100% Voltage dann wird da nicht viel mehr gehen weil ab einen gewissen punkt die Thermik dir einen Strich durch die Rechnung macht und einfach nicht mehr geht

Und dann haben wir nicht mehr den GPU Hotspot was in solchen Bereichen dann sehr schnell Kritisch werden kann
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh