• Wir sind dabei, den Suchindex des Forums neu aufzubauen. Bis ca. 6 Uhr morgens kann die Qualität der Suchergebnisse variieren.
  • Hardwareluxx führt derzeit die Hardware-Umfrage 2025 (mit Gewinnspiel) durch und bittet um eure Stimme.

[Sammelthread] NVIDIA GeForce RTX 5090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again again

1736244932867.png
1736244961580.png



1736245051482.png


Release Date

30.1.2025

5090 Präsentation


Eine gute Übersicht zwischen einer 5090 und 4090 (Quelle)

1736325661137.png

Grafikkarten Garantie Übersicht - Stand 12/2023 (Danke an @Nobbi Habogs) :

1736247713146.png


1736249056256.jpeg

Zusammenfassung: DLSS 4 – Was ist neu? (Quelle)

  • Was ist DLSS 4?
    • Neural Rendering-Technologie von NVIDIA für höhere Bildraten und bessere Grafikqualität.
    • Multi Frame Generation für RTX 50 GPUs: Bis zu 3 zusätzliche Bilder pro gerendertem Bild.
    • Verbesserungen bei Bildqualität (weniger Ghosting, mehr Details bei Bewegungen) durch Transformer-Modelle.
    • Bis zu 8x mehr FPS im Vergleich zu nativer Darstellung, 1.7x Upgrade von Frame Generation.
  • Unterschiede zu früheren DLSS-Versionen:
    • Neu: Multi Frame Generation (RTX 50), Ray Reconstruction und Super Resolution (für alle RTX-Karten).
    • Transformer-Modelle ersetzen teilweise CNN-Modelle, bieten stabilere und schärfere Bilder.
  • Verfügbarkeit und Updates:
    • DLSS 4 unterstützt alle RTX-Karten (20, 30, 40, 50 Serien).
    • Super Resolution bleibt aktiv entwickelt, Beta-Version verfügbar.
    • Multi Frame Generation in 75 Spielen am Starttag unterstützt.
  • Leistung und Latenz:
    • Multi Frame Generation bietet mehr FPS mit minimaler Latenz.
    • Verbesserte KI-Modelle für optimierte Leistung.
  • NVIDIA App:
    • Notwendig für DLSS Override, um Multi Frame Generation in unterstützte Spiele zu integrieren.
  • Transformermodell vs. CNN:
    • CNN: Lokaler Fokus, pixelweise Analyse.
    • Transformer: Bewertet alle Pixel und mehrere Frames gleichzeitig.
    • Ergebnis: Stabilere Bilder, weniger Ghosting, höhere Details.
  • Zukünftige Kompatibilität:
    • Alle RTX-Nutzer erhalten Updates für Ray Reconstruction, Super Resolution und DLAA.
    • Nutzer können alte CNN-Modelle weiterhin nutzen oder auf Transformer-Modelle upgraden.
5090 News:
Grafikkartenübersicht (Quelle)
Wasserkühlungübersicht: https://hardware-helden.de/geforce-...sicht-kuehler-fuer-die-rtx-5090-und-rtx-5080/
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Manche haben bei 850mV laut Stock-Curve ~1.300MHz (zb ich), während Andere dort 1.900MHz und mehr haben. Wie ist das zu erklären und hat es irgendwelche Vor-/Nachteile?
Nachteile hast du, wenn du beim UV etwas über 2300 MHz bei 0.85V einstellen willst, weil man nur 1000 MHz positives Offset anwenden kann, wenn du aber nicht so tief undervolten willst, hat es keine großen Nachteile.
 
Na das kann dauern - siehe rechts unten... :fresse:

Screenshot 2025-04-18 011702.jpg


Beitrag automatisch zusammengeführt:

Nachteile hast du, wenn du beim UV etwas über 2300 MHz bei 0.85V einstellen willst, weil man nur 1000 MHz positives Offset anwenden kann, wenn du aber nicht so tief undervolten willst, hat es keine großen Nachteile.
Sind das bestimmte Hersteller oder alles random?
 
Zuletzt bearbeitet:
Sind das besteller Hersteller oder alles random?
Ich weiß von zwei Gigabyte Aorus Master die den hohen Takt bei 0.85V haben, bei der MSI Vanguard hab ich beides schon gesehen und bei der FE war meine eine mit niedrigem Takt und einer bei Reddit hat eine mit hohem Takt wohl.
Meine TUF OC hatte auch die 1300 MHz bei 0.85V.

Um da irgendwas rauslesen zu wollen braucht man wohl viel mehr Daten 😅
 
"Zorah" ist fertig unter UE 5.4.4 erstellt...
Ist etwas klein (flächenmäßig), aber optisch richtig nett. Ich hab gerade ein Video hochgeladen (1,7GB - 150Mbit/s - 120Hz)
Wer das dicke File nicht saugen will - nochmal als YT-Vid
Unter UE 5.5 geht bei mir nicht)...

Das Gute ist, dass nicht nochmal compiled oder Shader geladen werden müssen. Die "Map" ist instant wieder da

btw:
Man hätte aber eine gescheite Anleitung (zb bei PCGH) dazuschreiben können. Musste hier und da querlesen, um alles zusammen zu bekommen (zb DLSS-Plugin einfügen). Das war nervig
Beitrag automatisch zusammengeführt:

Oder einfach das hier angucken (y)
Beitrag automatisch zusammengeführt:

Weiß jmd, wie man dieses "Nachdunkeln" abstellt bzw. reduziert, wenn man sich dem Objekt nähert? (siehe File)
Beitrag automatisch zusammengeführt:

Ihr braucht UE 5.4 vom NVRtx Branch.
Ich weiß nicht, was mit "NVRtx Branch" gemeint ist, aber man kann jede UE-Version im Epic-Launcher bis UE 4 herunterladen
Screenshot 2025-04-18 022455.png
 
Zuletzt bearbeitet:
Frage, wie viel Mehrleistung bietet die 5090 bei 300Watt gegenüber der 4090 bei 300Watt.

Die 5090 ist ja bekannterweise kein Sparwunder, was auch bei dem riesigen Chip kein Wunder ist.

Mir ist schon klar, dass man eine 5090 nicht mit 300Watt betreibt.

CB hatte mal bis 400Watt getestet.
 
Und wie sollen wir dir das dann beantworten, wenn man man die 5090 eh nicht auf 300W prügeln kann. Und was bringt die Beantwortung der Frage wenn die Ausführung nicht möglich ist?
 
Mir ist das völlig egal, was die Karte sowie CPu verbraucht, solange ich die Stromkosten selber zahle.
 
Und wenn die Stromkosten jemand anderes bezahlt ist es dir nicht egal? Stimmt schon, man sollte nicht zu lange im Keller bei Mama wohnen 🤣

Ich denke spätestens ab 40 sollte man da langsam mal ausziehen 😏
 
Und wie sollen wir dir das dann beantworten, wenn man man die 5090 eh nicht auf 300W prügeln kann. Und was bringt die Beantwortung der Frage wenn die Ausführung nicht möglich ist?
Ok, das wusste ich nicht, dass man eine 5090 nicht bei 300W betreiben kann, auch nicht, wenn man das Powerlimit entsprechend heruntersetzt? Oder gibt es da eine Spannungsbegrenzung?
 
Ok, das wusste ich nicht, dass man eine 5090 nicht bei 300W betreiben kann,

Steht in dem Artikel den du selbst verlinkt hast, lesen ist und bleibt eine verdammt nützliche Fähigkeit, Zitat:

„Darüber hinaus gibt es auch einen Benchmark-Durchlauf mit 400 Watt (69 Prozent) und damit dem minimal einstellbaren Wert – tiefer geht die RTX 5090 FE nicht.“
 
Steht in dem Artikel den du selbst verlinkt hast, lesen ist und bleibt eine verdammt nützliche Fähigkeit, Zitat:

„Darüber hinaus gibt es auch einen Benchmark-Durchlauf mit 400 Watt (69 Prozent) und damit dem minimal einstellbaren Wert – tiefer geht die RTX 5090 FE nicht.“
Ja der einstellbare Wert über das Powerlimit dachte da eher an eine selbst angelegte Afterburner Kurve und entsprechend den Takt und Spannung angepasst.
 
300W kannst du mit der 5090 knicken. Die sinnvolle Grenze ist irgendwo bei 450W. Darunter verlierst du recht viel Leistung. Das riesen Interface, bzw. allgemein der riesige Chip, fordern an der Stelle einfach ihren Tribut.
 
Pendel zwischen 250 und 350-400w. je nach game und settings.

TLOU 3840x1600 DLSS Q v4 angepasste settings (nicht max)

spiele aber gerade @ 120 capped
tlou-i_2025_04_18_21_21_39_967.jpg
tlou-i_2025_04_18_21_25_00_323.jpg
 
300W kannst du mit der 5090 knicken. Die sinnvolle Grenze ist irgendwo bei 450W. Darunter verlierst du recht viel Leistung. Das riesen Interface, bzw. allgemein der riesige Chip, fordern an der Stelle einfach ihren Tribut.
So etwas hatte ich mir schon fast gedacht, wollte oder will es irgendwie nicht glauben, um die RTX 5090 für mich rechtfertigen zu können.

Hintergrund, ich hatte mich zu Anfang so auf die 5090 gefreut, als ich dann aber generell keine Möglichkeit gesehen hatte eine zu kaufen, abgesehen von den Mondpreisen, hatte ich aus Verzweiflung eine 4090 gekauft.
Ich bin jetzt kein großer Gamer und brauchte auch keine High End Karte, mir hatte bisher immer die 4070 ausgereicht, bis ich mit Stable Diffusion angefangen hatte.

Zurzeit läuft die 4090 bei 0,915V bei 2655MHz fast ohne Leistungsverluste bei Stable Diffusion bei etwas unter 300 Watt.

Problem ist halt auch, dass die Last komplett anliegt, sprich die Karte wird immer voll ausgelastet und ich habe jetzt schon gegenüber meiner 4070 bemerkt, dass sich nach mehreren Stunden Dauerlast, der kleine Raum doch schon mehr aufheizt als noch mit der 4070, IronAge hatte mal vor kurzen glaube mal so eine Aussage gemacht, das sein Raum zu klein wäre oder war das ein andere User,:unsure: ich glaube mittlerweile ist das bei auch der fall, geht so von 24° auf über 26° hoch, Fenster aufmachen, wenn die Sonne scheint, nutzt auch nichts, Sonnenseite.:rolleyes2:

Selbst wenn ich einen Kompromiss eingehen würde und mich nackig in die Bude setze und die 5090 bei 450Watt laufen lasse, kommen dabei glaube auch höchstens 10-15 % Mehrleistung rüber.

Wenn die 5090 bei 300Watt noch über 10% Mehrleistung gegenüber der 4090 hätte, könnte ich mir das in irgendeiner Weise schönreden.

@Scrush
Beim Gaming würde ich das glaube auch mit anderen Augen sehen.
 
Zuletzt bearbeitet:
Hat hier zufällig wer die Karte in Kombi mit einem Monitor mit DP 2.1 UHBR 20 Anschluss?
Also mit einem VESA Zertifizierten, oder Original Kabel vom Monitor das UHBR 20 ist.
Bei mir ist das z.b der Gigabyte Aorus FO32U2P.


Ich krieg wieso auch immer das ganze nicht bei DP 2.1 auf 240Hz zu laufen.Max ist 200Hz dann gibts Black Screen und Fallback.
Auf DP 1.4 eingestellt aber kein Problem,läuft halt über DSC dann (Irgendwas mit 8GB/s pro Lane).

Mit DP 2.1 eingestellt würde es ja ohne DSC laufen,hier mit 120Hz über GPU-Z sieht man schön das die hälfte der Bandbreite
unkomprimiert läuft (2 von 4 Lanes à 20Gb/s).

Oder verpeil ich da irgend ein Detail? 🤔


1745062899811.png
 
Falls es etwas Hardwareseitiges ist hoffe ich sehr das es ein Kabel Problem ist.
Wobei man sich auch da fragen kann wieso dann die offizielle VESA Auflistung?

Hab das hier im Einsatz in der 2 Meter Variante:

Top Kabel ansonsten,hat ein paar Black Screen Bugs zum verschwinden gebracht.

Weitere Passive Kabel werde ich mir aber keine mehr kaufen.
Warte da lieber auf die kommenden aktiven (längeren) Kabel.

Würde mich halt aber auch nicht wundern falls es am Nvidia Treiber liegt 🤷‍♂️
Oder an mir :ROFLMAO:
 
Wenn die 5090 bei 300Watt noch über 10% Mehrleistung gegenüber der 4090 hätte, könnte ich mir das in irgendeiner Weise schönreden.

Hast ja garkeine Mehrleistung mit einer 5090.
Performance/Watt ist gleich. Lässt sich auch nicht besser UV als die 4090.

Die 32GB Vram nutzen derzeit auch nichts. Mit den 24 GB der 4090 kommt man gut zurecht. Also wenn man mehr Leistung möchte nimmt man das über die Leistungsaufnahme mit. Mir sind selbst die 450 Watt der 4090 zu viel. Daher Die Leistungsaufnahme um 80 Watt gedrückt im Schnitt dank der Curve und den Vram OC und GPU Clock @ Stock. Somit kein Leistungsverlust aber ruhigerer Betrieb möglich unter Luft.
 
Hast ja garkeine Mehrleistung mit einer 5090.
Performance/Watt ist gleich. Lässt sich auch nicht besser UV als die 4090.

Die 32GB Vram nutzen derzeit auch nichts. Mit den 24 GB der 4090 kommt man gut zurecht. Also wenn man mehr Leistung möchte nimmt man das über die Leistungsaufnahme mit. Mir sind selbst die 450 Watt der 4090 zu viel. Daher Die Leistungsaufnahme um 80 Watt gedrückt im Schnitt dank der Curve und den Vram OC und GPU Clock @ Stock. Somit kein Leistungsverlust aber ruhigerer Betrieb möglich unter Luft.
Das BIOS lässt es leider nicht zu...
Bei meiner alten 3090 Strix konnte ich den PL-Schieber, beiom 1.000W-BIOS von 10-100% bewegen
Bei meiner 5090 TUF OC lässt das BIOS nur 66-100% zu. Mehr als 100% geht nicht, weil bei 100% schon 600W gedrückt werden. Ist bei anderen GPUs evtl anders

Evtl. würde es mit einem Hardmod gehen. Dazu müssten die org. Shunts raus und gegen andere (hochohmigere) ersetzt werden
Oder eben auf ein XOC-BIOS hoffen
 
Hat hier zufällig wer die Karte in Kombi mit einem Monitor mit DP 2.1 UHBR 20 Anschluss?
Also mit einem VESA Zertifizierten, oder Original Kabel vom Monitor das UHBR 20 ist.
Bei mir ist das z.b der Gigabyte Aorus FO32U2P.


Ich krieg wieso auch immer das ganze nicht bei DP 2.1 auf 240Hz zu laufen.Max ist 200Hz dann gibts Black Screen und Fallback.
Auf DP 1.4 eingestellt aber kein Problem,läuft halt über DSC dann (Irgendwas mit 8GB/s pro Lane).

Mit DP 2.1 eingestellt würde es ja ohne DSC laufen,hier mit 120Hz über GPU-Z sieht man schön das die hälfte der Bandbreite
unkomprimiert läuft (2 von 4 Lanes à 20Gb/s).

Oder verpeil ich da irgend ein Detail? 🤔
Ich kann das heute spät Abends mal bei mir verifizieren. 5090 + FO32U2P.
Hatte mir extra für die Kombi ein längeres DP2.1 Kabel besorgt. Geb dir Feedback ✌🏻
 
Hast ja garkeine Mehrleistung mit einer 5090.
Performance/Watt ist gleich. Lässt sich auch nicht besser UV als die 4090.

Die 32GB Vram nutzen derzeit auch nichts. Mit den 24 GB der 4090 kommt man gut zurecht. Also wenn man mehr Leistung möchte nimmt man das über die Leistungsaufnahme mit. Mir sind selbst die 450 Watt der 4090 zu viel. Daher Die Leistungsaufnahme um 80 Watt gedrückt im Schnitt dank der Curve und den Vram OC und GPU Clock @ Stock. Somit kein Leistungsverlust aber ruhigerer Betrieb möglich unter Luft.
Ich finde es schade, wollte mir eigentlich eine 5090 zulegen, nur die Voraussetzungen und meine Gegebenheiten, lassen mich zweifeln.

Ich habe auch ein Curve angelegt und komme somit nicht über 300 Watt, wohlgemerkt nur mit Stable Diffusion getestet.
1.jpg2.jpg
 
Ja habe 0,975V max anliegen.
Damit bin ich zufrieden. Ja eigentlich hätte ich auch gerne ne 5090 gehabt, aber die Karte gefällt mir nicht. So oft wie ich schaue und überlege bekomme ich sie mir nicht schön geredet.
 
Daher sind gebrauchte 4090 so begehrt und man bekommt noch nen "Haufen Geld" nach 2,5 Jahren
Hab zwar endlich eine 5090, aber das "Gesamtpaket" (Preis, anfängliche Verfügbarkeit, Bugs, Mehrleistung gegenüber 4090, extrem unterschiedliche Stock-Curves etc) holt mich nicht zu 100% ab
Mich würde wundern, wenn jmd zu 100% zufrieden ist...

Ist zwar nicht mein Fav-Game, aber CP77 mit MFG 3x + alles max läuft bombastisch gut, bei nur 400W GPU und weniger (gesamt)
 
Ich hätte mich mit der ganzen Sache nicht auseinandergesetzt, wenn mir nicht aufgefallen wäre, dass mir die 4090 schon die Bude aufheizt, hatte ich mit der 4070 nicht bemerkt, gut muss zugeben, so viel wie mit der 4090 hatte ich mit der 4070 nicht gemacht.

Hätte dann irgendwann in nächster Zeit die 4090 verkauft und mir eine 5090 zugelegt, so wie es jetzt aussieht, warte ich dann doch lieber auf die nächste Generation.
 
Ich hätte mich mit der ganzen Sache nicht auseinandergesetzt, wenn mir nicht aufgefallen wäre, dass mir die 4090 schon die Bude aufheizt, hatte ich mit der 4070 nicht bemerkt, gut muss zugeben, so viel wie mit der 4090 hatte ich mit der 4070 nicht gemacht.

Hätte dann irgendwann in nächster Zeit die 4090 verkauft und mir eine 5090 zugelegt, so wie es jetzt aussieht, warte ich dann doch lieber auf die nächste Generation.
Das unterschreibe ich dir blind. Hab gestern Abend ca. 3,5std TLoU gezockt, 4K nativ und alles auf Anschlag…….puuuuuh das wurde muckelig warm im Büro 🤣🤣
 
Ich hätte mich mit der ganzen Sache nicht auseinandergesetzt, wenn mir nicht aufgefallen wäre, dass mir die 4090 schon die Bude aufheizt, hatte ich mit der 4070 nicht bemerkt, gut muss zugeben, so viel wie mit der 4090 hatte ich mit der 4070 nicht gemacht.

Hätte dann irgendwann in nächster Zeit die 4090 verkauft und mir eine 5090 zugelegt, so wie es jetzt aussieht, warte ich dann doch lieber auf die nächste Generation.
Für die exakt gleiche FPS-Leistung verbraucht die 5090 deutlich weniger (siehe CP77 mit MFG) :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh