[Sammelthread] NVIDIA GeForce RTX 5090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again again

1736244932867.png
1736244961580.png



1736245051482.png


Release Date

30.1.2025

5090 Präsentation


Eine gute Übersicht zwischen einer 5090 und 4090 (Quelle)

1736325661137.png

Grafikkarten Garantie Übersicht - Stand 12/2023 (Danke an @Nobbi Habogs) :

1736247713146.png


1736249056256.jpeg

Zusammenfassung: DLSS 4 – Was ist neu? (Quelle)

  • Was ist DLSS 4?
    • Neural Rendering-Technologie von NVIDIA für höhere Bildraten und bessere Grafikqualität.
    • Multi Frame Generation für RTX 50 GPUs: Bis zu 3 zusätzliche Bilder pro gerendertem Bild.
    • Verbesserungen bei Bildqualität (weniger Ghosting, mehr Details bei Bewegungen) durch Transformer-Modelle.
    • Bis zu 8x mehr FPS im Vergleich zu nativer Darstellung, 1.7x Upgrade von Frame Generation.
  • Unterschiede zu früheren DLSS-Versionen:
    • Neu: Multi Frame Generation (RTX 50), Ray Reconstruction und Super Resolution (für alle RTX-Karten).
    • Transformer-Modelle ersetzen teilweise CNN-Modelle, bieten stabilere und schärfere Bilder.
  • Verfügbarkeit und Updates:
    • DLSS 4 unterstützt alle RTX-Karten (20, 30, 40, 50 Serien).
    • Super Resolution bleibt aktiv entwickelt, Beta-Version verfügbar.
    • Multi Frame Generation in 75 Spielen am Starttag unterstützt.
  • Leistung und Latenz:
    • Multi Frame Generation bietet mehr FPS mit minimaler Latenz.
    • Verbesserte KI-Modelle für optimierte Leistung.
  • NVIDIA App:
    • Notwendig für DLSS Override, um Multi Frame Generation in unterstützte Spiele zu integrieren.
  • Transformermodell vs. CNN:
    • CNN: Lokaler Fokus, pixelweise Analyse.
    • Transformer: Bewertet alle Pixel und mehrere Frames gleichzeitig.
    • Ergebnis: Stabilere Bilder, weniger Ghosting, höhere Details.
  • Zukünftige Kompatibilität:
    • Alle RTX-Nutzer erhalten Updates für Ray Reconstruction, Super Resolution und DLAA.
    • Nutzer können alte CNN-Modelle weiterhin nutzen oder auf Transformer-Modelle upgraden.
5090 News:
Grafikkartenübersicht (Quelle)
Wasserkühlungübersicht: https://hardware-helden.de/geforce-...sicht-kuehler-fuer-die-rtx-5090-und-rtx-5080/
 
Zuletzt bearbeitet:
Lol, ich habe das auf reddit in /r/nvidia gefragt:

The argument for the GPU shortage is limited capacity at TSMC, GDDR7 and the same nodes being used for AI chips. So if this was true, why is the 5080 so abundantly available, but the 5090 isn't? Don't get me wrong, there is still a shortage of 5080s, but the 5070s and 5080s are dropping like every 10 minutes on Amazon or major hardware retailers here in Europe. If you spent a day watching an availability Discord or Telegram channel, you can get a 5070 TI or 5080 for a half decent price of 100-200 EUR above FE MSRP.

However, the 5090 is super rare and either gets botted within a second or sells out within minutes even at ridiculous prices like 3,700 EUR for a mid-range model. While eBay scalping has somewhat declined, retail prices are still going up.

Das haben die Moderatoren nach einer halben Stunde gelöscht. Das sind tatsächlich solche Aktionen, wo ich als Konsument anfange zu überlegen, ob ich von dieser Firma nochmal etwas kaufen möchte. Samsung hat das bei mir schon geschafft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist doch ziemlich einfach zu erklären, die kleineren Chips haben eine viel bessere Yield-Rate. Auf einem einzigen Wafer können so erheblich mehr Chips produziert werden als zB von einem GB200, also nicht nur vom Platz her, sondern auch von den tatsächlich funktionierenden Chips.
Bei jeder Generation sind die XX80- und XX70-Modelle daher immer am besten verfügbar, weil ihre Chips kleiner sind. Das war schon bei Ampere (GA104 für 3080/3070) und Ada Lovelace (AD104 für 4080/4070) so.
 
FE Block preorder hat gestartet
 

Anhänge

  • IMG_2024.jpeg
    IMG_2024.jpeg
    116,4 KB · Aufrufe: 113
Sorry...mein Fehler :d ...ich war in einem anderen Film und dachte zu erst an die preorder Möglichkeit der FE, seitens nVidia :fresse2:
 
Wieso zum teufel hat EK keine notification versandt 😡
 

Richtig starkes Video!
 
2.899 EUR. Spulenfiepen und Lüfter gehen in Ordnung, Taktfreudigkeit ist eher meh, wirklich stabil sind gerade mal 15.200 Steel Nomad, mit der Brechstange 15.395. Kann aber evt. auch am aktuellen Hotfix-Treiber liegen, dass da ca. 1,5% zu den Palits fehlen, die ich vorher getestet hatte. Die ZOTAC ist vom Lüfter her aber deutlich besser, war bissel günstiger und hat 5 Jahre Garantie.
 

Anhänge

  • image_2025-03-18_152459877.png
    image_2025-03-18_152459877.png
    1,6 MB · Aufrufe: 109
  • IMG_20250318_125942.jpg
    IMG_20250318_125942.jpg
    944,1 KB · Aufrufe: 105
2.899 EUR. Spulenfiepen und Lüfter gehen in Ordnung, Taktfreudigkeit ist eher meh, wirklich stabil sind gerade mal 15.200 Steel Nomad, mit der Brechstange 15.395. Kann aber evt. auch am aktuellen Hotfix-Treiber liegen, dass da ca. 1,5% zu den Palits fehlen, die ich vorher getestet hatte. Die ZOTAC ist vom Lüfter her aber deutlich besser, war bissel günstiger und hat 5 Jahre Garantie.
Jap hab mit der Karte 76-82°C mit 104% +2000/+220 und Lüfter auf maximal 51% limitiert.
 
Ich nutze die Inno3D RTX 5090 und erreiche ohne manuelles Overclocking stabile 2850 MHz Boost-Takt in Spielen. Dabei aktiviere ich V-Sync, wodurch die Karte nicht wärmer als 55°C wird.

Ich kann daher nicht nachvollziehen, warum deine VRAM-Temperaturen über 90°C steigen. Meine GPU läuft deutlich kühler. Um mögliche Ursachen für die Unterschiede zu finden, werde ich meine Einstellungen aus der NVIDIA-Systemsteuerung sowie der NVIDIA-App posten.

Ob meine hohen Boost-Taktraten mit diesen Einstellungen zusammenhängen, weiß ich nicht genau. Allerdings habe ich festgestellt, dass die FPS noch höher werden, sobald ich in der NVIDIA-App die Option "Fließende Bewegung" aktiviere.

Falls jemand ähnliche Erfahrungen gemacht hat oder weitere Optimierungsmöglichkeiten kennt, würde ich mich über Rückmeldungen freuen.
 

Anhänge

  • Screenshot 2025-03-18 184228.png
    Screenshot 2025-03-18 184228.png
    15,5 KB · Aufrufe: 49
  • Screenshot 2025-03-18 184337.png
    Screenshot 2025-03-18 184337.png
    21,6 KB · Aufrufe: 50
  • Screenshot 2025-03-18 184409.png
    Screenshot 2025-03-18 184409.png
    20,6 KB · Aufrufe: 43
  • Screenshot 2025-03-18 184700.png
    Screenshot 2025-03-18 184700.png
    29 KB · Aufrufe: 47
Fließende Bewegung ist doch die Frame Interpolation auf Treiberlevel. Würde das nicht aktivieren wenn nicht explizit gewünscht. Quasi schlechteres Frame generation.
 
Auch werden die meisten User V-SYNC vermutlich als inakzeptabel empfinden (spüre das Inputlag dann direkt an der Maus).
 
Bei 60 Hz würde ich das sofort spüren, bei 144 Hz kaum etwas.

Kannst du bitte gegen testen, wenn du einen Monitor mit 120 Hz oder mehr hast? Persönlich finde ich, das Bild ist sogar ruhiger mit V-Sync.
 
Zuletzt bearbeitet:
Ich halte mich immer noch an diesen Einstellungen, sind immer noch der Gold Standard:

So mache ich das seit G-Sync Release. Tearing war bereits zu CS Beta Zeiten mein größter Feind fürs Auge.

Aber ja mit FG z.B. in Star Citizen läuft das Game zwar super duper smooth aber den Inputlag spüre ich in jedem Fall zumindest für den FPS Part.
In anderen Games z.B. Skull and Bones nicht und das läuft mit FG via Treiber (Smooth Motion) einfach nur göttlich!
 
Auch werden die meisten User V-SYNC vermutlich als inakzeptabel empfinden (spüre das Inputlag dann direkt an der Maus).
ist bei gsync/freesync nicht mehr der fall. vorausgesetzt du caps die frames unterhalb der max range.
Beitrag automatisch zusammengeführt:

Dabei aktiviere ich V-Sync, wodurch die Karte nicht wärmer als 55°C wird.

Ich kann daher nicht nachvollziehen, warum deine VRAM-Temperaturen über 90°C steigen.
weil die gpu nicht auf anschlag läuft?^^
 
So mache ich das seit G-Sync Release. Tearing war bereits zu CS Beta Zeiten mein größter Feind fürs Auge.

Aber ja mit FG z.B. in Star Citizen läuft das Game zwar super duper smooth aber den Inputlag spüre ich in jedem Fall zumindest für den FPS Part.
In anderen Games z.B. Skull and Bones nicht und das läuft mit FG via Treiber (Smooth Motion) einfach nur göttlich!

Dann habe ich alles richtig gemacht.

G-SYNC + V-SYNC "Ein":

So sollte G-SYNC ursprünglich funktionieren.
Im Gegensatz zu G-SYNC + V-SYNC "Aus" ermöglicht G-SYNC + V-SYNC "Ein" dem G-SYNC-Modul, plötzliche Frametime-Abweichungen auszugleichen, indem es sich an den Scanout hält, wodurch sichergestellt wird, dass der betroffene Frame-Scan im aktuellen Scanout abgeschlossen wird, bevor der nächste Frame-Scan und Scanout beginnt. Dadurch wird Tearing innerhalb des G-SYNC-Bereichs trotz der aufgetretenen Frametime-Abweichungen vermieden. Die Frametime-Kompensation mit V-SYNC "On" wird während des vertikalen Austastintervalls (der Spanne zwischen dem vorherigen und dem nächsten Frame-Scan) durchgeführt und verzögert daher nicht die Einzelbildauslieferung innerhalb des G-SYNC-Bereichs und wird für ein tear-freies Erlebnis empfohlen (siehe G-SYNC 101: Optimale Einstellungen und Schlussfolgerung).
 
"Neuerdings" kann man einfach G-Sync aktivieren + Low Latency auf "Reflex + Boost" stellen. Dann aktiviert der automatisch V-Sync und bleibt automatisch immer die ~3 FPS unter der max refresh Rate.
 
V-Sync ist doch mit begrenzen der Bildrate im Rivatuner völlig obsolet
 
Nein, wenn man nur Gsync + Framelimit aktiv hat, kommt es immer noch zu Tearing. Die korrekten Einstellunen sind Gsync An, Vsync an + fps Limit 3-4 fps unter der maximalen Aktualisierungsrate.
 
Ja vsync immer an wenn VRR/Gsync an ist, sonst gibts Bildzerreißen am unteren Bildschirmrand. Die Latenz erhöht sich dabei nur um das aktuelle frame also es werden keine weiteren Frames gecached. Blurbusters hat das genau beschrieben.

Low latency auf Ultra im Treiber hatte ich auch mal eine Weile, das kümmert sich tatsächlich um ein FPS limit 3 unter Monitor refreshrate. Allerdings war damit Indiana Jones komplett unspielbar, furchtbare lags und input lag, damit kam wohl die idTech engine nicht klar. Also die manuelle Methode ist sicherer. Fps limit, gsync, vsync.
 
Low latency auf Ultra im Treiber hatte ich auch mal eine Weile, das kümmert sich tatsächlich um ein FPS limit 3 unter Monitor refreshrate. Allerdings war damit Indiana Jones komplett unspielbar, furchtbare lags und input lag, damit kam wohl die idTech engine nicht klar. Also die manuelle Methode ist sicherer. Fps limit, gsync, vsync.

Korrekt - bei Indiana Jones hatte ich das Problem damals auch. Keine Ahnung ob das mit den aktuellen Patches auch noch so ist. Ansonsten hatte ich mit der Einstellung noch keine Probleme.
 
Low Latency ist doch aber eh nur für DX11 und drunter. Soweit ich weiß unterstützt das DX12 gar nicht und ist auch nicht besonders effektiv in DX11. ich habe das auf Aus stehen weil es tendenziell eher Probleme verursacht als es Nutzen hat.

Reflex ist nicht gleich Low Latency und lässt sich treiberseitig nicht einstellen, das muss immer ingame gemacht werden (sofern es unterstützt wird). Bei 240Hz wird übrigens schon bei 225fps gecapped. Also je höher die maximale Refresh Rate, desto mehr "Platz" sollte man lassen.
 
Somit läuft die GPU nicht mit 100 % Last, sondern spielabhängig, und die Karte verbraucht weniger Watt; dadurch ist sie kühler und boostet höher. Für 2K- und 4K-Auflösung bietet sie das beste Spielerlebnis. Wenn der Monitor nur 120 Hz oder 144 Hz hat, wozu ohne Limiter spielen? Es sei denn, es ist einer unter uns, der in der Profiliga spielt. Für mich zählen ruhige, schöne, konstante Bilder.
 
225 limit auf 240 hat mich auch gewundert. Kam ich mit der 4090 seltener hin, ist wohl ein klares 5090 Problem.
 
Ich bin überrascht, dass der sachliche Austausch untereinander nicht ohne persönliche Angriffe stattfindet :giggle:
 
mit dem neuen Treiber 572.83 sollen die 3DMark Scores wohl wieder besser sein
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh