[Sammelthread] NVIDIA GeForce RTX 5090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again again

1736244932867.png
1736244961580.png



1736245051482.png


Release Date

30.1.2025 - 15 Uhr
Reviews: 23.1.2025 - 15 Uhr

5090 Präsentation


Eine gute Übersicht zwischen einer 5090 und 4090 (Quelle)

1736325661137.png

Grafikkarten Garantie Übersicht - Stand 12/2023 (Danke an @Nobbi Habogs) :

1736247713146.png


1736249056256.jpeg

Zusammenfassung: DLSS 4 – Was ist neu? (Quelle)

  • Was ist DLSS 4?
    • Neural Rendering-Technologie von NVIDIA für höhere Bildraten und bessere Grafikqualität.
    • Multi Frame Generation für RTX 50 GPUs: Bis zu 3 zusätzliche Bilder pro gerendertem Bild.
    • Verbesserungen bei Bildqualität (weniger Ghosting, mehr Details bei Bewegungen) durch Transformer-Modelle.
    • Bis zu 8x mehr FPS im Vergleich zu nativer Darstellung, 1.7x Upgrade von Frame Generation.
  • Unterschiede zu früheren DLSS-Versionen:
    • Neu: Multi Frame Generation (RTX 50), Ray Reconstruction und Super Resolution (für alle RTX-Karten).
    • Transformer-Modelle ersetzen teilweise CNN-Modelle, bieten stabilere und schärfere Bilder.
  • Verfügbarkeit und Updates:
    • DLSS 4 unterstützt alle RTX-Karten (20, 30, 40, 50 Serien).
    • Super Resolution bleibt aktiv entwickelt, Beta-Version verfügbar.
    • Multi Frame Generation in 75 Spielen am Starttag unterstützt.
  • Leistung und Latenz:
    • Multi Frame Generation bietet mehr FPS mit minimaler Latenz.
    • Verbesserte KI-Modelle für optimierte Leistung.
  • NVIDIA App:
    • Notwendig für DLSS Override, um Multi Frame Generation in unterstützte Spiele zu integrieren.
  • Transformermodell vs. CNN:
    • CNN: Lokaler Fokus, pixelweise Analyse.
    • Transformer: Bewertet alle Pixel und mehrere Frames gleichzeitig.
    • Ergebnis: Stabilere Bilder, weniger Ghosting, höhere Details.
  • Zukünftige Kompatibilität:
    • Alle RTX-Nutzer erhalten Updates für Ray Reconstruction, Super Resolution und DLAA.
    • Nutzer können alte CNN-Modelle weiterhin nutzen oder auf Transformer-Modelle upgraden.
5090 News:
Grafikkartenübersicht:

WIP
 
Zuletzt bearbeitet:
Also bei der 4090 gab's auch keinen, auch nicht der Roman, der darauf eingegangen ist. Damals gab es lediglich den PT Sweetspot. Das Thema UV kam von so Leuten wie uns die dazu ein Video gemacht haben. Hisn hat den Thread dazu dann im CB Forum erstellt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ne ist nur aufgefallen, das alle Reviewer das selbe bringen.

Nicht nur das UV Thema ist nirgends vorhanden auch beim Thema MFG haben alle die Latenzen mit den max. Frames getestet.
Die Leute haben aber nicht alle 240 oder gar 480 HZ Bildschirme.
Die meisten Gaming Monitore nutzen 144 Hz. Viele UWQHD haben sogar noch 100 HZ oder die ganzen OLED nutzer aus LG OLED CX Zeit @ 120 HZ.

Also warum misst man nicht mal die Latenzen in einem FPS Cap @ 2x,3x,4 , wenn alle Varianten den FPS Bereich erreichen.
Wenn es zb. so wäre man hat einen FPS Cap bei 144 HZ Gsync @ Reflex = 138 FPS und ich würde theoretisch mit MFG 4x natürlich die Karte deutlich weniger belasten
als mit FG 2x. Dann muss man mal sehen wie ist denn der Inputlag mit 3x oder 4x im FPS Cap, aber das hat kein Review was ich gelesen habe getestet.
Das wäre kein großer Aufwand gewesen kurz in der Nvidia App ein FPS Cap Global einzustellen und dann die Latenzen im Overlay von der Nvidia App auszulesen.

Ist auch wieder so ne Sache. Dies muss jeder selber testen. Nvidia wirbt in dieser Generation massiv mit MFG.
Also muss man dieses auch mal ordentlich durchleuchten als Reviewer. Hoffe da passiert noch was.
Ich hab keine 5090 geplant, aber interessiert mich trotzdem.

Es gibt ein Video das drauf eingeht. Die Latenz explodiert, wenn man mit CAP MFG nutzt und über die CAP FPS kommt.


Screenshot 2025-01-26 165655.png


4x mit 120 CAP sind nette 110ms Lag :fresse2:


Ergo, MFG nur in dem Faktor nutzen, sodass es unter dem CAP bleibt, andernfalls holt man sich extreme LAG rein
 
Ja das muss man halt wissen und dann je Spiel händisch entscheiden wie viel Framegen man braucht um auf seine gewünschten FPS zu kommen.

Wenn ich nativ 100FPS hab, stelle ich für 165FPS halt nur FGx2 ein.

Schöner wäre natürlich wenn der Treiber das alleine und dynamisch anpassen würde. Vielleicht kommt das ja noch, das man nur seine Ziel FPS einstellt und den Rest macht der Treiber.

Der Dau knallt halt FGx4 rein und wundert sich warum das Spiel beschissen läuft obwohl er 165fps Limiter hat und die GPU so schön leise läuft. Schlecht kommuniziert mMn.
 
@webmi : Vielen Dank (y)

Hatte es mir irgendwie schon gedacht.
Naja mal sehen was dann in Zukunft Reflex 2 noch bringt.
 
Wenn ihr mich fragt ist es eh ziemlich paradox sich eine 5090 zu einem 1440p/165Hz Monitor zu holen. Da bleib ich bei einer 4090, no questions asked.

Die 5090 macht in meinen Augen nur sinn, bzw gerade erst dann, wenn man in 4K spielt und dann auch mehr als 120Hz hat.
Ein 4K/240Hz Monitor ist meiner Meinung nach schon mehr als angebracht für so eine Karte wie die 5090.

Ich z.B. als jemand der 4K/240Hz nutzt, würde von einer 5090 deutlich mehr provitieren, als jemand der sich das Ding zu seinem 5 Jahre alten 1440/165Hz Monitor in den PC steckt.

Ironischerweise werden lieber 500€ Netzteile für die Karte gekauft, als der passende Monitor :d
 
Wenn ihr mich fragt ist es eh ziemlich paradox sich eine 5090 zu einem 1440p/165Hz Monitor zu holen. Da bleib ich bei einer 4090, no questions asked.

Die 5090 macht in meinen Augen nur sinn, bzw gerade erst dann, wenn man in 4K spielt und dann auch mehr als 120Hz hat.
Ein 4K/240Hz Monitor ist meiner Meinung nach schon mehr als angebracht für so eine Karte wie die 5090.

Ich z.B. als jemand der 4K/240Hz nutzt, würde von einer 5090 deutlich mehr provitieren, als jemand der sich das Ding zu seinem 5 Jahre alten 1440/165Hz Monitor in den PC steckt.

Ironischerweise werden lieber 500€ Netzteile für die Karte gekauft, als der passende Monitor :d
1:1 mein Gedanke :LOL:

Die 5090 ist sogut wie eine Reine 4k Karte oder man hat einen 480hz+ Monitor wobei ich glaube eine 4090 das auch noch Packt
 
@webmi
Was ich nicht ganz verstanden habe ist, wie genau HWU die fps limitiert? Wenn ich die fps unabhängig von FG mit rivatuner auf 70 fps begrenze und FG (bzw. bei mir AFMF) dazu schalte, erhöhen sich die Frametimes nur minimal, da ich ca. 5% weniger fps habe.
 
Wenn ihr mich fragt ist es eh ziemlich paradox sich eine 5090 zu einem 1440p/165Hz Monitor zu holen. Da bleib ich bei einer 4090, no questions asked.

Die 5090 macht in meinen Augen nur sinn, bzw gerade erst dann, wenn man in 4K spielt und dann auch mehr als 120Hz hat.
Ein 4K/240Hz Monitor ist meiner Meinung nach schon mehr als angebracht für so eine Karte wie die 5090.

Ich z.B. als jemand der 4K/240Hz nutzt, würde von einer 5090 deutlich mehr provitieren, als jemand der sich das Ding zu seinem 5 Jahre alten 1440/165Hz Monitor in den PC steckt.

Ironischerweise werden lieber 500€ Netzteile für die Karte gekauft, als der passende Monitor :d

Kann mir 1440P garnicht mehr vorstellen.
Spiele sofern es möglich ist 4k DLAA.
Kann mir allerdings auch nicht mehr vorstellen auf HDR zu verzichten.
Mir ist das mit am wichtigsten.
 
Ich kann mir 27" oder IPS gar nicht mehr vorstellen :fresse2:
Das größte Update, das wir Hardware technisch die letzten Jahre bekommen haben, sind für mich die 32" 4K OLED Screens :banana:


Wirklich interessant werden die GPUs leider erst wieder mit einem Shrink in der Fertigung. Ich mein, 500W+, holy shit, das ist echt ugly...

Die Power ist nett, der Verbrauch ist ein Alptraum. Es wird laut und warm, pfui bei dem Gedanken daran was da unterm Tisch für eine Hitze entsteht. Im Moment läuft meine 4090 uved bei 250W (300W im Worst Case). Das mal eben zu verdoppeln, damit die Hitze und die Temps im LuKü PC, bah, wird mir eigtl schlecht schon vom Gedanken daran :kotz:

So richtig geil find ich die 5090 deshalb leider eben nicht und kann nur hoffen, das man das mit UV bei zB. ca. 400W einigermaßen einfangen kann.
 
Naja 4090 ist schon lange verkauft und nochmal eine 4090 für 1600+ kaufen ist maximal abturnend. Rückwirkend betrachtet hätte ich meine 4090 behalten sollen. Bringt mir aber auch nichts mich jetzt drüber zu ärgern.

Jetzt bleibt nur 5090. Evtl gibt's noch nen 240hz OLED dazu.
 
Für 1440p oder auch UWQHD gibt's noch DLDSR 2,25x womit man die 4090 gut fordern can.
 
Das größte Update, das wir Hardware technisch die letzten Jahre bekommen haben, sind für mich die 32" 4K OLED Screens :banana:
💯 agree!
OLEDs sind (für mich) nicht mehr wegzudenken! Selbst das Netzteil hat ein OLED-Display...:LOL:
 
Zuletzt bearbeitet:
Wenn die 4090 eh max. 750 Watt gepackt hat, dann war dieser im Pufferbereich.
Glaube 750 Watt war auch das was diese Kabel aushält, aber keine 1000 Watt.
Das war auch das was Der8auer mal in einem Video kritisiert hatte, dass der Puffer deutlich kleiner ausfällt als bei den 8 Pin Kabel.
Warum sollte die 5090 bei 750 Watt ein Ende sein? Der Chip ist doch größer. Denke dieser wäre auch in der Lage mehr Strom zu ziehen als ne 4090,
aber diese Fragen wird die Zeit klären. XOC war aber für mich eh nie ein Thema. Selbst unter Wasser habe ich mir nie ein XOC Bios drauf geschmissen und
daher auch weniger mich mit diesen Fragen beschäftigt.
Sind zwar keine 1.000W, sondern „nur“ 980W auf der TUF (Non-OC-Version). Wie man sieht, hab ich da „entspannte“ 35 Grad am Stecker (Kabel waren noch kühler - nicht der Rede wert. Ok, das Wasser war recht kalt :fresse:
War mit dem Corsair-Adapter (2 Zuleitungen). Aber das ist scheiße im Gegensatz zum NV-Adapter (4 Zuleitungen), wegen dem enormen VDrop
 
Verstehe dieses Biegen auch nicht. Das ist doch etwas, was man maximal genau ein mal macht. Bringt halt zwei Modelle raus die sich nicht biegen lassen für wahrscheinlich ein paar hundert weniger.
 
Verstehe dieses Biegen auch nicht. Das ist doch etwas, was man maximal genau ein mal macht. Bringt halt zwei Modelle raus die sich nicht biegen lassen für wahrscheinlich ein paar hundert weniger.

Wird auch scheinbar so passieren: https://www.hardwareluxx.de/index.p...-ces-zahlreiche-neue-monitore-vorstellen.html

Die 5.120 x 2.160 Pixel können wahlweise vollständig flach oder eben gekrümmt dargestellt werden. Bei der Krümmung möglich sind bis zu 900R. Als 45GX950A verzichtet LG auf die variable Krümmung und bietet das Display mit fixen 800R an. Ansonsten soll es zwischen dem 45GX950A und 45GX990A keinerlei Unterschiede geben.

@Dwayne_Johnson Igor lobte im Test das Wärmepad an der Rückseite des Stromanschluss. https://www.igorslab.de/msi-geforce...o-kostet-und-die-fe-in-den-schatten-stellt/3/

Backplate.jpg
 
Sind zwar keine 1.000W, sondern „nur“ 980W auf der TUF (Non-OC-Version). Wie man sieht, hab ich da „entspannte“ 35 Grad am Stecker (Kabel waren noch kühler - nicht der Rede wert. Ok, das Wasser war recht kalt :fresse:
War mit dem Corsair-Adapter (2 Zuleitungen). Aber das ist scheiße im Gegensatz zum NV-Adapter (4 Zuleitungen), wegen dem enormen VDrop
Ich sage ja der Stecker ist nicht das Problem der kann das ab ohne Probleme
 
Ich seh das alles auch so… ohne 4K 240hz Monitor oder ähnliches macht die 5090 eigentlich null Sinn. Das war für mich aber auch „das“ Kaufargument. Alles darunter kann man sich die Karte sparen.

Bin gespannt wie das am Donnerstag laufen wird :)
 
Für RAM OC hat Nvidia scheinbar ein Riegel vorgeschoben mehr wie +2000 sollen nicht gehen und Quasi alle 5090 Karten sollen das packen ohne Probleme

Selbst ASUS mit ihrem XOC Bios konnten die +2000 nicht anheben
 
Ne ist nur aufgefallen, das alle Reviewer das selbe bringen.

Nicht nur das UV Thema ist nirgends vorhanden auch beim Thema MFG haben alle die Latenzen mit den max. Frames getestet.
Die Leute haben aber nicht alle 240 oder gar 480 HZ Bildschirme.
Die meisten Gaming Monitore nutzen 144 Hz. Viele UWQHD haben sogar noch 100 HZ oder die ganzen OLED nutzer aus LG OLED CX Zeit @ 120 HZ.

Also warum misst man nicht mal die Latenzen in einem FPS Cap @ 2x,3x,4 , wenn alle Varianten den FPS Bereich erreichen.
Wenn es zb. so wäre man hat einen FPS Cap bei 144 HZ Gsync @ Reflex = 138 FPS und ich würde theoretisch mit MFG 4x natürlich die Karte deutlich weniger belasten
als mit FG 2x. Dann muss man mal sehen wie ist denn der Inputlag mit 3x oder 4x im FPS Cap, aber das hat kein Review was ich gelesen habe getestet.
Das wäre kein großer Aufwand gewesen kurz in der Nvidia App ein FPS Cap Global einzustellen und dann die Latenzen im Overlay von der Nvidia App auszulesen.

Ist auch wieder so ne Sache. Dies muss jeder selber testen. Nvidia wirbt in dieser Generation massiv mit MFG.
Also muss man dieses auch mal ordentlich durchleuchten als Reviewer. Hoffe da passiert noch was.
Ich hab keine 5090 geplant, aber interessiert mich trotzdem.
aber das können wir doch alles machen. warum immer die verantwortung abgeben? we are the media 😀
Beitrag automatisch zusammengeführt:

Wenn ihr mich fragt ist es eh ziemlich paradox sich eine 5090 zu einem 1440p/165Hz Monitor zu holen. Da bleib ich bei einer 4090, no questions asked.

Die 5090 macht in meinen Augen nur sinn, bzw gerade erst dann, wenn man in 4K spielt und dann auch mehr als 120Hz hat.
Ein 4K/240Hz Monitor ist meiner Meinung nach schon mehr als angebracht für so eine Karte wie die 5090.

Ich z.B. als jemand der 4K/240Hz nutzt, würde von einer 5090 deutlich mehr provitieren, als jemand der sich das Ding zu seinem 5 Jahre alten 1440/165Hz Monitor in den PC steckt.

Ironischerweise werden lieber 500€ Netzteile für die Karte gekauft, als der passende Monitor :d
nicht ganz. meine 4090 kommt trotz fg und dlss performance bei manchen games gerade um die 100fps. da wären die 20% mehrleistung gut um den lg oled auszureizen. frage mich aber ob ich dafür alle negativen aspekte in kauf nehmen soll. ich teste einfach mal wenn ich eine habe.
 
Zuletzt bearbeitet:
💯 agree!
OLEDs sind (für mich) nicht mehr wegzudenken! Selbst das Netzteil hat ein OLED-Display...:LOL:
Dem kann ich nur beipflichten 👍🏻. Auf nem OLED ist das daddeln nochmal was ganz anderes und sieht richtig gut aus 👌🏻.
 
Selbst das Netzteil hat ein OLED-Display...:LOL:
Beim Netzteil bin ich aber tatsächlich nicht so ein großer Fan von (habe dasselbe in 1200W). Das wird irgendwann einbrennen. Nicht umsonst gelten die 10 Jahre Asus Garantie nicht auf das Display. LCD wäre besser
 
Für RAM OC hat Nvidia scheinbar ein Riegel vorgeschoben mehr wie +2000 sollen nicht gehen und Quasi alle 5090 Karten sollen das packen ohne Probleme

Selbst ASUS mit ihrem XOC Bios konnten die +2000 nicht anheben
Gab doch schon ein Video, bei dem sie bei einer Asus den Speicher auf 17000 MHz laufen hatten.
 
Die info hat jemand im OC Forum gepostet

Ob es stimmt und in welchen Kontext es steht hat er nicht gesagt und die 17000 liefen auf einer 5090D inwiefern die D sich von der Normalen 5090 unterscheidet wird sich zeigen und die Karte mit 17000mhz hatte Hardware Mods

Daher kann es schon sein das über Software "Nur" +2000mhz gehen
 
Klingt im ersten Moment nach dem MSI Afterburner Limit von +2000. War bei der 4090 auch schon so und mit z.B. dem Evga Tool gehen über 2000.
 
1737905762328.png


Jetzt merke ich erst er schreibt 34 nicht 32 :ROFLMAO: also scheint der Lock bei +3000 zu sein

Daher hast du Recht wenn im AB das nicht geändert wird sind wir dort wieder auf +2000 Limitiert
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh