Deutliches Leistungsplus und künstliche Frames: GeForce RTX 4090 in der Founders Edition im Test

Bei dem Preisschild müssen sie es nicht einmal. 20% schneller als die 6900XT für ~800€ + Midrange für 400 & 600 und sie könnten jede Menge Karten verkaufen.

800€... Das wären dann eine USD UVP von etwas über 670$. Nicht vergessen der Euro kränkelt aktuell ein wenig und bei den Dollar Preisen sind noch keine Steuern dabei. Wie realistisch dass sein wird bei der Preisgestaltung der aktuellen Prozessoren... Dürfte ja TSMC aktuell zu jenen gehören die den Hals nicht vollbekommen. Zumal sie bei nur 20% mehr erst in der "neuen" Midrange angekommen wären...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Obiger Screenshot zeigt beispielsweise die Unterschiede im Codec und wenn eine höhere Bitrate gewählt wird. Ganz links ist ein H.264-Encoding bei 3.500 KBit/s zu sehen. In der Mitte mittels H.265 codiert und ganz rechts mit AV1, aber auch einer höheren Bitrate von 8.000 KBit/s.

Damit ihr euch selbst ein Bild machen könnt, haben wir entsprechend codierte Videos hochgeladen, die ihr euch dann anschauen könnt. Zur Verfügung stehen:


Es wäre noch aussagekräftiger, wenn ihr VMAF Tests von den Videos machen könntet. Mangels source Video kann ich das nicht selber. Anbieten würde sich zum Beispiel FFMetrics.
 
Zitat: "Eine GeForce RTX 3090 kostete zur Einführung 1.649 Euro"

Das ist falsch. Es war 1499 Euro.

Ich glaube es gabs zwei mal Preiserhöhung.

1549 und 1649 Euro.
 
Zuletzt bearbeitet:
Danke für den Test HWL .
Krasses Teil ordentlich Leistung in 4K
 
75% schneller bei 25% mehr Verbrauch und 30% höheren Preis als der Vorgänger haut mich nicht vom Hocker. Zum Glück ist NVIDIA zu TMSC, gewechselt mit Samsung hätten sie eine Bauchlandung hingelegt. Mal sehen wie sich die kleineren Modelle schlagen und die AMD Karten. Die 7950XT im Namen lässt nicht's Gutes erahnen. Könnte ein kurzes Gastspiel an der Spitze sein für die 4090, zumindest im Gebiet der Rasterleistung.
 
Eine schöne Vorstellung. Daumen hoch für den sehr ausführlichen Test :)

Da kommt etwas mehr als ich erwartet hätte, bin gespannt wie sich die Preise nun entwickeln.
Die Lager sind ja angeblich noch gut mit 3000er gefüllt...
 
Zur karte/Produkt:
Ich habe es im CB-Forum ähnlich formuliert, da die Leute dort auch aus dem Häuschen sind wie nix.
Das einzige, was mich wirklich positiv überrascht hat war die Leistung bezogen auf "nur" 450W und die noch mehr als gute Leistung bei 300W.
Aber warum wundern sich alle wegen der Leistung? Wenn man sich die technischen Details alle ansieht, sollte man doch solche (oder ungefähre) Leistungssteigerung ableiten lassen bzw. erwarten können!? :fresse:
Wenn ich von einem 150PS-Motor auf 300PS umrüste, erwarte ich ja auch nicht "nur" 10km/h mehr :lol:

guter Test ;)
 
Wenn man sich die technischen Details alle ansieht, sollte man doch solche (oder ungefähre) Leistungssteigerung ableiten lassen bzw. erwarten können!? :fresse:
Hast du toll gemacht :d Ja, ne, aber das definitive Q.E.D. hat halt noch gefehlt ;>
 
Ich warte auf die 4090 Ti bzw. Titan sonst was :d
 
@Don
Fantastischer Test dieses Mal!
Gerade das Scaling mit unterschiedlichen Powertargets empfinde ich als SUPER spannend und hilfreich. Ich undervolte meine GPUs immer, damit sie noch etwas leiser sind und weniger fiepen,... es sieht so aus, als ob man hier bei 350 Watt nicht mal spürbar Leistung verliert. Riesen Dank dafür.

@alle anderen:
Hier noch ein an das Thema angelehnte Analyse von HardwareUnboxed.

PerfPerWattCyberpunk1440p.png


Man sieht sehr schön, dass die MAXIMALE Wattzahlen, nicht unbedingt immer relevant sind.
Cyberpunk auf 90fps normiert in 1440p (leider haben sie das für 4k nicht gemacht, wäre auch spannend). Da zieht die 4090 gerade mal die HÄLFTE der 3090 TI (nicht die RTX 3090, sondern die TI!) und gute 50% weniger als die Beste AMD GPU.

Zusammenfassend:
Unglaublich beeindruckend die GPU. Deutlich besser als erwartet und dabei auch noch viel sparsamer als erwartet. Der für 600 Watt ausgelegte Kühler langweilt sich dann auch noch und macht das Ding super leise und kühl (vergleichsweise). Der Preis ist halt der eines echten Flagships (bis die TI kommt), ... aber gut, ... von der Steuer absetzen, Märchensteuer ebenso und schon sind es netto "nur" noch ca 910 Euro. Bestell ich morgen zwei, ohne Frage!
Da wird AMD so richtig rundern müssen. Ich hoffe sie bekommen das hin. Wäre schade, wenn sie da nicht mitgehen können, wo sie endlich so richtig nah dran sind / waren. DLSS 3.0 ist halt leider auch ne harte Ansage, die mal eben 4k@144hz mit RT in Cyberpunk liefern kann. Das wird schwer zu kontern, wenn sie da nicht etwas Identisches liefern.
 
Puh, umfangreicher Mega-Test 👋Tolle 4K GPU. Mit nur 250 Watt wischt die 4090 der 3090Ti noch den Ar... die Backplate(y). Würde sogar meine "Evangelion-Edition" gegen eine 4090 tauschen:hail:
 
Liebes Hardwareluxx Team

Die 600 Watt sind nicht von Tisch da die 4090ti noch kommt, und die wird 100 pro 600 Watt haben.
 
Hast du toll gemacht :d Ja, ne, aber das definitive Q.E.D. hat halt noch gefehlt ;>
Ja, vielleicht amüsiert mich mehr diese übertrieben enthusiastische Jubelei über ein Stück teure Hardware dermaßen, obwohl es ja absehbar war. Klar, Feinheiten und Details sowie Gewissheit hat man nun dazu.
Aber dieses "Mega des Jahrtausends" ist schon witzig :hust: :angel:
Eine ordentliche Leistung, keine Frage! Kosten/Nutzen usw. lass ich mal in dieser Liga mal extra außen vor, da das Produkt eh nicht auf rationaler Basis steht.. :coolblue:

P.S. Ich versuche es nüchtern und sachlich zu betrachten ohne sabber etc. ;)
 
Ja, vielleicht amüsiert mich mehr diese übertrieben enthusiastische Jubelei über ein Stück teure Hardware dermaßen, obwohl es ja absehbar war, klar, Feinheiten und Details sowie Gewissheit hat man nun dazu.
Aber dieses "Mega des Jahrtausends" ist schon witzig :hust: :angel:
Eine ordentliche Leistung, keine Frage! Kosten/Nutzen usw. lass ich mal in dieser Liga mal extra außen vor, da das Produkt eh nicht auf rationaler Basis steht.. :coolblue:
Ich wusste vorher nichts (nicht viel) über die gute Effizienz. Versteh schon was du meinst :)
 
Ich wusste vorher nichts (nicht viel) über die gute Effizienz. Versteh schon was du meinst :)
Ja, das ist ja das "eine", was mich dann auch positiv überrascht hat, wobei das entgegen meiner Meinung steht, die besagt, dass man auch wieder deutlich effizientere sparsamere und kompaktere Hardware entwickeln sollte, selbst bei nur minimalen Verbesserungen.
Wollte schon im Modding-Bereich vorschlagen, dass man nicht bald auch Kühlschränke zu Gehäuse umbasteln sollte wegen der Größe der karten jetzt und zukünftig :fresse:
 
Falls ich im Lotto gewinne kauf ich mir die sofort. Ansonsten muss ich das Feld den Freaks überlassen.
Der Verbrauch ist auch bei weitem nicht so schlimm wie befürchtet. Mit UV wird das schon ne runde Sache sein.
 
Geiles Teil aber als armer Beamter nicht machbar 🥴
 
Für 400-600 in 2 Jahren buy oder für 100,- mehr Ti oder gleich 5070...
 
Für andere, die ggf. auch etwas an Effizienz gewinnen wollen und UV als das neue OC sehen, hier eine Tabelle von Der8auer.
PT irgendwo zwischen 50 und 70% ist zwar Performanceverlust, aber nicht so dramatisch. In Spielen noch deutlich weniger, als in dem Benchmark natürlich. Zeigt er dann im Video auch schön, dass man in games einfach PT auf 60% setzen kann und nur 2-5% an FPS verliert. Will hier nicht zu viel verlinken von anderen Reviews, also bitte selber auf YouTube suchen bei Interesse. ;-)

Damit wird die Effizienz noch mal dramatisch verbessert.
Aber evtl. ist das auch ein Hoffnungsschimmer für AMD, ... warum sonst würde NVidia die GPU mit so einem Target auf den Markt werfen, wenn bei 40% weniger Strom auch schon 70% Sprünge rumkommen? Mit DLSS 3.0 gerne auch mal 300%.

PerfPerWatt4k.png
 
2080ti zu 4090 in 1440p doppelte Leistung. Not Bad ..... aber ganz ehrlich 2000€?

Eine 6900XT bekommt man schon für 699€ ..... ne Danke .....

Und DLSS ist einfach Müll .... mit genügend Sitzabstand vielleicht in Ordnung aber nicht vor der Nase, das sieht man einfach ...... für manche anscheinend nicht sehbar ....

Ist wirklich nur noch so das die die Leute auf 4K zwingen möchten. Wenn 4K ein Standard wäre ok aber so? 90% Gurken doch immer noch auf FHD .... und das ist schon sehr schlimm anzusehen ab 27 Zoll ....

Bleibt bitte mal auf dem Boden. Selbst eine RTX2080 Ti ist Heute auf FHD und WQHD eine TOP Karte. Rennt nicht immer hinterher und schmeißt euer Geld raus ..... seid einmal froh was ihr eigentlich habt .....

Immer diese FPS Anzeige ...... die gehört verboten :d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh