Erstkontakt mit Ada: GeForce RTX 4090 Founders Edition Unboxing

Wenn ich jetzt mal das Video als ersten Anhaltspunkt nehme, dann ist die 4090 gerade mal max. 40 FPS schneller als eine 3090 Ti, die zudem noch Sparsamer und günstiger als eine 4090 ist (3090 Ti ist ab etwa 1200€, 4090 laut Artikel für 1949€ erwerbbar)


So wird das aktuell nichts mit der 3000'er Nachfolge.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mies Benchmarks haben sich leider in der Vergangenheit als Fake herausgestellt.
 
Warum geben Leute jeden Tag 7 Euro für Zigaretten aus?
Warum geben Leute 100te von Euro für Alkohol aus?
Warum geben Leute mehr Geld für eine Handy Flatrate aus?
Warum geben Leute viel Geld für ein Handy aus?
Warum geben Leute mehr Geld für Autos aus?
Warum geben Leute mehr Geld für Grakas aus?

:) Du siehst, jeder hat seine Hobbies und Vorlieben.

Aber wenn der Preis für eine Flasche Whisky von derzeit 25 € in drei Jahren auf 75 € springen würde, würden den auch nur noch die wenigsten Konsumenten kaufen und stattdessen auf was anderes umsatteln.
Ich glaube von daher ernsthaft daran, dass die 4090 als Topmodell sich sehr schwer verkaufen lassen wird. Auch die 4070 und 4080 werden es schwer haben. Die meisten Gamer bekommen derzeit für 700 € die Hardware, die die meisten Anforderungen meistert. Enthusiasten werden das natürlich anders sehen. Die breite Masse, so schätze ich es einfach ein, wird das nicht machen.
Aber es kann auch alles anders kommen, who knows.
 
Weils fake ist😀
Nja die von NV angekündigten Leistungszuwächse sind auch ziemlich fake. Wenn man einfach ausgedachte Bilder mitzählt ist das ungefähr so wie die 500hz-Fernseher, die es mal gab. Die haben auch nicht 500 Bilder/s angezeigt sondern 440 graue und 60 echte.

Ohne die Fake-Bilder wird der Zuwachs irgendwo bei 20-50% liegen, bei 20-50% zusätzlicher Leistungsaufnahme und 100% Aufpreis gegenüber der aktuellen Generation. Kein wirklich guter Deal.
 
Naja, das mit den fake-Bildern muss sich noch herausstellen...es geht ja um Bewegtbilder und nicht um Standbildervergleich
DLSS 3.0 und besseres Raytracing sind schon nicht schlecht...oder wären nicht schlecht zu haben
 
ich denke/hoffe das NV die 40xx schlecht verkaufen wird. Viele haben sich auch durch "scalperei" erheblich höhere Modellle "geleistet" und haben jetzt eine 1650€ Karte im Rechner welche sie unter "normalen" Bedingungen niemals gekauft hätten. Wird sich halt zeigen ob es soviele Enthusiasten gibt oder eher "Geschäftsmänner"; diese brechen ja nun erstmal weg ;)
 
Allein für den Stromverbrauch sollten die Karten schon kein Absatz finden.
 
Allein für den Stromverbrauch sollten die Karten schon kein Absatz finden.
Das habe ich schon bei der 3080 usw. gesagt. Mich hat es gewundert, denn offensichtlich hat das nur wenige gejuckt.

Ich glaube aber auch das die Größe ein Thema werden wird und irgendwie hatte da doch mal jemand ne Parodie zu
gemacht und so eine Mega fette 4000er als Nachfolger gezeigt.


Ich finde, der hat es ganz gut prognostiziert.
 
Also mit einer 3080 im UWQHD... muss ich definitiv noch nicht wechseln 4k geht auch noch ohne Regler auf Max und mit DLSS läuft das sowieso.
Ich werde die 3080 mindestens so lange behalten bis entweder die Karte kapput geht oder ich für den gleichen Preis fast die doppelte Leistung bekomme, mindestens jedoch 40-50% mehr, wenn man Inflation rein rechnet.
 
Also mit einer 3080 im UWQHD... muss ich definitiv noch nicht wechseln 4k geht auch noch ohne Regler auf Max und mit DLSS läuft das sowieso.
Ich werde die 3080 mindestens so lange behalten bis entweder die Karte kapput geht oder ich für den gleichen Preis fast die doppelte Leistung bekomme, mindestens jedoch 40-50% mehr, wenn man Inflation rein rechnet.

Die neue Unreal5 Engine wird gut Leistung fressen ab 2023. Sicher muss nicht alles auf Max gestellt sein, aber das Gefühl das wir mit Ampete hatten lief alles auf Altbacken Engines, die schön aussahen weil die Devs viel Erfahrung hatten.
 
Also den Preis finde ich super gut. Hält mich wenigstens vom Kauf ab. Da läuft die 3080FE noch einige Jährchen.

Ich glaube, er braucht eine neue Sammlung von Lederjacken.
 
Warum geben Leute jeden Tag 7 Euro für Zigaretten aus?
Warum geben Leute 100te von Euro für Alkohol aus?
Warum geben Leute mehr Geld für eine Handy Flatrate aus?
Warum geben Leute viel Geld für ein Handy aus?
Warum geben Leute mehr Geld für Autos aus?
Warum geben Leute mehr Geld für Grakas aus?

:) Du siehst, jeder hat seine Hobbies und Vorlieben.
Hmm....bei mir trifft nur das letztere aktuell zu... Man kann auch sagen, weil ich bei allem anderen nichts ausgebe, habe ich das Geld für ne 4090.
Nja die von NV angekündigten Leistungszuwächse sind auch ziemlich fake. Wenn man einfach ausgedachte Bilder mitzählt ist das ungefähr so wie die 500hz-Fernseher, die es mal gab. Die haben auch nicht 500 Bilder/s angezeigt sondern 440 graue und 60 echte.

Ohne die Fake-Bilder wird der Zuwachs irgendwo bei 20-50% liegen, bei 20-50% zusätzlicher Leistungsaufnahme und 100% Aufpreis gegenüber der aktuellen Generation. Kein wirklich guter Deal.
Zumindest bei Digital Foundry würde ich jetzt nicht von Fake reden...die haben zwar keine Zahlen sondern nur Prozente veröffentlicht, aber sind sonst relativ transparent.
Und wer genau hinschaut, weiß des es bereits konkrete Zahlen gibt. Nvidia selbst hat bei Spiderman 230FPS mit DLSS3 und 125FPS ohne DLSS veröffentlicht. DF hat das mit ihren Tests nochmal bestätigt, das die 4090 mit DLSS2 15% mehr und mit DLSS3 ca 200% mehr FPS bekommt und sie sagen, dass das Spiel im CPU-Limit ist.
Eine 3090Ti scheint bei ca 65FPS ohne DLSS zu sein. Wäre also durchaus rund 100% mehr Leistung OHNE DLSS. :d und fast 4x Leistung mit DLSS3, trotz CPU-Limit!!!

Und ich bin kein Fan-Boy, aber da ich eine 4090FE kaufen will, muss ich mir sie ja schön reden....
 
Wenn ich jetzt mal das Video als ersten Anhaltspunkt nehme, dann ist die 4090 gerade mal max. 40 FPS schneller als eine 3090 Ti, die zudem noch Sparsamer und günstiger als eine 4090 ist (3090 Ti ist ab etwa 1200€, 4090 laut Artikel für 1949€ erwerbbar

So wird das aktuell nichts mit der 3000'er Nachfolge.
Reale Preise bei über 2 K...

Wenn die Leistungszuwächse wie bei Turing sind wird man sie gut überspringen können. Dazu kommt noch der extreme Verbrauch. Ich bin mal gespannt ob das noch ansatzweise im Mehrwert zur Leistung gegenüber Ampere steht.
Also mit einer 3080 im UWQHD... muss ich definitiv noch nicht wechseln 4k geht auch noch ohne Regler auf Max und mit DLSS läuft das sowieso.
Ich werde die 3080 mindestens so lange behalten bis entweder die Karte kapput geht oder ich für den gleichen Preis fast die doppelte Leistung bekomme, mindestens jedoch 40-50% mehr, wenn man Inflation rein rechnet.
Ich sehe das Problem eher bei den Spielen. Welches Spiel läuft nicht anständig und wäre so eine Investition wert? In letzter Zeit kommt eigentlich nur noch Müll.
 
Wäre also durchaus rund 100% mehr Leistung OHNE DLSS. :d und fast 4x Leistung mit DLSS3, trotz CPU-Limit!!!
Nja bei einem Aufpreis von ~100% ist das ja auch das Mindeste, wobei ich wirklich gespannt bin ob das so tatsächlich kommt, könnte gut sein, dass das Powerlimit der doppelten non-DLSS-Leistung einen Strich durch die Rechnung macht. Das mit der 4x DLSS3-Leistung ist halt Ansichtssache, wenn man die Hälfte der Strecke läuft kann man sich auch damit brüsten doppelt so schnell fertig zu sein, ein besserer Läufer wird man dadurch auch nicht. Nvidia hat mit RT ein Feature eingeführt um mehr Sachen in Echtzeit berechnen zu können nur um die Bilder nur noch teilweise und auch nicht mehr alle berechnen zu müssen. Dann braucht es auch kein Ray-Tracing, vorgefertigte Fake-Beleuchtung ist genauso gut oder schlecht wie hochskalierte oder interpolierte Fake-Bilder. Ein Schritt nach vorne hier und gleichzeitig einen Schritt zurück dort.

Bis jetzt habe auch noch nichts gesehen das den Rechenaufwand von RT tatsächlich berechtigt. Meistens sind die Effekte so dezent, das man sie von vorgefertigten kaum bis gar nicht unterscheiden kann. Der RT-Mod von Portal2 in der 4090-Präsentation hat da auch nicht geholfen. Die ganzen spiegelnden Oberflächen lassen alles nass ausehen. Eigentlich ein schon lange behobenes Problem aus dem Anfang der 3D-Zeit als Entwickler und Designer noch nicht so recht wussten, was sie da eigentlich machen. Nvidia hat die Geldreserven um dran zu bleiben, aber bisher ist RT eher mit PhysX zu vergleichen, falls sich wer noch an die Techik erinnern kann. Wurde glaube ich sogar auch von Nvidia gekauft.
 
Zuletzt bearbeitet:
Ohh tut mir echt leid, dass bei manchen die Tränen immer noch nicht getrocknet sind.
63867711-09A0-4A7D-9D3A-CA2350CB9940.jpeg

Hier ging es um die 3090 Ti die ohne vorherige Vorstellung released wurde. Und, Hirn benutzt zur Selbstreflexion oder sollen das immer nur andere machen? Tränen vergossen habe ich sicher nicht, angegeben und mich am Verzweifeln anderer ergötzt aber auch nicht :)
 
@brometheus hat tiefe Einsichten gemacht. In den wenigen Spielen die überhaupt RT unterstützen ist die Performance auch auf NVIDIA absolut grottig und die Spiele sehen mit screenspace reflections immer noch gut aus. Der einzige Unterschied: Kein Echtzeit-Raytracing dynamischer Objekte. Ich würde immer die Framerate (nativ) irgendwelchen Spielereien bevorzugen. Die nötige Leistung steht einfach in keinem Zusammenhang zur Optik.
 
Hmm....bei mir trifft nur das letztere aktuell zu... Man kann auch sagen, weil ich bei allem anderen nichts ausgebe, habe ich das Geld für ne 4090.

Zumindest bei Digital Foundry würde ich jetzt nicht von Fake reden...die haben zwar keine Zahlen sondern nur Prozente veröffentlicht, aber sind sonst relativ transparent.
Und wer genau hinschaut, weiß des es bereits konkrete Zahlen gibt. Nvidia selbst hat bei Spiderman 230FPS mit DLSS3 und 125FPS ohne DLSS veröffentlicht. DF hat das mit ihren Tests nochmal bestätigt, das die 4090 mit DLSS2 15% mehr und mit DLSS3 ca 200% mehr FPS bekommt und sie sagen, dass das Spiel im CPU-Limit ist.
Eine 3090Ti scheint bei ca 65FPS ohne DLSS zu sein. Wäre also durchaus rund 100% mehr Leistung OHNE DLSS. :d und fast 4x Leistung mit DLSS3, trotz CPU-Limit!!!

Und ich bin kein Fan-Boy, aber da ich eine 4090FE kaufen will, muss ich mir sie ja schön reden....
Was Nvidia nur nicht gesagt hat das die 4090 mit der max. Leistungsaufnahme von 600 Watt lief und die 3090Ti mit der Leistungsaufnahme von 450 Watt, während sie gebencht haben 😂🤭
 
Ja also die Kritik an die neue Generation ist absolut nachvollziehbar, ich meine die technische Innovation an dem Produkt besteht einfach nur noch mehr Leistung mit gleichzeitig massiver Stromaufnahme zu erhöhen.

DLSS ist keine echte native Leistung, gemessen am Verbrauch müsste man in einer ordentlichen Analyse den Verbrauch in Watt mit und ohne DLSS rausrechnen um festzustellen ob DLSS hier die FPS mit weniger Leistungsaufnahme zaubert oder möglicherweise ein Stromtreiber ist.
Wieder kommen wir zu dem Punkt wo man sich fragen muss ob hier wieder Nvidia den Leuten das Geld aus der Tasche zieht.
Die Leute bekommen schon was für ihr Geld keine Frage nur ist die Frage ob hier Nvidia als Designentscheidung im Sinne des Konsumenten eine optimierte Konstellation zusammen gestellt hat oder eher den Kunden an der Nase herum führt.
So beeindruckend wie DLSS3.0 seien muss.
Ich sehe das gleiche Probleme wie in der 3000er Generation, die DLSS Leistung skaliert proportional zur Rohleistung der Grafikkarte, aber warum?

Warum kann eine 3060TI nicht die gleiche DLSS Leistung einer 3080/3090 haben, die ja die native niedrigere Bildrate eben durch jenen "Trick" ausgleicht und für mehr Bilder sorgt?
Wäre hier nicht angebracht bei schwächerer nativer Leistung den Faktor DLSS zu erhöhen um im Resultat mehr Bilder mit weniger Rechern power für native Bilderzeugung zu optimieren?

Bestünde hier die Gefahr das Nvidia sich damit seine "Premium" Produkte die Niemals das Geld kosten was sie dafür verlangen kannibalisieren würden?

Ich bin schon gespannt auf die Charts in FPS/Watt mit unterschiedlichen Auflösungsklassen.

Ich fahre persönlich am besten in Performance/Watt mit meiner 3080 wenn ich UWQHD die FPS auf die Monitor HZ Zahl bei mir z. b 120fps/Hz limitiere. Mit aktivem DLSS wenn möglich oder Skalierungsoptimierung (DLSS Treiberseitig). Komme ich im Total System Power Draw mit CPU (3900x) auf ~200-250W. Die FPS per Watt steigt überhaupt nicht Linear.
Ich hab das zwar nicht genau gemessen/gebenched, aber ich merke schon das ein paar mehr FPS darin resultieren das die Stromaufnahme wesentlich höher wird.

Neben dem Fakt das die neue Karte 600W Schlucken kann, wäre interessant wie wenig sie bräuchte in einem fixen Limit z. b 120/144/165 FPS. Mein Monitor schafft übrigens die 144, allerdings brauch er für 24 mehr hz vs 120hz gleich ~35% mehr Saft.
 
Ich bin gespannt, ob die AMD RX 7000 auch so enden wird und nur ein minimales Leistungsplus mit erhöhter Leistungsaufnahme haben wird, als die RX 6000.

Aber hey, ein Ryzen 7000 zusammen mit einer 4090 gepaart und die Heizung kann man abschalten :fresse:
 
Was Nvidia nur nicht gesagt hat das die 4090 mit der max. Leistungsaufnahme von 600 Watt lief und die 3090Ti mit der Leistungsaufnahme von 450 Watt, während sie gebencht haben 😂🤭
Also laut dem Video vom guten Igor ist die 4090 auch für 450W vorgesehen, "Spannungs-/Takt-/(Verbrauchskurve)" etc. sind wohl auch nur bis da definiert. Schau mich!
 
Also laut dem Video vom guten Igor ist die 4090 auch für 450W vorgesehen, "Spannungs-/Takt-/(Verbrauchskurve)" etc. sind wohl auch nur bis da definiert. Schau mich!
Die Founders Edition hat 4 Stecker! Das Powerlimit geht klar bis 600 Watt,wurde ja schon mehrfach berichtet.450 Watt sind die 100% die voreingestellt sind,also default.Beim afterburner sollen 133% Leistungsaufnahme das Maximum sein.😉
 
Die Founders Edition hat 4 Stecker! Das Powerlimit geht klar bis 600 Watt,wurde ja schon mehrfach berichtet.450 Watt sind die 100% die voreingestellt sind,also default.Beim afterburner sollen 133% Leistungsaufnahme das Maximum sein.😉
Weiß ich alles, und steht m.M.n. auch nicht im Widerspruch zu meiner Aussage oder dem Video. Wenn man es ganz genau nehmen will wären mit 4 Steckern + PCIe Steckplatz auch über 600W drin ;)
 
Zuletzt bearbeitet:
Weiß ich alles, und steht m.M.n. auch nicht im Widerspruch zu meiner Aussage oder dem Video. Wenn man es ganz genau nehmen will wären mit 4 Steckern + PCIe Steckplatz auch über 600W drin ;)
Ja stimmt.Ich will nur damit sagen:Schenke nicht allzuviel glauben an Nvidia Benchmarks.Die Tricksen und betrügen wo sie nur können.
Ein richtiger Test schafft hier Abhilfe.
 
@brometheus hat tiefe Einsichten gemacht. In den wenigen Spielen die überhaupt RT unterstützen ist die Performance auch auf NVIDIA absolut grottig und die Spiele sehen mit screenspace reflections immer noch gut aus. Der einzige Unterschied: Kein Echtzeit-Raytracing dynamischer Objekte. Ich würde immer die Framerate (nativ) irgendwelchen Spielereien bevorzugen. Die nötige Leistung steht einfach in keinem Zusammenhang zur Optik.
Rt reflections sind nett aber nicht alles. Rt gi ist viel besser
 
Einige würde ich meinen...war 2018 so und ist seitdem bestimmt nicht besser geworden
1665136218957.png
 
Ja also die Kritik an die neue Generation ist absolut nachvollziehbar, ich meine die technische Innovation an dem Produkt besteht einfach nur noch mehr Leistung mit gleichzeitig massiver Stromaufnahme zu erhöhen.
3080 10G vs 4080 16G: 320W vs 320W bei 50-60% mehr Rasterization Performance laut aktuellsten Leaks.
3090Ti vs 4090: 450W vs 450W bei mindestens 60% mehr Rasterization Performance laut aktuellsten Leaks.

Insofern hast du nicht recht mit deiner Aussage. Hätte die 4090 jetzt tatsächlich 600W gesaugt oder die 4080 450Watt, wär das was anderes gewesen. Ist aber nicht der Fall.
Der einzige Kritikpunkt bleibt berechtigterweise der Preis. Performance Gains haben wir in der Vergangenheit schon deutlich schlechteres gesehen, da kann man wirklich nicht meckern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh