GeForce RTX 4080 & 4090: NVIDIA reduziert die Preise

@hwk hab mir schon gedacht entweder Bots oder schlechte looby. Ich halte von RT nichts, kostet zu viel Leistung und lohnt sich nicht. Callisto Protocol sieht auch ohne RT sehr gut aus, wie jedes andere Spiel auch. RT ist auch wieder so eine Sache von Nvidia, um Cash zu machen. RT ist schön, aber nicht so schön, dass ich 50 % an Leistung verliere. Mit meiner jetzigen Karte kann ich jedes Spiel flüssig in 4K mit über 60 Fps spielen. Das werde ich dann in 2 Jahren mit der 4090 Ti auch tun können.

Mir hat es Zelda BotW angetan. Das läuft in 900p bzw 720p und 30 Fps. Trotzdem ein Meisterwerk und es macht sehr viel Spaß es zu spielen.

Ich denke, Nvidia hat jetzt gelernt, die Enthusiasten zahlen jeden Preis, aber der 80er und darunter Käufer lässt nicht alles mit sich machen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau, ist immer das gleiche. Leider war/ist sogar die geniale 3090 in 4K eher lau.
Beitrag automatisch zusammengeführt:

Die 4090 ist schon ne geile Karte und gab glaube nie so ein krassen Leistungssprung in keiner Generation.
Meist über 80% Mehrleistung gegenüber meiner alten 3090 ist schon ne Ansage in 4K .
Mag vielleicht ganz wenige Games geben die auch so eine Karte in die Knie zwingen , dann muss man halt die Regler bedienen.
Zum laufen bekommt man das definitv , weil immerhin muss sowas auch mit älteren Karten laufen und DLSS ist schon ganz ok in 4K .
DLSS 3.0 wird auch noch einiges bringen um flüssig zocken zu können . Karten zu teuer definitv , aber immerhin hat man noch was für die alte Gen.
bekommen. So ist es ja nicht .Ob ich dann zur 5090 noch greifen werde steht noch in den Sternen , aber glaube so ein krassen Sprung wird es da nicht geben
denke ich mal . Chiplet Design und wahrscheinlich auch TSMC 4nm . Mal sehen was mal rum kommt . Hier hat man echt noch alles rausgeholt und beste draus gemacht .
Gott sein dank kein 8nm Samsung mehr geworden . Sonst wäre die Karte nicht im Ansatz so gut wie sie nun geworden ist .
Seit langem mal wieder ein vernünftiger Beitrag hier zu diesem Thema. Neider und Ökosozialisten drehen ja regelmäßig durch. Die 3090 war/ist in 4K enttäuschend. Der Samsung-Prozess langst nicht so toll wie beworben. Wiederverkaufswert ist okay, auch für meine 2070S und Strom nimmt die länger nicht so viel im Normalbetrieb. DLSS hilft auch noch zu senken.
 
Zuletzt bearbeitet:
Die theoretische 5090 kommt dann wann? 2025? Kostet die dann beim Release 2500€ oder gar mehr? Bekomme ich da ein kleines Kraftwerk mit dazu für den hohen Stromverbrauch?
Die 4090 ist ja bereits ein gutes Stück größer als die 3090 was ich so in Videos gesehen habe. Meint ihr, die 5090 wird dann noch größer sein? Die Grafikkarte wird noch zur Mordwaffe...
 
Naja wer soll das jetzt wissen? Nach Lederjackes Ankündigungen zum tragischen Tod von Moores Gesetz hatte ich das schlimmste befürchtet. Und dann hauen die dieses geniale Stück Hardware raus. Also 2.500 bis 3.000 Tacken vielleicht, aber nochmal so ein Leistungssprung mit gleichzeitiger Effizienzsteigerung und die Leute werden wieder kaufen.
 
Mich würde mal interessieren, wieviel von dem Leistungssprung dem 4nm Shrink zu verdanken ist?
Denn diese sind definitiv endlich.
 
Also eine Karte zu haben die mit jeder Auflösung bis 4k 120 fps liefert und sehr effizient ist wie die 4090 ist schon geil / ram wird bei einer cpu mit 3d cache unwichtig und die cpu ist bei 4k sowieso fast egal :) also ist das Geld am besten in eine 4k gpu investiert
Ja klar, die Leute die 4k spielen, können sich aber auch mMn eine 3090, 4080 oder 4090 leisten. Unterm Strich ist Gaming ja auch dann noch kein megateures Hobby.
 
Ja klar, die Leute die 4k spielen, können sich aber auch mMn eine 3090, 4080 oder 4090 leisten. Unterm Strich ist Gaming ja auch dann noch kein megateures Hobby.
Na viel Spaß bei der Stromrechnung, wenn die 4090 mehrere Stunden lang unter Last läuft! Möchte gar nicht wissen wie viel so ne Karte zieht!
 
Die ist wesentlich effizienter als es ampere ist.
 
Na viel Spaß bei der Stromrechnung, wenn die 4090 mehrere Stunden lang unter Last läuft! Möchte gar nicht wissen wie viel so ne Karte zieht!
schau dir doch einfach einen der unzähligen tests zu der karte an, dann siehst du, dass sie abolut nicht mehr verbraucht als ihr vorgänger.
wenn man dann noch auf die letzten prozent leistung verzichtet, ist sie sogar sparsamer.
 
Na viel Spaß bei der Stromrechnung, wenn die 4090 mehrere Stunden lang unter Last läuft! Möchte gar nicht wissen wie viel so ne Karte zieht!

Is doch egal. Hobbys kosten Geld. Ist wie mit dem Spritverbrauch bei Autos. :)
 
Na viel Spaß bei der Stromrechnung, wenn die 4090 mehrere Stunden lang unter Last läuft! Möchte gar nicht wissen wie viel so ne Karte zieht!
AFAIK brauch' die 4090 im idle und Desktop-Betrieb weniger als Ampere und soviel Stunden unter Last ist die nicht wegen Arbeit und so. Würde mal die steile These aufstellen, dass die meisten Leute die eine 4090 kaufen Vollzeit arbeiten.

Ausserdem mach' ich meinen Strom selber!
Aber wenn's dich interessiert schau' ich mal nach, habe eh einen Zähler am Rechner.

Grüße
 
Na viel Spaß bei der Stromrechnung, wenn die 4090 mehrere Stunden lang unter Last läuft! Möchte gar nicht wissen wie viel so ne Karte zieht!
Wie schon unendlich oft gesagt, macht sich das in der Stromrechnung nicht so stark bemerkbar, wie hier einige meinen. Schließlich ist es ja nur die Differenz, also man muss die gleiche Load Zeit vergleichen. Und mit welcher Karte Du auch immer zockst, die 4090 nimmt sich in den meisten Spielen irgendwas zwischen 300 und 350W wenn man sie nicht undervolten möchte. Das hatte ich auch mit meiner TUF 3080, mit der 3090 war ich etwas drüber. Der feine Unterschied ist, die 4090 liefert mir bei 4K Leistung satt, wo die 3080 völlig überfordert und die 90 hart an der Kotzgrenze war.

Und da hier schon ebenfalls unendlich oft festgestellt wurde, dass keiner eine 4090 kauft, um auch 1080p zu zocken, erübrigt sich diese Diskussion völlig.
 
Grundsätzlich gehe ich mit jedem mit, der sagt die Karte ist sauteuer und Nvidia hat nen Schaden mit ihrer Preispolitik, aber niemand zwingt einem dazu zu kaufen, weiterhin kann man aber seine alte Hardware auch weiter verkaufen.
Mir ist dabei völlig klar, dass ich damit Verlust mache und Geld verbrenne.

Hier mal mein Beispiel:

2020 neue Zotac RTX 3090 für 1600 + WC Block für 200 gekauft = 1800 abzüglich meiner bekommenen 850 für die alte 2080Ti inkl. WC Block bleibt eine Investition von 950 übrig.

2022 neue Gigabyte Gaming OC 4090 für 2179 + EK Block für 251 gekauft = 2430 abzüglich meiner bekommenen 900 für die alte Zotac 3090 inkl. WC Block bleibt eine Investition von 1530 übrig.

1. Ist das Produkt 4090 gut? Glasklares Ja
2. Ist die Karte grundsätzlich zu teuer? JAAAAAA
3. Brauch ich Sie? Muss jeder für sich selbst entscheiden.
4. Kann und will ich mir die Karte leisten? Siehe Frage 3.

Man kann sich alles gut oder schlecht reden, die Preise sind nun mal Fakt, entweder man geht den Weg mit oder eben nicht.
 
Zuletzt bearbeitet:
Die Frage ist ja auch nicht, wieviel die Karte an Strom zieht und wieviel sie durch Fertigungsmaßnahmen und wie viel durch Treiber, Chipdesign und co gewonnen hat.

Ganz am Ende muss doch jeder für sich entscheiden.

ist es mir die Differenz xy € wert, wenn ich xy FPS Differenz in Spielen bei gleichem Stromverbrauch erhalte.

Je nach Auflösung, je nach Spielgewohnheit, Game oder anderer Anwendung macht das viel Sinn oder relativ wenig Sinn.

Die Karten können auf ähnlichen Stromverbrauch getrimmt werden und je nach Anwendung, Game, Einsatz etc. macht eine Neuanschaffung sogar aufgrund der Effizienz Sinn, wenn auch die entsprechende Leistung benötigt wird.

Ich persönlich war nie ein Freund der höchsten Ausbaustufe von GPU Generationen, weil ich da schnell preislich im Enthusiastbereich mit ordentlich Preisaufschlägen unterwegs war.
Aktuelle Situation und Leistungsangebote mit der 4080 und 4090 sorgen aber aktuell dafür, dass eine gezämte 4090 durchaus sehr effizient und preislich sinnvoll werden kann, weil mit der Leistung auch ggf die Nutzungsdauer der Karte steigt. Dann wäre ein 4090 sinnvoller als eine 4080 über die Zeit.

Leider sieht man das eigentlich erst später und somit bleibt es ein Ratespiel für die Zukunft.
Wie bei der AMD GCN1, der sich danach unter verschiedenen Namen (HD7870, HD8870, R7 270, R7 370) extrem lange gehalten hat und viele Spieler als HD78x0 sehr lange begleitet hat.
 
Bei der nächsten Gen werden aber die Gehäuse Hersteller total umdenken müssen, jetzt schon sind viele am schieben/feilen das der Trümmer reinpasst
 
Bei der nächsten Gen werden aber die Gehäuse Hersteller total umdenken müssen, jetzt schon sind viele am schieben/feilen das der Trümmer reinpasst
Wird aber auch Zeit. Wenn es nach mir geht bekommt die Graka ihr eigenes "Fach" im Gehäuse, das entsprechend auch extra gekühlt wird. Also wie in etwa bei den Netzteilen unten. Also eine Röhre, vorne Intake rein, hinten outtake raus. Und der Kühler der Karte ist entsprechend angepasst.
 
Ich hätte wieder gerne sowas wie Pascal.
Meiner Meinung nach sind auch die RTX und und DLSS Teile auf den Chips nur verschwendeter Strom der nur da ist um mehr Bedarf an GPU Power zu schaffen. DLSS braucht man eigtl fast nur mit RTX und RTX sieht bei weitem nicht so gut aus wies Leistung frisst..
 
Was willst du mit Pascal?
Lovelalace ist ein sehr guter Wurf von Nvidia, Leistung und Effizienz auf bisher nie da gewesenem Niveau.
Bis auf den Preis gibt es an und für sich wirklich nichts aus zu setzen.
 
Zuletzt bearbeitet:
war ja auch ein heftiger umstieg von samsung auf TSMC. der takt wird der hautpgrund für die gemeine mehrleistung ggü. ampere sein und solche steigerungen werden wir wohl auch so schnell nicht wieder bekommen.


(..)

mfg
tobi
 
Was willst du mit Pascal?
Lovelalace ist ein sehr guter Wurf von Nvidia, Leistung und Effizienz auf bisher nie da gewesenem Niveau.
Bis auf den Preis gibt es an und für sich wirklich nichts aus zu setzten.

Hab ich soweit dargelegt. Ich entschuldige mich vielmals wenn dir meine Meinung nich zusagt ;)
 
Ist halt komisch wenn gerade jemand wie du (der einen 6,2L V8 in der heutigen Zeit fährt) sich über den Stromverbrauch eines Luxusartikels, der nur für Hardcore-Enthusiasten gedacht ist, aufregt. :fresse:
 
die meisten hatten ihre verbrennermotoren schon vor dem haus stehen, als diese graka nichtmal erfunden war. insofern ist das später in den markt gerotzte produkt etwas am zeitgeist nach der zeitenwende vorbei.


(..)

mfg
tobi
 
Solange sämtliche 4K Gaming Monitore in der Energie-Effizienzklasse G herum dümpeln, kann mir auch die 4090 gestohlen bleiben!
Nicht nur, dass die Karte sehr viel Strom frisst, nein ein 4K Monitor hat die schlechteste Effizienzklasse die man sich vorstellen kann!
Alles wird teurer, besonders der Strom wird immer teurer. 4K Gaming lohnt sich einfach nicht, es ist zu teuer nur für ein schärferes Bild.
 
Solange sämtliche 4K Gaming Monitore in der Energie-Effizienzklasse G herum dümpeln, kann mir auch die 4090 gestohlen bleiben!
Nicht nur, dass die Karte sehr viel Strom frisst, nein ein 4K Monitor hat die schlechteste Effizienzklasse die man sich vorstellen kann!
Alles wird teurer, besonders der Strom wird immer teurer. 4K Gaming lohnt sich einfach nicht, es ist zu teuer nur für ein schärferes Bild.
Das hat doch Nichts mit der Auflösung/Pixelanzahl zu tun sondern mit der Leuchtkraft des Panels also auch FHD und WQHD Monitore haben bei gleicher Helligkeit
eine schlechte Energieeffizienz weil die zu 90% LCD sind und dort nicht jeder Pixel von selbst leuchtet sondern eine LED Hintergrundbeleuchtung zum Einsatz kommt.
Klar wird ein 4K HDR1000 Monitor mit Direct LED und Local Dimming (FALD) noch etwas mehr Strom verbrauchen aber ob nun EEK E, F oder G spielt kaum eine Rolle.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh