Gaming-Blackwell Ende 2024: GeForce RTX 5090/80 sollen den Anfang machen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
Nach einer größeren Diskussion und vielen Mutmaßungen über die Breite des Speicherinterface der kommenden GeForce-RTX-Generation auf Basis von Blackwell gibt es nun eine vermeintliche Bestätigung zum Veröffentlichungszeitraum. Wie auch schon bei Ada Lovelace sollen die beiden schnellsten Karten in Form der GeForce RTX 5090 und GeForce RTX 5080 den Anfang machen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Preis beim Release der 5090 wird sicher bei +3000€ liegen meint meine Glaskugel
 
Aktuell besteht doch gar keine Notwendigkeit etwas für private Endanwender auf den Markt zu werfen. Wenn überhaupt nur die 5090, um diese dann für AI zu verwenden, aber das interessiert nicht die klassischen privaten Endanwender. Inzwischen spielen letztgenannte aber nun eine deutlich geringere Rolle.
 
Ich freue mich sehr auf die 5090 vielleicht kommt die ja in etwa Zeitglich mit AMDs neuen X3D CPUs also so im Februar März 2025.
 
Denke auch 1950€ bei der FE und die Custom 2200-2500€ zu Release.
Kann sein , dass die 5090 voll der scheiß wird , weil die halt noch auf 5nm setzt.
Naja immerhin hat die dann DP 2.1 und sicher fällt Nvidia irgendein exklusiver misst ein.
Rohleistung wird da nicht so ein Sprung sein, aber irgendwas kommt schon um einen Kaufgrund zu erzeugen.
 
mich interessiert high end nicht da erstens zu teuer und zweitens viel zu stromhungrig da n4x genutzt wird was 1-1 in mehr Stromverbrauch resultiert. Aus derzeit 450w tbp wird 520w bei 114sm bei 192 alu per sm.
grob 80tf vs 63tf die auch kaum ankommen aber in pt deutliche Steigerungen bringen raster quasi nix.
Dxr Steigerung vermutlich +80% raster +- 10% da cpu limitiert.
Dafür gibt es ja zen5 das nochmal die rtx4090 um 20% perf bringt und die rtx5090 vermutlich +10% mit glück.
Das wäre vs jetzt dann en Steigerung von 30% bei nen r7 7800x3d bedingt aber nen r7 9700x3d
Und das bei nenn preis ab 2000$ kein Mehrwert ohne neue cpu.
 
Naja so ne Karte nimmt man für UHD.
Bei mir macht der Monitor bei 144 FPS eh dicht.
So lange bis dahin die CPU die Leistung bringt ist ja alles ok .
Aktuell würde ich sagen hat man einen Mehrwert von einer schnelleren Karte als die 4090 ,
wenn Path Tracing im Spiel ist. Da knickt die 4090 doch zb. bei CP 2077 oder Alan Wake 2 ein.
Bei Alan Wake 2 habe ich dann DLSS auf Performance gestellt und dann hat es gut performt.
Wenn dann noch Stalker 2 und diverse andere Games kommen mit Path Tracing kann für den ein oder anderen
eine 5090 interessant werden. Für Leute die DLSS selbst in UHD nicht mögen und FG sowieso nicht wird vermutlich
selbst eine 5090 zu langsam sein.
 
Wenn der Leistungssprung nicht so enorm ist, werde ich nach einer 4090 Ausschau halten...
 
Da AMD ja wieder nichts in der Kategorie abliefern kann und das auch schon länger bekannt ist, wird der Sprung vermutlich nicht besonders groß werden und NV nutzt die Zeit die Karten maximal zu kastrieren, um nur nichts zu "verschenken". ;-)
 
Sofern Nvidia wieder den "ich fange Feuer"-Stecker verbaut wird die Serie sowieso wieder Uninteressant.
 
Wobei ich fürchte, dass die Leute sich wegen des Steckers keine Karte gekauft haben an einer Hand abgezählt werden können. ;)
 
Unrealistisch das der Stecker nicht weiter verwendet wird nachdem nun alle Netzteilhersteller entsprechende Netzteile auf den Markt gebracht haben.
 
der 16pin ist die zukunft weil er Bestandteil von ATX 3.X ist wir werden damit leben müssen wer darauf kein bock hat muss AMD kaufen weil nvidia Konsequent ab RTX 5000 auf allen karten den 16pin verbauen wird
 
Aktuell würde ich sagen hat man einen Mehrwert von einer schnelleren Karte als die 4090 ,
wenn Path Tracing im Spiel ist. Da knickt die 4090 doch zb. bei CP 2077 oder Alan Wake 2 ein.
Bei Alan Wake 2 habe ich dann DLSS auf Performance gestellt und dann hat es gut performt.
Wenn dann noch Stalker 2 und diverse andere Games kommen mit Path Tracing kann für den ein oder anderen
eine 5090 interessant werden. Für Leute die DLSS selbst in UHD nicht mögen und FG sowieso nicht wird vermutlich
selbst eine 5090 zu langsam sein.

Wenn die 4090 DLSS Performance braucht wird die 5090 auch nicht ohne DLSS auskommen, so groß wird der Sprung nicht werden
 
Sofern Nvidia wieder den "ich fange Feuer"-Stecker verbaut wird die Serie sowieso wieder Uninteressant.
Aber das ist doch die brennende Leidenschaft, mit der NVidia für Ihre Kundschaft da ist
(Dieser post ist nicht gesponsort von NVidia)
 
Was ich nicht verstehen kann Nvidia wollte doch auf das neue TSMC N3 warten warum jetzt übers knie brechen und eine modifizierte n4 variante nehmen man hat doch gesehen was die 4090 für ein biest war gegnüber der 3090

Im High End bereich hat doch Nvidia keine Gegner mehr AMD gibt auf sieht man ja an den neuesten Leaks das sie nur noch Midrange anbieten bzw maximal auf RTX XX80 gehen und der 90 nix entgegen zusetzen haben
 
Ich freue mich sehr auf die 5090 vielleicht kommt die ja in etwa Zeitglich mit AMDs neuen X3D CPUs also so im Februar März 2025.

Selbiges habe ich auch vor. Wobei mich der 9800x3d interessiert von den neuen CPUs. Bin noch bei 5800x3d

auch wenn im Gegensatz zu dir und vielen anderen hier nur (noch) in 1440p (27") unterwegs bin, jedoch 180hz und mir für nächstes Jahr angucke ob ich mir einen oled (oder alternative in 27 - 28" in 1440p240hz oder gar 4k240 angucken werde. Denn bei 4k240 besteht ja die Möglichkeit für competitive einfach dlss zu nutzen um auf 1440p240hz zu kommen und Story spiele dann nativ zu spielen und da wäre mir eine 5090 deutlicher lieber.

Mir reicht eine founders Edition, da die dann eh auf wakü umgebaut wird und in den loop zum 9800x3d und mora kommen wird
 
Was ich nicht verstehen kann Nvidia wollte doch auf das neue TSMC N3 warten warum jetzt übers knie brechen und eine modifizierte n4 variante nehmen man hat doch gesehen was die 4090 für ein biest war gegnüber der 3090

Im High End bereich hat doch Nvidia keine Gegner mehr AMD gibt auf sieht man ja an den neuesten Leaks das sie nur noch Midrange anbieten bzw maximal auf RTX XX80 gehen und der 90 nix entgegen zusetzen haben
Ja vielleicht ist das der Grund. Nvidiea muss keinen Hammer bringen und kann Ihre beste Fertigung der viel gewinnbringenden ai chips gönnen.
 
Was ich nicht verstehen kann Nvidia wollte doch auf das neue TSMC N3 warten warum jetzt übers knie brechen und eine modifizierte n4 variante nehmen man hat doch gesehen was die 4090 für ein biest war gegnüber der 3090

Im High End bereich hat doch Nvidia keine Gegner mehr AMD gibt auf sieht man ja an den neuesten Leaks das sie nur noch Midrange anbieten bzw maximal auf RTX XX80 gehen und der 90 nix entgegen zusetzen haben
Weil sie die karten JETZT brauchen ob das teil im server 600W oder 640W schluckt ist egal, die brauche die teile JETZT.
 
Denkt daran, Lederjacken sind teuer geworden :sneaky:
 
der 16pin ist die zukunft weil er Bestandteil von ATX 3.X ist wir werden damit leben müssen wer darauf kein bock hat muss AMD kaufen weil nvidia Konsequent ab RTX 5000 auf allen karten den 16pin verbauen wird

Ich gehe schon auch davon aus das allerspätestens mit der nächsten Generation auch AMD auf die Stecker umsteigt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh