Neue Details zur RTX-40-Serie: Mehr Takt und fast doppelte Leistung

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Lassen wir uns alle Überraschen, aktuell schätze ich das eher so ein

Release diesen Jahres mit Hohen Preisen = 50% Chance
Kein Release diesen Jahres (Maximal eine 4060) = 80% Chance
Release diesen Jahres mit moderaten Preisen = 10% Chance

Es spielen aktuell einfach zu viele Faktoren mit um was vernünftiges dazu sagen zu können, schwacher Euro, starker Dollar, steigende Inflation und Wirtschaftskrisen usw..

Ist eigentlich das schlechteste Jahr um irgendwas neues zu releasen...

Und eine 4090 für 3000€ würde auch noch ihre Käufer finden, ganz sicher.
 
Ich denke, dass die 4090 für 2500 Euro schnell ausverkauft sein wird. Schauen wir mal :)

Darum ging es mir nicht.
Deine Argumentation war eben nur völlig daneben meiner Meinung nach.

Dass es genug gibt denen der Preis egal ist, wissen wir beide.
 
Dass es genug gibt denen der Preis egal ist, wissen wir beide.
Das bezweifle ich aber mal ganz Stark !
Hier Tummeln sich zwar vielleicht ein Paar Dutzend Leute rum im Forum bei denen es so ist aber von Genug zu sprechen find ich übertrieben!
Zum größten Teil findet man die Truppe dann auch bei CB PCGH oder im 3DCenter wieder!
 
:popcorn: Spannend diese Preis-Spekulation. Werfe mal einfach meine Meinung mit dazu:
Gehe stark davon aus, dass die 4080 >/=1000€ UVP kosten wird, die 699€ der 3080 waren von Anfang an unrealistisch.
Darunter zieht dann -logischerweise- auch etwas an
Aber 4090 >2000€... Markt je nach Verfügbarkeit, UVP glaube ich weniger. Muss ja noch Luft für eine 4090ti bleiben :d

Allgemein wird es stark davon abhängen, was von AMD zu erwarten ist. Entweder muss Nvidia dann am Ende die Preise noch kurzfristig nach unten korrigieren, oder kann melken.
Wenn sie wirklich noch im Herbst launchen und AMD erst 2023, dann eher letzteres und erst im Nachgang wieder runter.
 
ich tippe darauf dass sich bis auf kleine verschiebungen die preis nicht großartig verändern. wer soll das zeug sonst kaufen
 
Das bezweifle ich aber mal ganz Stark !
Hier Tummeln sich zwar vielleicht ein Paar Dutzend Leute rum im Forum bei denen es so ist aber von Genug zu sprechen find ich übertrieben!
Zum größten Teil findet man die Truppe dann auch bei CB PCGH oder im 3DCenter wieder!

Du darfst natürlich anzweifeln was du willst, aber glaubst du Nvidia bringt was in den Verkauf woran sie nichts verdienen?
Daher sind die Verkäufer offensichtlich genug, um auch bei der kommenden Generation diese Modellkategorie abzudecken
 
Das Importieren wird ja immer teurer, darf man mal nicht vergessen.
 
Du darfst natürlich anzweifeln was du willst, aber glaubst du Nvidia bringt was in den Verkauf woran sie nichts verdienen?
Daher sind die Verkäufer offensichtlich genug, um auch bei der kommenden Generation diese Modellkategorie abzudecken
Bestimmt glaub ich nicht daran das die da nix daran verdienen !
Hier sieht man schön das das nicht immer aufgeht was sich NV vorstellt und auch das es nicht genügend Leute gibt die alles zahlen!

Über 2000 gibt es nur ne kleine Käuferschicht an Gamern und die wird garantiert durch die Inflation gerade hier bei uns nicht noch größer werden!
 
Ich finde die Hersteller sollten gerade in dieser Zeit wo die Energiepreise durch die Decke gehen, langsam mal umdenken.
Eine Graka mit der Leistung einer 3080ti aber mit 100 Watt TDP wäre mir lieber wie eine 4080 oder 4090 mit 450 Watt TDP. Es gibt ja
nicht einmal Spiele die eine 3080ti oder 3090 selbst in 4k richtig auslasten.
Bei den CPU´s bin ich übrigens der selben Meinung.
Kann doch nicht angehen das ein PC beim zocken 600-700 Watt verbraucht.
 
Leider haben wir uns aber vom TDP die letzten Jahre immer höher gearbeitet, auch bei den CPUs.

Und die Grafikkarten werden immer größer, ich kann mich noch an die 3dfx Voodoo 5 6000 erinnern (die kurz vor der Übernahme von NVidia aber nie auf den Markt kam), da hieß es damals, eine Grafikkarte wird nie mehr so groß werden, und jetzt? Schaut euch mal die 3090 und 3090 Ti an, da muss man schon aufpassen das der PCI-E Sockel nicht abbricht...

Anscheinend haben viele Hersteller komplett vergessen auf die Effizienz ihrer Prozessoren zu schauen, da geht es nur noch um Leistung, Intel hat zwar mit den E-Cores auch gut optimiert, trotzdem braucht so eine i9 12900k unter Last bis zu 250W...

Habe mal mein System gemessen, während dem zocken aufwendiger Spiele habe ich locker 600W, der Vorteil ist, im Winter muss ich mein Büro nicht heizen....
 
Ich finde die Hersteller sollten gerade in dieser Zeit wo die Energiepreise durch die Decke gehen, langsam mal umdenken.
Naja wenn man das auf den Globalen Markt umlegt dann haben wir in Deutschland einfach Pech gehabt.

Nur weil wir sehr hohe Stromkosten im Vergleich zum Rest der EU/USA haben wird keiner deswegen den Verbrauch von GPUs wegen uns deckeln und in China ist der Strompreis eh staatlich reguliert
 
Ich finde die Hersteller sollten gerade in dieser Zeit wo die Energiepreise durch die Decke gehen, langsam mal umdenken.
Eine Graka mit der Leistung einer 3080ti aber mit 100 Watt TDP wäre mir lieber wie eine 4080 oder 4090 mit 450 Watt TDP. Es gibt ja
nicht einmal Spiele die eine 3080ti oder 3090 selbst in 4k richtig auslasten.
Bei den CPU´s bin ich übrigens der selben Meinung.
Kann doch nicht angehen das ein PC beim zocken 600-700 Watt verbraucht.
1. Vielleicht sollten einfach mal die Käufer umdenken?
2. Klar gibt es solche Spiele
3. 12700K + 3080ti undervolted bin ich bei deutlich unter 350W
 
Es gibt ja nicht einmal Spiele die eine 3080ti oder 3090 selbst in 4k richtig auslasten.
Doch, davon gibt es eine ganze Menge. Außer man ist mit unter 60 FPS zufrieden, was wohl die wenigsten PC Gamer sein dürften. Der Trend geht ja auch eher zu 4K 120 Fps und da ist auf jeden Fall noch eine gaaanze Menge Luft nach oben. Ich denke selbst eine 4090 wird da nicht ausreichen in einigen Spielen.
 
Es gibt ja nicht einmal Spiele die eine 3080ti oder 3090 selbst in 4k richtig auslasten.
Also Spiele die mit 4K sogar eine 3090 Ti OC an ihre Grenzen bringen, gibt es schon ein paar, auch sehr populäre, MS Flight Simulator 2020, RDR2 oder auch die UE5.
 
@Riplex
Ich hab meine 3080Ti mit unter Verkauft weil sie zu langsam ist in 4K wen man Raytracing nutzt !
Und natürlich weil ich knapp 1200€ bekommen habe!
Oft kann man 60 FPS nur mit DLSS realisieren wen RT im Spiel eingeschaltet ist sowie Max Settings drin sind!
Klar gibt es auch Games wo die richtig gut läuft das sind dann aber meist nicht anspruchsvolle Titel !
 
Man kann nicht sich über den hohen Verbrauch beschweren und gleichzeitig 4K@120Hz fordern ohne auf irgendwelche Settings verzichten zu wollen.

Eigentlich wogt die ganze Diskussion immer nur zwischen diesen beiden Ansichten hin und her. Und da jeder ne andere Meinung dazu hat, kommt dann immer wieder eine Erwiderung aus Richtung der anderen Ansicht.
 
Diese "gleiche Leistung bei 100W"-Vergleiche sind natürlich absichtlich absurd, aber wenn man mal ehrlich ist:

Wenn man die neuen Karten taktmäßig eingrenzt sollten sie bei der Leistung, wo Ampere-Chips aktuell noch "gut" arbeiten (also 3080ti/3090 so 250-300W) immernoch einen erheblichen Mehrwert bieten können, unabhängig von den aktuell gemutmaßten TDPs. Das konnten die RTX30-Karten ja im Vergleich zu den 250W RTX20xx auch.

Nicht jeder hat ne WK mit ordentlicher Kapazität, also was hat man gekonnt wenn man ein leises, abgestimmtes Hi-End-System - beispielsweise mit den hier erwähnten 12700k/3080ti - hat und sich dann eine RTX40xx reinschraubt die das ganze System lauter und deutlich wärmer werden lässt? Ich persönlich wüsste nicht ob ich den hypothetischen Deal eingehen würde, wenn man mir sagt "Ok deine Karte braucht jetzt 150W mehr aber dafür kriegste +50% Leistung". Ganz toll dann nur noch Oktober-Mai oder in Badehose zocken zu können.

Die 4k120 sind natürlich Prognosen, aber was ein aktueller Nutzer von starken Ampere-Karten meines Erachtens doch zukünftig haben will sind Karten, die wenigstens 4k60 nicht nur "grade so" schaffen oder je nach Game sogar noch unterbieten, sondern mit gleicher Leistung locker liefern und Reserven nach oben haben.
 
Ich denke mal die neuen Karten werden schon ein deutliches Plus mit RT machen. Viele sind von der Technik angefixt und wollen mehr fps mit RT.

Aber ich gebe Dir absolut Recht: jemand mit einer 3080ti muss nicht aufrüsten. Auch nicht in 4K. Wir gewöhnen uns gerade an ein Leistungslevel das quasi, aus meiner Sicht, künstlich nach oben geschraubt wird. Stichwort RayTracing, 4K und 144fps.

Schaltet man RT aus und begnügt sich mit 60fps kann man mit der aktuellen Generation noch lange Spaß haben. Selbst in 4K.
Ich werde, wie gesagt, die neuen AMDs abwarten, dann abwägen und dann entscheiden. Ob überhaupt, und wenn ja, was.
 
@Clipfishcarsten
Die Leistung können wir ja aktuell noch nicht beurteilen !
Wen die hohen Taktraten stimmen können es auch 75%+ sein und nicht nur 50% .
 
RT... angefixt... :wall:
 
Die 6900 XT macht die 120 Hz schon ganz gut. Trotzdem ist mehr immer gut. Dass man von einer neuen Generation mehr Effizienz, Leistung und geringere Preise erwartet ist selbstverständlich, das nennt man Fortschritt. Vielleicht reicht aber dieses Jahr auch das Dual-MCM-Modell mit 12000 Shadern. Gegen NVIDIA hätte ich prinzipiell nichts, aber wenn die Gerüchte zur 4090 stimmen kann es durchaus sein dass die 2 K UVP kostet. Außer man kann es sich erscalpen. Wobei es selbst dann sinnvollere Dinge gibt. Dass die 3080 Ti nun schon 1199 UVP (normal waren für Tis 699) gekostet hat zeigt ja wo es hingeht. Die Leute zahlen das. Selbst wenn dann am VRAM geknausert wird.
Ich denke mal die neuen Karten werden schon ein deutliches Plus mit RT machen. Viele sind von der Technik angefixt und wollen mehr fps mit RT.

Aber ich gebe Dir absolut Recht: jemand mit einer 3080ti muss nicht aufrüsten. Auch nicht in 4K. Wir gewöhnen uns gerade an ein Leistungslevel das quasi, aus meiner Sicht, künstlich nach oben geschraubt wird. Stichwort RayTracing, 4K und 144fps.

Schaltet man RT aus und begnügt sich mit 60fps kann man mit der aktuellen Generation noch lange Spaß haben. Selbst in 4K.
Ich werde, wie gesagt, die neuen AMDs abwarten, dann abwägen und dann entscheiden. Ob überhaupt, und wenn ja, was.
RT ist sowieso nichtig, zumindest für mich als 4K-Spieler. Das wird sich auch in der kommenden Generation nicht ändern. Butterweiche 90+ (120) FPS in anfordernden Titeln hingegen nehme ich gerne. Das geht teils auf den aktuellen Karten schon gut, jedoch muss man dann auch bedenken dass die Titel dann auch älter sind, zB BFV.

Die Frage ist letztlich wieviel die 4080 drauflegt und ob der Unterschied zur 90 wieder so marginal ist. Wenn ich eine 4080 für unter 1 K kriege würde ich es glatt wieder damit versuchen. Oder sie weiterverkaufen / tauschen. Die AMD-Karten sollen sowieso erst später kommen. Bei Ampere haben eigentlich nur die 10 GB klar gegen die 3080 gesprochen. Das reicht mir schon jetzt nicht mehr wirklich, da ich auch gerne Spiele modde. Auch 16 GB kriegt man voll wenn man nur will, aber da hat man wenigstens noch etwas Luft. Wenn der Preis wenigstens zu den 16 GB passt könnte man es verschmerzen, sprich unter 1 K. Ein Ti-Modell kann man sich dann direkt sparen, es lohnt sich ja schon bei Ampere kaum noch. Wobei man Ampere auch lassen muss dass die 3080 auf dem Bigchip basiert und ein entsprechend fettes Interface hat, deshalb ist wohl der Unterschied zur Ti / 90 auch nur so marginal.

Verbrauch ist an sich ega, denn undervolten kann man immer. Ich sehe das auch immer in Relation zur Leistung und Framelimiter sollte man sowieso benutzen. Dann zieht eine 350 W Karte nämlich ganz schnell nur noch 200 - 250. Am Ende ist sie genauso effizient wie eine schwächere, nur dass ihr Leistungsmaximum über der schwächeren Karte liegt, die stets am Limit laufen müsste für dieselbe Leistung. Am Besten wäre es das Seasonic Prime 650 W weiterverwenden zu können. Das war teuer genug, ich denke aber dass es selbst mit 650 immer noch besser als irgendein 850 W Bronzeschrott ist. Diese hohen Netzteilanforderungen geben die Hersteller vor allem deshalb immer an.
 
Die 6900 XT macht die 120 Hz schon ganz gut. Trotzdem ist mehr immer gut. Dass man von einer neuen Generation mehr Effizienz, Leistung und geringere Preise erwartet ist selbstverständlich, das nennt man Fortschritt. Vielleicht reicht aber dieses Jahr auch das Dual-MCM-Modell mit 12000 Shadern. Gegen NVIDIA hätte ich prinzipiell nichts, aber wenn die Gerüchte zur 4090 stimmen kann es durchaus sein dass die 2 K UVP kostet. Außer man kann es sich erscalpen. Wobei es selbst dann sinnvollere Dinge gibt. Dass die 3080 Ti nun schon 1199 UVP (normal waren für Tis 699) gekostet hat zeigt ja wo es hingeht. Die Leute zahlen das. Selbst wenn dann am VRAM geknausert wird.
Die UVP von 699€ war doch für die normalen 3080 mit 10GB, oder nicht?
 
Die UVP von 699€ war doch für die normalen 3080 mit 10GB, oder nicht?
Ja. Die 3080 TI kam erst später und hatte erst 999, dann wurde sie aber erhöht, was mich echt entsetzt hat.
Ich glaube er spricht von Pascal oder früher...kann mich aber auch irren.
Exakt, seit Turing haben die die UVPs der Ti so drastisch erhöht. Da die Leute trotzdem gekauft haben wird das wohl nun so bleiben.
 
Ich glaube das 1,2kW Netzteile aufwärts bald Standard sind, außer die EU schiebt einen Riegel davor, dass die Hersteller nur noch Chips bis zu einem bestimmten TDP bauen dürfen, ähnlich wie man es bei Staubsaugern und diversen anderen Elektrogeräten schon gemacht hat.

Mein Rechner kommt unter 30-40% CPU Load und 100% GPU aktuell auf bis zu 680W AC Leistung.
 
Ich glaube das 1,2kW Netzteile aufwärts bald Standard sind, außer die EU schiebt einen Riegel davor, dass die Hersteller nur noch Chips bis zu einem bestimmten TDP bauen dürfen, ähnlich wie man es bei Staubsaugern und diversen anderen Elektrogeräten schon gemacht hat.

Mein Rechner kommt unter 30-40% CPU Load und 100% GPU aktuell auf bis zu 680W AC Leistung.
Ja die Netzteile werden wohl immer fetter werden. Ich rechne mit einem erneuten TDP anstieg für RTX 5000 dann sind wir wahrscheinlich im Bereich 500W für ne 5080 und 550+ für alles darüber. Schon krass eigentlich. Gedeckelt wird da aber denke ich nix von Seiten der EU. Die Hersteller können ja immer sagen, dass die tatsächliche Leistung und Effizienz erhöht wurde, was ja im Grunde auch stimmt und der Markt fragt ja auch nach maximaler Leistung. Bei den Staubsaugern war das eine andere Ausgangslage.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh