Neue Details zur RTX-40-Serie: Mehr Takt und fast doppelte Leistung

Ja, ich denke aber ich werde die nächste erstmals skippen. Ich bin mir nicht sicher ob ein Wechsel mit einer 3080 in uwqhd notwendig ist. Dessen Leistung ist noch überragend gut, selbst mit rtx ultra. Einziger Grund für einen echten Wechsel wäre wohl 4k@120FPS High/Ultra, RTX ON ohne DLSS.
Mit den neuen UE5 Spielen werden wir wohl froh sein wen da 60FPS in 4K maxout rum kommen eventuell aber auch erst mit FSR oder DLSS!
In 4 K war die 3080 Ti bei manchen RT Titeln auf jeden Fall zu lahm für max Out !
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
uwqhd liegt zwischen 1440p und 4k. das saugt massig leistung. die 3080ti ist bei mir je nachdem deutlich zu langsam für 120fps. von RT ganz zu schweigen

bis auf doom, was auf nem toaster rennt, muss ich bei einige games die regler bedienen. teilweise aber auch weil 2-3 settings sinnlos performance fressen. > borderlands 3 + TTW

ich bin froh über jede performancesteigerung
 
Komisch über die z.T. massiven Nachteile von z.B. Windrädern/Windparks wird kaum gesprochen.
ueber die wird mehr gesprochen als alles andere im zusammenhang mit windenergie. meist wird dabei sogar noch auf laermbelastungswerte zurueckgegriffen, die 36dB zu hoch liegen.

Und nein ich habe keine Lust darüber zu diskutieren. Jeder hier hat ne Tastatur sowie einen Internetzugang und kann sich selbst informieren.
erst schwachsinn behaupten, dann praeventiv jede diskussion ablehnen. ein nachvollziehbares vorgehen, wenn man selbst weiss was fuer einen bullshit man so von sich gibt.
 
Und damit soll es auch in diesem Thread genug mit der Diskussion zur Energiewende sein ;)
 
uwqhd liegt zwischen 1440p und 4k. das saugt massig leistung. die 3080ti ist bei mir je nachdem deutlich zu langsam für 120fps. von RT ganz zu schweigen

bis auf doom, was auf nem toaster rennt, muss ich bei einige games die regler bedienen. teilweise aber auch weil 2-3 settings sinnlos performance fressen. > borderlands 3 + TTW

ich bin froh über jede performancesteigerung
3090TI ..
 
Die Kunden werdens wieder verbocken.

Hier wird zwar haufenweise gemeckert, das 450W viel zu viel wären.... aber wenn man die Performance angeblich verdoppelt hat, könnte man ja auch eine Graka anbieten die die gleiche Leistung wie eine 3080(ti) hat, aber ne TDP von 200 statt 350W. Kostet dann natürlich genausoviel wie eine 3080ti. Warum sollte sie auch weniger kosten? Ist genausoschnell, neue Generation und braucht sogar weniger Strom. Das will dann aber auch wieder keine haben, weil kann ja nicht sein, das bei der Next-Gen keine Mehrleistung raumkommt. Und dann noch nichtmal günstiger!!11elf :d

Über diverse Kommentare hin weg scheint mir man will: Doppelte Leistung, halber Stromverbrauch, halber Preis. DAS wird nicht passieren. ;)

Ich persönlich hab auch keine Lust mit Undervolting rumzufrickeln (sofern es überhaupt geht, wenn man nicht Windows benutzt). Wenn 80W weniger bei nur 10% Leistungsverlust geht, dann erwarte ich eigentlich, das das nächstkleinere Modell ungefähr diese Werte hat und würde dann halt das kaufen.
Schon klar, das die undervolteten Karten auf das jeweilige Siliziumstück eingepegelt sind und man nicht erwarten kann, das Karten von der Stange derart auf ihre jeweilige Chipgüte optimiert sind, aber so ungefähr sollte es doch hinkommen können.
 
Über diverse Kommentare hin weg scheint mir man will: Doppelte Leistung, halber Stromverbrauch, halber Preis. DAS wird nicht passieren. ;)

Das ist eine interessante Sichtweise.
Realistisch sollte es aber so aussehen: Doppelte Leistung. Etwa gleicher Stromverbrauch und etwa gleicher bis minimal höherer Preis (Inflation).
 
Realistisch sollte es aber so aussehen: Doppelte Leistung. Etwa gleicher Stromverbrauch und etwa gleicher bis minimal höherer Preis (Inflation).
Das ist nicht realistisch, das ist genau die Wunschvorstellung. Das WAR vielleicht mal realistisch, als man Strukturbreiten noch in Mikrometer gemessen hat. Das ist jetzt über 10 Jahre her und vorbei.

Wie man sieht ist wirklich realistisch mittlerweile eher:
Entweder gleicher Stromverbrauch und nur 10% mehr Leistung
Oder höherer Stromverbrauch mit entsprechend höherer Leistungssteigerung

Die Technologie ist nahezu am Ende. Kleinere Strukturen gehen kaum mehr, die Die-Fläche ist nahezu ausgeschöpft, in die Breite kann man also auch kaum mehr. Taktraten gehen entsprechend auch kaum mehr höher. In der Richtung ist nichtmehr allzuviel zu erwarten.
Was noch geht sind andere Architekturen und Architekturerweiterungen. Warum kommen wohl alle mit Raytracing und so Zeug an. ;)
 
Die Kunden werdens wieder verbocken.

Hier wird zwar haufenweise gemeckert, das 450W viel zu viel wären.... aber wenn man die Performance angeblich verdoppelt hat, könnte man ja auch eine Graka anbieten die die gleiche Leistung wie eine 3080(ti) hat, aber ne TDP von 200 statt 350W. Kostet dann natürlich genausoviel wie eine 3080ti. Warum sollte sie auch weniger kosten? Ist genausoschnell, neue Generation und braucht sogar weniger Strom. Das will dann aber auch wieder keine haben, weil kann ja nicht sein, das bei der Next-Gen keine Mehrleistung raumkommt. Und dann noch nichtmal günstiger!!11elf :d

Über diverse Kommentare hin weg scheint mir man will: Doppelte Leistung, halber Stromverbrauch, halber Preis. DAS wird nicht passieren. ;)

Ich persönlich hab auch keine Lust mit Undervolting rumzufrickeln (sofern es überhaupt geht, wenn man nicht Windows benutzt). Wenn 80W weniger bei nur 10% Leistungsverlust geht, dann erwarte ich eigentlich, das das nächstkleinere Modell ungefähr diese Werte hat und würde dann halt das kaufen.
Schon klar, das die undervolteten Karten auf das jeweilige Siliziumstück eingepegelt sind und man nicht erwarten kann, das Karten von der Stange derart auf ihre jeweilige Chipgüte optimiert sind, aber so ungefähr sollte es doch hinkommen können.

Der Punkt ist halt, dass man mit den gleichen Keywords wie früher die Leute immernoch ködern kann. "OC", "höherer Boost-Takt", "mehr Leistung" verkauft sich nunmal besser als wenn auf einmal Asus hingehen würde und sagt "Hey wir haben selektierte Chips für die Strix die <300W stabil machen bei einer 3080ti". "Schafft mehr" ist immer ein stärkeres Verkaufsargument als "kommt mit weniger zurecht".

Leider entspricht aber der Effizienzgedanke auch nicht der Mehrheitsmeinung in dem "Enthusiasten"-Segment wo wir über Karten >300W reden. Dass die Karte >2100Mhz macht mit extra Arschtritt wird oft mehr gefeiert als meinentwegen 1800 aber auf <825mV. Und genau in das Horn tuten die voraussichtlichen Daten der RTX40-Serie. Wenns heißt "bis zu 50%+ bei 450W" sagt dann die Käuferschicht "nice, 450W braucht meine FTW3/Strix/Aorus ja jetzt eh schon mit Custom Bios".
 
Naja, die Karten können ruhig noch auf sich warten lassen, meine 3090 Ti ist erst 3 Monate alt, aber wie ich das so sehe, scheint die 3090 Ti zwischen der 4080 und 4090 zu liegen, falls die "Rumor-Daten" stimmen.
 
Leider entspricht aber der Effizienzgedanke auch nicht der Mehrheitsmeinung in dem "Enthusiasten"-Segment wo wir über Karten >300W reden. Dass die Karte >2100Mhz macht mit extra Arschtritt wird oft mehr gefeiert als meinentwegen 1800 aber auf <825mV
Ja das stimmte ich nur zum Teil zu, ein echter Enthusiast weis das eine effiziente Karte auch im OC mehr rausdrücken kann. Im Umkehrschluss schaffen ja auch Karten die mit x.x V 2300mhz schaffen, das die auch mit noch viel weniger V noch die 2100mhz schaffen.
Das ist eher Marketing für die blinde Masse und dessen Käufer.
 
Leider entspricht aber der Effizienzgedanke auch nicht der Mehrheitsmeinung in dem "Enthusiasten"-Segment wo wir über Karten >300W reden.
Das Enthusiastensegment macht aber auch nicht den Umsatz. ;)
Vor einigen Jahren hab ich da mal ne Statistik gesehen, die hat gezeigt, das NVidia mehr als doppelt soviele 1060 wie 1080 und 1080ti ZUSAMMEN verkauft hat. ;)
 
Naja, die Karten können ruhig noch auf sich warten lassen, meine 3090 Ti ist erst 3 Monate alt, aber wie ich das so sehe, scheint die 3090 Ti zwischen der 4080 und 4090 zu liegen, falls die "Rumor-Daten" stimmen.
Im Bereich der 4070 vielleicht knapp drüber würde ich sagen liegt die 3090Ti da ist es nur noch der Speicher der Klar überlegen Dimensioniert ist!
Die 4080 wird da wohl locker vorbeiziehen!
 
Zuletzt bearbeitet:
Das Enthusiastensegment macht aber auch nicht den Umsatz. ;)
Vor einigen Jahren hab ich da mal ne Statistik gesehen, die hat gezeigt, das NVidia mehr als doppelt soviele 1060 wie 1080 und 1080ti ZUSAMMEN verkauft hat. ;)

Ergibt ja auch Sinn, ist in nahezu allen anderen Branchen genauso. Schätze VW verkauft auch mehr als fünfmal so viele Golf wie Artheons. Für ganz viele "Brot&Butter-Gamer" war im Zeitraum 2020-2021 oft sogar eine 3060ti, die hier als "Preis-Leistungs-Sieger" galt unerschwinglich oder schlicht für das angedachte Budget viel zu teuer.

Die Leistungszahlen bewegen sich aber schon in erschreckender Geschwindigkeit in die falsche Richtung. Wenn man überlegt dass vor Jahren AMD Hawaii noch ausgelacht wurden als Brathähnchen und sowas wie eine 2080ti nur über 300W geschluckt hat wenn man bestimmte Custom-Modelle freundlich drum gebeten hat...

Nvidia scheint halt die Schablone immer (wie man es vorher auch kannte) einen Schritt nach rechts zu schieben. Die xx70 leistet dann grob das von der 80ti der Vorgängergeneration bei weniger Leistungsaufnahme und etwas niedrigerem Preis. Auch jetzt schon kriegen Leute mit einer 3070 das bessere Gesamtpaket als eine 2080ti zu besserem Preis und weniger Watt.

Die Effizienz von 80-->80-->80 wird nicht in großen Schritten besser aber das war ja auch bei den Vorgängergenerationen meistens nicht so. Die GTX9-->GT10 war da im Blick auf die letzten Jahre eher die Ausnahme der Regel.
 
Naja, die Karten können ruhig noch auf sich warten lassen, meine 3090 Ti ist erst 3 Monate alt, aber wie ich das so sehe, scheint die 3090 Ti zwischen der 4080 und 4090 zu liegen, falls die "Rumor-Daten" stimmen.
Ehemaliges HighEnd wird wie die Gens davor irgendwo im Bereich 70er-80er der neuen Gen liegen. Die 4080 wird sehr wahrscheinlich mehr Leistung und wesentlich mehr RT Leistung wie eine 3090TI bringen. 3090Ti auf dem Niveau einer (potenziellen) 4080Ti ergibt keinen Sinn.
 
hier wird immer 450 Watt durch die Gegend geschmissen als ob das der normale Durchschnittsverbrauch wäre, 450W ist nur die Spitzenleistungsaufnahme und liegt (wenn überhaupt) nur Sekundenbruchteilweise an, es sei denn man ist hardcore overclocker mit chiller oder LN2.
 
meine 3080ti hat bei 99% inkl RT 411w out of the box. die liegen durchweg an wenn die karte gefordert wird
 
Ich hoffe bei der 4000er reihe eigentlich nur auf eine gute 4060 unter 450€, ansonsten werde ich mir ende des jahres wohl eine series s als gamepass maschine zulegen und meinen rechner verkaufen
 
hier wird immer 450 Watt durch die Gegend geschmissen als ob das der normale Durchschnittsverbrauch wäre, 450W ist nur die Spitzenleistungsaufnahme und liegt (wenn überhaupt) nur Sekundenbruchteilweise an, es sei denn man ist hardcore overclocker mit chiller oder LN2.
Wie kommst du darauf? Wenn 450W angegeben werden, dann wird das Powertarget sehr wahrscheinlich genau auf diesen Wert sitzen und das genehmigen sich die Karten dann auch unter Lastszenarien. Dafür braucht es keinerlei OC. Die Lastspitzen die die NTs abfedern müssen sind dann nochmal (wesentlich) Höher, wobei das wohl ja besser werden soll bzw. bereits ist bei der 3090Ti
 
misst Du mit Spannungsmessgerät oder schaust Du auf HWiNFO & Co?

Glücklicherweise gibts ja auch Leute die den Stromverbrauch mit anderen mitteln als Software auslesen und bei denen kommt auch raus, dass die Karten mit (Voll)Last im Mittel in etwa so viel Strom ziehen wie es das Powertarget angibt und die Spitzen noch deutlich höher liegen. Guck mal bei Igorslab oder Gamersnexus vorbei.

Zurück zum Topic: Nach meiner Meinung ist die einzige Möglichkeit in Zukunft die Effizienz deutlich zu steigern die Grafikkarten aus Chiplets zusammenzusetzen um für viel Chipfläche auf nen akzeptablen Yield zu kommen. GAA wird irgendwann auch vor der Tür stehen und vermutlich nen großen Schub Effizienz bringen, aber ob das dann tatsächlich genutzt wird um die Leistungsaufnahme wieder auf n normalen Maß zu senken, wage ich mal anzuzweifeln. Ich vermute mal, dass man da eher die Performance noch weiter pushen wird.
 
Die GTX9-->GT10 war da im Blick auf die letzten Jahre eher die Ausnahme der Regel.
Jup, das war der Ausnahmesprung. Der ist aber offensichtlich vielen Leuten jetzt als Standard im Kopf steckengeblieben.

Glücklicherweise gibts ja auch Leute die den Stromverbrauch mit anderen mitteln als Software auslesen und bei denen kommt auch raus, dass die Karten mit (Voll)Last im Mittel in etwa so viel Strom ziehen wie es das Powertarget angibt und die Spitzen noch deutlich höher liegen. Guck mal bei Igorslab oder Gamersnexus vorbei.
Die Spitzen würdest du auch mit einem Multimeter nicht sehen. Da muss man halt wirklich mit einem Osziloskop ran um die überhaupt sichtbar zu kriegen. Aber wie du ja schon festgestellt hast, im Mittel bleibts trotzdem im Rahmen. Mal kurz für 10 Nanosekunden 500W gezogen, wirkt sich halt praktisch auch so gut wie gar nicht auf den Gesamtstromverbrauch aus.
 
Naja, die Karten können ruhig noch auf sich warten lassen, meine 3090 Ti ist erst 3 Monate alt, aber wie ich das so sehe, scheint die 3090 Ti zwischen der 4080 und 4090 zu liegen, falls die "Rumor-Daten" stimmen.
Die 4080 wird die 3090Ti ganz locker schlagen. 30-40% Mehrleistung in Spielen würde ich mit rechnen und die 4090 bei 50-60%
 
Ehemaliges HighEnd wird wie die Gens davor irgendwo im Bereich 70er-80er der neuen Gen liegen. Die 4080 wird sehr wahrscheinlich mehr Leistung und wesentlich mehr RT Leistung wie eine 3090TI bringen. 3090Ti auf dem Niveau einer (potenziellen) 4080Ti ergibt keinen Sinn.
Denke allerdings auch das mehr DLSS und RTX ausgebaut wurde.
Ich gehe auch davon aus das die neue Generation allerdings nicht mehr so stark wird wie die letzte.
Das wird diesmal wieder ähnlich wie von 1000er auf 2000er. Die Features werden hier noch mal aufgebügelt.
Die Legendäre 1080TI ist aktuell auch nicht langsamer als eine 3060 :unsure:

Nachtrag: Gerüchten zu folge, wird "Lovelace" RTX 4000 wohl nicht mehr im Herbst kommen.
Nvidia hat wegen dem Zusammenfall des Miningbooms Überkapazitäten.
Die Preise der aktuellen Generation werden noch fallen.
 
Zuletzt bearbeitet:
Immer abwarten. Alles andere ist nur Spekulation. Wenn die die Karten fertig haben, gehen die auch raus
 
Hier der erste Test zur 4090 und 4090 Ti:

 
Zuletzt bearbeitet:
Bevor man hier mit 40-50% mehr Leistung zum vergleichbaren Vorgänger vermutet, würde ich noch abwarten, ich bin mir fast sicher das wir dieses Jahr keine 4000er mehr sehen, zumindest nicht verfügbar...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh