NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

und so wie es aussieht ist der Anschluss auch nur noch seitlich möglich, beim 30er Vector war das ja auch ende des Wakü Blockes möglich
Jap, es gab austauschbare Anschlussterminals und der war auch dem FE Design angelehnt.

Das neue ist einfach nen überteuerter 0815 Wasserblock, hoffe da kommt evt. noch was ordentliches was den Cutout ausnutzt.

Bezüglich Abmessungen, der alte war 120mm hoch, der neue fast 150mm ...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mein Hirn rät mir ADA(DP 1.4a, PCIe 4.0) links liegen zu lassen, auch erste GEN AM5 und Ryzen 4.
Thor_roadmap_1280_680-672x357.png
2024 verspricht exponentielle Leistungssteigerung!!
 
Irgendwie ist es für mich der falsche Ansatz, was den Stromverbrauch betrifft. Von 285W bis über 600+W bei den aktuellen Preisen... ich weiß ja nicht. Für mich persönlich kommen - nur allein durch den Vebrauch - die Karten nicht in Frage, aber eventuell geht es nur mir so.
 
Irgendwie ist es für mich der falsche Ansatz, was den Stromverbrauch betrifft. Von 285W bis über 600+W bei den aktuellen Preisen... ich weiß ja nicht. Für mich persönlich kommen - nur allein durch den Vebrauch - die Karten nicht in Frage, aber eventuell geht es nur mir so.
Dann UV doch! Was soll der Mist mit Restriktionen?
Unmündigkeit ist nicht jedermanns Lebenseinstellung.
 
Irgendwie ist es für mich der falsche Ansatz, was den Stromverbrauch betrifft. Von 285W bis über 600+W bei den aktuellen Preisen... ich weiß ja nicht. Für mich persönlich kommen - nur allein durch den Vebrauch - die Karten nicht in Frage, aber eventuell geht es nur mir so.
Wenn's schon am Stromverbrauch scheitert, bist du wohl einfach nicht die Zielgruppe von NV für die neuen 4080/90er.

Die Leistungsverdopplungen gegenüber den jeweils vorherigen Gens wären ohne die Erhöhung des Verbrauchs einfach nicht drin gewesen. Das gibt die Fertigung in zwei Jahren einfach nicht her.

Man hätte auch weiter Däumchen drehen können wie bei den 1000/2000ern, aber dann wäre der Leistungszuwachs weitaus niedriger ausgefallen.
 
Interessante Analyse von Moores Law is dead, auch im Hinblick auf RDNA3:

 
nicht nur angesicht dessen das ich meine 3090 die einen EKWB Vector hat ohne den Block für 800,- Euro abgeben müsste
dafür dann 2,5k für eine 4090 mit Wakü Block hienlegen müsste die mit einem FPS Mehrwert von ca. 1.5x zur 3090 um die Ecke rommt (ohne RT und DLSS 3.0 wohlgemerkt)
doch dazu DLSS 3.0 in Games noch vermutlich 1-2 Jahre auf sich warten lässt und ich Raytracing gar nicht wirklich nutze.


-> werde ich vermutlich auch bei meiner 3090 bleiben.
 
Klar kannst du eine Karte undervolten, aber auch dies hat seine Grenzen. Eben kann ich auch sagen: OC doch!
Naja.. muss man dann halt in der Realität sehen. Meine immer noch aktuelle 2080ti läuft mit OC (1980/7980) und UV (0.925), d.h. läuft unwesentlich ;) schneller als Stock mit deutlich weniger Stromaufnahme, in kurz: perfekt. Sowas wäre natürlich für die neuen Karten auch Premium, anbetracht des generell hohen Verbrauchs. Wenn man sich dann aber auch die Leistung anschaut, die man dafür bekommen soll, dann ist das irgendwo gerechtfertigt. Mehr Leistung bei weniger oder gleichem Vebrauch wäre natürlich besser...
Etwas nervig in den Präsentationen sind immer die US Preise (ohne Steuern) wodurch die Dinger dort gefühlt deutlich günstiger aussehen. Knapp 2 Blatt für die große 4090 ist zwar nen Wort, aber wenn ich ehrlich bin lächelt die mich schon an - wenn die Tests denn die Leistung bestätigen ;).
 
Irgendwie ist es für mich der falsche Ansatz, was den Stromverbrauch betrifft. Von 285W bis über 600+W bei den aktuellen Preisen... ich weiß ja nicht. Für mich persönlich kommen - nur allein durch den Vebrauch - die Karten nicht in Frage, aber eventuell geht es nur mir so.
Die 3080 12GB klingt auf dem Papier doch in der Hinsicht genau richtig, mehr Leistung als 3080ti (besonders in RT) bei "nur" 285 Watt.
Aber hätte halt deutlich niedriger bepreist werden müssen in €...
 
Die 3080 12GB klingt auf dem Papier doch in der Hinsicht genau richtig, mehr Leistung als 3080ti (besonders in RT) bei "nur" 285 Watt.
Aber hätte halt deutlich niedriger bepreist werden müssen in €...
Nur dass bei der alten Generation die 3070 so schnell wie die 2080ti war und jetzt ist die 4080 12GB so schnell wie die 3080ti ....
just saying
 
Technisch ist die 12gig ja eine 4070, passt also 8-)
 
nicht nur angesicht dessen das ich meine 3090 die einen EKWB Vector hat ohne den Block für 800,- Euro abgeben müsste
dafür dann 2,5k für eine 4090 mit Wakü Block hienlegen müsste die mit einem FPS Mehrwert von ca. 1.5x zur 3090 um die Ecke rommt (ohne RT und DLSS 3.0 wohlgemerkt)
doch dazu DLSS 3.0 in Games noch vermutlich 1-2 Jahre auf sich warten lässt und ich Raytracing gar nicht wirklich nutze.


-> werde ich vermutlich auch bei meiner 3090 bleiben.
Bei mir scheitert es ja schon an den zu hohen Blöcken. Der EKWB Vector war ja mit knapp 120mm Höhe ja schon ein Monster und ist bei meinem Case schon an der Grenze des Machbaren. Die bisher vorgestellten Blöcke schießen 140 bis 150mm in die Höhe, aber lang sind die Referenzkarten knapp unter 200mm.

Wenn die Entwicklung so weitergeht haben wir mit den RTX 5000ern quadratische Wasserblöcke :haha:
 
Dann UV doch! Was soll der Mist mit Restriktionen?
Unmündigkeit ist nicht jedermanns Lebenseinstellung.
Du kannst einen Ferrari nicht effizient machen.
Das gleiche gilt bei den großen GPUs.
Die mächtige Stromversorgung darin braucht einfach ein großes maß an Minimumpower.
Der Ansatz von AMD ist da besser.
im Grunde kannste alles über XX70 vergessen. Diese kleinen Karten wirst aber lange nicht sehen. Zumindest der 40er Generation.
 
Du kannst einen Ferrari nicht effizient machen.
Das gleiche gilt bei den großen GPUs.
Die mächtige Stromversorgung darin braucht einfach ein großes maß an Minimumpower.
uv.png
UV 3080 liefert die selben 144FPS bei Forza wie OC 3080.
258W 144FPS @1600p
360W 144FPS @1600p
 
Du kannst einen Ferrari nicht effizient machen.
Das gleiche gilt bei den großen GPUs.
Echt jetzt? Das soll ein Argument für hohen Stromverbrauch sein? Ein Benzinmotor?
 
@johnieboy
Im Groben: 4000er Serie teuer weil höhere Produktionskosten; Rdna3 billiger, weniger RT Leistung und niedrigere Leistungsaufnahme bei wenig geringerer Leistung. So in etwa.
 
Du kannst einen Ferrari nicht effizient machen.
Das gleiche gilt bei den großen GPUs.

Eine stark untervoltete & untertaktete 3090TI ist extrem effizient.

Deine Aussage ist schlichtweg falsch.

Aber das checken die ungebildeten Forenteilnehmer nicht
Ohje, musst du dahingehend etwas kompensieren? :d
 
Effizienz kann doch bei 4080 und 4090 kein Argument sein. Man will Leistung.
 
Glaube garnicht , dass die RTX 4000er sich so gut verkaufen werden....
 
Nur dass die 4080 12GB von den Spezifikationen keine 80er Karte sondern eine 70er ist, haben sie schon bemerkt?
Nur weil Nvidia 4080 auf die 12GB Karte draufschreibt steckt sie noch lange nicht darunter.
 
Nur weil Nvidia 4080 auf die 12GB Karte draufschreibt steckt sie noch lange nicht darunter.
Wie @hithunter hier eindrucksvoll beweist, gibt es Leute die selbst auf die offensichtlichste Marketingaugenwischerei reinfallen.

Die Leute sind geil drauf. Ich schätze die werden sich gut verkaufen.
Also von den Reaktionen im Allgemeinen sieht "geil drauf" anders aus. Wirkt viel eher wie eine Wiederholung der 20er gen. Sure eine Hand voll Leute wird so oder so kaufen, aber nicht alles was Nvidia rausbringt wird automatisch leer gekauft.
 
Danke!!

Aber das checken die ungebildeten Forenteilnehmer nicht und vergessen dass der Euro mal eben über 20% an Wert verloren hat und noch die hohe Inflation dazu kommt.
Da Du sooo gebildet bist.....mal über folgendes nachdenken

4080 16GB = AD103
4080 12GB = AD104 (4070) <Shadern + 192bit Speicherinterface anstelle 256bit
Aber die Preise sind schon gerechtfertigt :coffee:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh