GeForce RTX 4000: Alle Neuigkeiten zu NVIDIAs neuen GPUs im Überblick

Das ist das System Apple, man will es haben aber man brauch es nicht. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
muss mehr sein weil sonst fehlt der anreiz der 3080 besitzer wieder zu kaufen. zumal 3080 bis 3090ti nicht viel leistung dazwischen liegt
Die Effizienz der neuen Nvidia Karten, wird wohl bei den aktuellen immer weiter steigenden Strompreisen, auch für uns Gamer eine Rolle spielen. Der Effizienz-Unterschied zwischen dem Samsung 8nm und dem TSMC 5nm ist ja schon sehr groß. Ich mag lieber eine neue effiziente Mittelklasse Karte (4070) mit vielleicht 250 Watt als die (gleichstarke?) 3080 mit 330 Watt. Zusammen mit dem neuen ZEN4 & DDR5 kann man (ich) da einen sehr potenten & extrem effizienten Gaming-Rechner zusammenstallen.

☢️☢️☢️
 
So ich habe jetzt meine 3080 Ti Fe für 800€ verkauft und mir eine Neue und OVP Zotac 3090 Trinity Oc für 850€ auf EKA geschnappt.

Endlich ist der Rechner nicht mehr so laut, wie mit der 3080 Ti Fe. Hab jetzt 24 GB wobei ich mir sicher bin das es die 12 GB auch getan hätten in 4K und habe 2 - 3 % mehr Leistung.

Jetzt wird sich entspannt und der Markt beobachtet und eventuell nächstes Jahr auf eine 4080/4090 gewechselt wenn die Preise stimmen.
 
Die Effizienz der neuen Nvidia Karten, wird wohl bei den aktuellen immer weiter steigenden Strompreisen, auch für uns Gamer eine Rolle spielen. Der Effizienz-Unterschied zwischen dem Samsung 8nm und dem TSMC 5nm ist ja schon sehr groß. Ich mag lieber eine neue effiziente Mittelklasse Karte (4070) mit vielleicht 250 Watt als die (gleichstarke?) 3080 mit 330 Watt.
Der Unterschied von 80W wären bei 5h am Tag bei 300 Tagen im Jahr etwa 120kWh.
Nehmen wir mal nen Strompreis von 80 Cent pro kWh an. Dann hast du ca 100€ die du im Jahr sparst, zahlst aber mindestens 300€ für den Wechsel der GPU (geschätzt).
Also rechnet sich das 3 Jahren, wenn du extrem viel zockst und der Strompreis wirklich auf 80 Cent steigen sollte.

Also rein aus Kostengründen macht das keinen Sinn finde ich 😅
 
Der Unterschied von 80W wären bei 5h am Tag bei 300 Tagen im Jahr etwa 120kWh.
Nehmen wir mal nen Strompreis von 80 Cent pro kWh an. Dann hast du ca 100€ die du im Jahr sparst, zahlst aber mindestens 300€ für den Wechsel der GPU (geschätzt).
Also rechnet sich das 3 Jahren, wenn du extrem viel zockst und der Strompreis wirklich auf 80 Cent steigen sollte.

Also rein aus Kostengründen macht das keinen Sinn finde ich 😅

Und wenn der Strompreis nicht auf 80ct geht, nochmal weniger.
Heute hat die Bundesregierung beschlossen, dass ein Grundbedarf an Strom günstig bleiben/werden soll.
Wer dann zusätzlich auch nicht auf 5h/tag pro Jahr kommt, braucht erst gar nicht an zu rechnen fangen.

Ich habe mir auch die Frage gestellt allein der Effizienz wegen auf Lovelace zu warten, aber das scheint minderwichtig zu sein.
 
Vor allen Dingen ist das sowieso totaler Bullshit weil viele Games gar nicht die volle Power abrufen. Ich zocke gerne triple A 3D Games, aber die meiste Zeit verbringe ich immer noch mit Civ 5. :fresse:

Also man sollte hier echt mal auf dem Teppich bleiben mit diesen ganzen Effizienz Horror Szenarien. Bis auf Miner sollte das niemanden kratzen.
 
Also man sollte hier echt mal auf dem Teppich bleiben mit diesen ganzen Effizienz Horror Szenarien. Bis auf Miner sollte das niemanden kratzen
Was bitte ist an Effizienz denn Horror?
Oder meinst du die absolute Leistungsaufnahme?

Auch eine Karte die viel verbraucht kann sehr effizient sein!
 
Was bitte ist an Effizienz denn Horror?
Oder meinst du die absolute Leistungsaufnahme?

Auch eine Karte die viel verbraucht kann sehr effizient sein!
Nun die angeblich mangelnde Effizienz der Karten soll ja laut einigen Usern hier zu exorbitant steigenden Stromkosten in Haushalten mit Lovelace Karten führen. Und diese Ansicht halte ich für einen Witz. Der Punkt den Du anführst begründet sich ja in diversen Szenarien.

Ob man nun undervoltet, Spiele gar nicht 100% fordern oder man die FPS begrenzt... am Ende wird beim Gamer auch eine 4090 keinen großen Unterschied auf der Stromtechnung ausmachen, selbst wenn man sie mit den out of the box Settings betreibt.
 
Wer Strom sparen will kann einfach den Kühlschrank / Gefrierfach 2-3° wärmer einstellen. Spart wesentlich mehr, verursacht keine Investitionskosten und macht (oft) keinen Unterschied. Aber hier wegen ein paar Watt (wenn die Karte im Maximum läuft) die Karte zu wechseln ist wirklich bescheuert
 
Das halte ich für völligen Mumpitz. Wenn NV nicht wieder "krumme" Speicherkonfigurationen nutzt, sind 12GB nur mit einem 192- oder 384-Bit Speicherinterface möglich, 16GB nur mit 256-Bit (oder 512-Bit). Eine 4080 mit 192-Bit wäre eine Lachnummer, also müssten es eher 384-Bit sein, die aber, soweit wir wissen, nur der AD102 hat.

Hier geht es wahrscheinlich wieder um zwei unterschiedliche SKU, von denen eine als Variante der RTX 4080 interpretiert wird, aber keine ist (sondern entweder die 4070/Ti oder eine 4080Ti).
 
Die 12GB@192bit Version könnte auch eine Effizienzmaßnahme sein, damit man gegen RDNA3 noch bestehen kann in dem Bereich.
Und die 3080 mit 16 GB könnte auch die Ti sein.
 
Zuletzt bearbeitet:
So ein Blödsinn, beschnittenes SI und weniger Speicher als Effizienzmaßnahme? Auch in Zeiten von GDDR6X, absolut absurd. Da würde man eher GPU- und Speichertakt senken. Du machst wirklich Panikpropaganda mit deiner Effizienz.
 
Warum Blödsinn, wer eine Highend-FullHD / WQHD Karte möchte dem reichen 12 GB in der Regel vollkommen aus.
Allein so schon könnte man den Stromverbrauch verringern und die Karte insgesamt sogar noch günstiger anbieten.
 
Warum Blödsinn, wer eine Highend-FullHD / WQHD Karte möchte dem reichen 12 GB in der Regel vollkommen aus.
Allein so schon könnte man den Stromverbrauch verringern und die Karte insgesamt sogar noch günstiger anbieten.
Ist halt Fail wen der Konkurrent da dann 20GB bei 320 Bit 300W und viel Cache als Gegenstück anbietet mit der 7800XT!

Ich glaub da werden einfach nur Zahlen durcheinander gewürfelt !
Die 16GB sollten am Ende stehen bei der 4080 und wenn NV sich einen gefallen tun will bekommt die 4070 mindestens 12GB!
Alles andere wäre bei der Leistung nicht mehr Zeitgemäß.
 
Es kann auch sein, dass Nvidia hier verschiedene Samples testet und sich am Ende für eine Version entscheidet.
 
Es kann auch sein, dass Nvidia hier verschiedene Samples testet und sich am Ende für eine Version entscheidet.
Das ist natürlich möglich, ist ja bei Ampere offensichtlich auch passiert mit den ganzen GA102/103-basierten RTX 3070Ti-Versionen und der 3080 20GB, die nie erschienen sind.

Warum Blödsinn, wer eine Highend-FullHD / WQHD Karte möchte dem reichen 12 GB in der Regel vollkommen aus.
Allein so schon könnte man den Stromverbrauch verringern und die Karte insgesamt sogar noch günstiger anbieten.
Das bestreite ich ja nicht, aber es wäre sinnlos, eine 4080 auf diesem Weg zu beschneiden nur wegen der Energieeffizienz. Klar erhöhen zwei zusätzliche GDDR6X-Module die Boardpower nicht unerheblich, aber dann verzichtet man besser auf GDDR6X und nimmt gleich den AD104 mit 192Bit (was dann auf 4070 hinausläuft), anstatt eine 4080 bei Shadern und Takt gleich zu lassen und einfach nur zwei Speichermodule wegzuhauen. Der Energiebedarf der GPU sänke überhaupt nicht, aber die Performance wäre erheblich eingeschränkt.
 
Selbst wenn die erst Neujahr kommen wäre das in Ordnung, ich würde lieber einen anständigen Launch erleben (werden wir aber nicht). Wo man einfach das Wunschprodukt zu einem fairen Preis in den Warenkorb legt und bezahlt.

16 GB sind ein Muss, downgraden würde ich nicht. Mit 16 GB könnte ich mich noch weiter anfreunden solange die Karte unter 1 K kostet. Da hat man auch noch Reserven für 4K und Spielchen mit Mods.
 
Hier werden auch angebliche Benchmarks gezeigt!
Wen die Stimmen na holla die Waldfee angeblich sind die für die GTC bestimmt !
Ich sehe jetzt aber nicht welche Karte das sein soll denke mal 3090 vs 4090 80-120% schneller wäre schon extrem !

 
Zuletzt bearbeitet:
Beitrag automatisch zusammengeführt:

 
Zuletzt bearbeitet:
Mein Bestellfinger juckt immer mehr :shot: . Bald kann die 1080ti in Rente.
 
Jo. Die Kühlung ist dann so leise, dass man das Fiepen ungestört genießen kann. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh