Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

das klingt sehr vernünftig
selbst meine Frau findet die FE alternativ los. Den Ampere Mercedes nennt sie die Karte
Verstehe ich nicht, Mercedes ist schon lange nicht mehr alternativlos. Das sollte man aber schon wissen. :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*Klischee on*
Deinen Freundin hat dann eindeutig zu viele männliche Hormone. Meine würde mir direkt einen Stapel Pferdepostkarten nachwerfen, falls ich es nur wagen sollte. von Grafikkarten anzufangen. Die weiß allerdings inzwischen auch, wie viel die kosten. :fresse: :lol:
*Klischee off*

Evtl ist da noch eine ledige Schwester ? :bigok:

Nein, die hat sich inzwischen einen Mercedes Fahre geangelt, wie man so hört. :p
 
Haha
Sie war verwundert, warum der 1.5k PC noch eine 1.5k GPU braucht...in einem langen Gespräch habe ich ihr das geschildert. Das funktioniert aber nur mit einer parallelen Massage.

Benz mögen wir beide nicht, aber das Design erinnerte uns daran. Das ist um Welten besser als bspw. die Palit LCD TripRock.

btw: ja, da ist noch eine ledige Schwester😃
 
*Klischee on*
Deinen Freundin hat dann eindeutig zu viele männliche Hormone. Meine würde mir direkt einen Stapel Pferdepostkarten nachwerfen, falls ich es nur wagen sollte. von Grafikkarten anzufangen. Die weiß allerdings inzwischen auch, wie viel die kosten. :fresse: :lol:
*Klischee off*



Nein, die hat sich inzwischen einen Mercedes Fahre geangelt, wie man so hört. :p


dA bin ich als oller Ford Fahrer wohl raus :heul:
 
Kommt drauf an was es für ein Ford ist, wenn es ein Fiesta sein sollte würde ich sagen ja. ;)
 
Haha meine Frau liebt ihren Gaul. Mit RDR2, Last of Us 2 oder Witcher konnte sie sich aber begeistern wegen der Viecher

Eine 3090 stellt Pferde dann ja noch toller dar!
 
*Klischee on*
Deinen Freundin hat dann eindeutig zu viele männliche Hormone. Meine würde mir direkt einen Stapel Pferdepostkarten nachwerfen, falls ich es nur wagen sollte. von Grafikkarten anzufangen. Die weiß allerdings inzwischen auch, wie viel die kosten. :fresse: :lol:
*Klischee off*



Nein, die hat sich inzwischen einen Mercedes Fahre geangelt, wie man so hört. :p
Kommt drauf an was es für ein Ford ist, wenn es ein Fiesta sein sollte würde ich sagen ja. ;)

Den Fiesta habe ich auf der Ladefläche ;)
 
Bin ich eigentlich der einzige, bei dem die Begeisterung langsam in Ernüchterung und Enttäuschung umschlägt?

NVIDIA GeForce RTX 3080: 168% of RTX 2080 performance in CUDA and OpenCL benchmarks

TDP 2080TI/3080 == 220/320 Watt = 100/145 Prozent
CUDA and OpenCL 2080TI/3080 == 100/141 Prozent

Die 3080 heizt wie ein Ofen und holt aus 145% mehr Strom zirka 141 mehr Leistung im Vergleich zur 2080TI. Im Preis wird aus einer 3080FE@10GB zur 3080Custom@20GB welche gewiss zeitgemäßer ist auch ehr 1100-1200 EUR. Also vergleichbar der 2080TI.

Habe ich etwas übersehen oder hat NVidia hier erstmal vom Grundsatz nur den großen Hammer raus geholt?
 
40% über der Ti wäre fantastisch, genauso wie 60-90% gegenüber einer 2080! Zu den Temps sehen wir bald.
 
Der hohe Stromverbrauch ist mir schon anfangs aufgefallen, aber mal sehen wie es mit Realverbrauch etc. aussieht.
 
TDP 2080TI/3080 == 220/320 Watt = 100/145 Prozent
CUDA and OpenCL 2080TI/3080 == 100/141 Prozent

Ich glaube nicht, dass die TDP einer 2080 Ti bei nur 220W liegt... ;)
 
Bin ich eigentlich der einzige, bei dem die Begeisterung langsam in Ernüchterung und Enttäuschung umschlägt?

NVIDIA GeForce RTX 3080: 168% of RTX 2080 performance in CUDA and OpenCL benchmarks

TDP 2080TI/3080 == 220/320 Watt = 100/145 Prozent
CUDA and OpenCL 2080TI/3080 == 100/141 Prozent

Die 3080 heizt wie ein Ofen und holt aus 145% mehr Strom zirka 141 mehr Leistung im Vergleich zur 2080TI. Im Preis wird aus einer 3080FE@10GB zur 3080Custom@20GB welche gewiss zeitgemäßer ist auch ehr 1100-1200 EUR. Also vergleichbar der 2080TI.

Habe ich etwas übersehen oder hat NVidia hier erstmal vom Grundsatz nur den großen Hammer raus geholt?

So in etwa sieht meine persönliche Prognose auch aus.
Allerdings habe ich mit DLSS V2.0 eher mit + 55% für die 3080er gerechnet und ohne halt so ca. +35% gegenüber der 2080TI. Man muss aber wirklich mal die unabhängigen Reviews abwarten, wie sich u.a. die neue "Verdoppelungstechnik" bei "normalen" Games schlägt.

Für eine Heizung halte ich eher die 3090er, aber mal abwarten.


Gruß

Heinrich
 
Was mach ich nur falsch mit meiner Freizeit wenn ich die hälfte davon verzocke :fresse2:
 
Kellerkinder sind halt so, musst dich nicht grämen dafür. ;)
 
Nein, auch wegen dem mehr an Speicher. Aber wie gesagt, abwarten......
 
Ich glaube nicht, dass die TDP einer 2080 Ti bei nur 220W liegt... ;)

Stimmt, sind 260 Watt, also:
TDP 2080TI/3080 == 260/320 Watt = 100/123 Prozent
CUDA and OpenCL 2080TI/3080 == 100/141 Prozent

Für einen shrink trotzdem enttäuschend.

Da Nvidia bei der 4000er Generation den selben Trick bestimmt nicht nochmals anwenden wird (dann sind wir schon bei 450 Watt TDP) wird die nächste Generation wohl eine geringere Steigung haben. Mit einem Rückbau der TDP wird man wohl gar nicht rechnen können. Das spricht wenn man aufrüstet für die 3090.
 
Deswegen kauft man GPUs auch im Herbst/Winter
Spart nur Heizkosten
Die Blockbuster kommen ohnehin nicht im Sommer
 
Mir ist das eig egal. Von mir aus kann die 2080ti auch 500watt wegrauchen wenn ich dafür 30% mehrleistung bekomme. So juckt mich das auch null bei Ampere
 
Da Nvidia bei der 4000er Generation den selben Trick bestimmt nicht nochmals anwenden wird (dann sind wir schon bei 450 Watt TDP) wird die nächste Generation wohl eine geringere Steigung haben.
450W?
Zugegeben, ich habe erwartet dass wir mit 250W an der Grenze angekommen wären, kühlungstechnisch wird das schon langsam problematisch. Dass wir nun bei 320W in der normalen Klasse angekommen sind, hat mich schon ziemlich überrascht. Aber noch deutlich mehr? Das kann ich mir nicht vorstellen... 400W in der 700€ Klasse? Also ich erwarte keine weitere Steigerung der Leistungsaufnahme....

Die 1500W Klasse ist was anderes, da ist WaKü dann iwie schon obligatorisch und solche Karten landen (allein aufgrund des Preises) auch weniger in fertig PCs.
 
~ 300 W kann eine stark übertaketete Custom X80 sicher auch knacken, die Frage ist ob die Customs von Ampere das nochmal überbieten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh