[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

GTX 3050 6GB 199€ ~ RTX 2060 Leistung
RTX 3050 6GB 249€
GTX 3050 TI 8GB 229€
RTX 3050 TI 8GB 279€
GTX 3060 8GB 320€
RTX 3060 8GB 370€
GTX 3070 10GB 350€
RTX 3070 10GB 400€
GTX 3080 10GB 500,€
GTX 3080 20GB 600€
RTX 3080 10GB 580€
RTX 3080 20GB 680€
GTX 3080 TI 20GB 799€
RTX 3080 TI 20GB 899€
--------------------------
GTX 3090 24GB 1100€
RTX 3090 24GB 1250€

RTX Titan 48GB 1500€-2000€


=> Wunschdenken

...vielleicht eher so...
3090 = 2000-2500 €
3080TI = 1500€
3080 SUPER = 1000 EUR
3080 = 850€
3070 = 600€
3060 = 400€
3050 = 280€
3030 = 190€

Natürlich wird es nicht so kommen, wie ich es geschrieben hatte. Ich befürchte sogar, dass die 3080 noch teurer wird, als bei deiner Glaskugel :LOL:. Die 2080 FE startete doch bereits bei über 800€ oder nicht? Die GTX 1080 hatte zu Release schon eine UVP für die FE von 760€ oder nicht?

Habe nochmal nachgeschaut:


Quelle: PCGH
Ab 1080 TI aufwärts habe ich's selber zusammengebastelt...

Founders EditionCustom Design
RTX 2080 Super789 EUR
RTX 2080849 EUR
GTX 1080 TI819 EUR
GTX 1080789 EUR665 EUR
GTX 1070499 EUR?
GTX 980 Ti739 EUR-
GTX 980538 EUR-
GTX 970321 EUR-
Titan X1.149 EUR-


Interessant wie viel hier über eine Titan oder 3080 Ti geredet wird. Denke der bedenklichste Bereich ist eher der ehemalige Midrange-Bereich von 180 bis 250 EUR, da bekommt man heutzutage, vor allem von Nvidia, nicht wirklich etwas. Ich erinnere mich da an eine GTX 460, eine GTX 560 Ti, GTX 960 4GB oder bei den Roten die Radeon 5850, 7870 oder sowas. Selbst mit damaliger Radeon 5770 konnte man den damals aktuellen Battlefield Titel in nahezu maximalen Details gut spielen. Heute ist da gar nicht mehr dran zu denken, dass die Karten unter 200 EUR sowas können.

Bin erstaunt, was damals die erste AMD Radeon Serie gekostet hat. Die 6950 und 6970 waren, für heutige Verhältnisse, ja fast geschenkt :oops:
Test AMD 6950 & 6970
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia ist halt der Mercedes unter den Grafikkarten, während AMD nur der BMW ist. :fresse:
 
Diese Statistik überrascht mich echt. Es zocken fast doppelt so viele Männer 21-35 wie die 10-20 Jährigen?
Und der Anteil der weiblichen Zocker liegt angeblich bei 46%?!?

Das deckt sich irgendwie so gar nicht mit meinen Erfahrungen :hmm:
 
Diese Statistik überrascht mich echt. Es zocken fast doppelt so viele Männer 21-35 wie die 10-20 Jährigen?
Und der Anteil der weiblichen Zocker liegt angeblich bei 46%?!?

Das deckt sich irgendwie so gar nicht mit meinen Erfahrungen :hmm:

Es ist eben "Mainstream" geworden. Vorallem die letzten paar Jahre. Schau doch mal alleine an, wie viele "Streamerinnen":ROFLMAO::ROFLMAO::ROFLMAO: bei Twitch sind..
 
Diese Statistik überrascht mich echt. Es zocken fast doppelt so viele Männer 21-35 wie die 10-20 Jährigen?
Und der Anteil der weiblichen Zocker liegt angeblich bei 46%?!?

Das deckt sich irgendwie so gar nicht mit meinen Erfahrungen :hmm:
Mit meinen schon.
Aber ich habe auch schon in den 90ern viele Frauen und Mädchen in Spielen gesehen als jeder noch "There are no girl gamers" gerufen hat.
 
Nvidia ist halt der Mercedes unter den Grafikkarten, während AMD nur der BMW ist. :fresse:
Ich würde BMW jetzt nicht unbedingt so abwerten wollen....😜
Ich würde eher Hyundai als Vergleich heranziehen 😂
 
Fakt ist, alle, die zuvor um zu wenig Speicher besorgt waren und sich 16GB oder mehr gewünscht haben, sind jetzt happy damit, dass es den doppelten Speicher bei den drei größten Ablegern geben wird.

Und was ist dann hiermit:

Lustige Spekulation/Prognose von Igor und co. :haha:
Werde keine nvidia Spielerkarte kaufen, aber auch wenn blos der Gedanke daran aufkeimen würde, sehen diese Kombinationen entweder nach 1) wahrscheinlich wieder zu teuer da margenorientiert für Lederjacke/Aktionäre, oder 2) zu viel/zu wenig Vram bei Leistung x. aus und/oder nicht besonders zukunftsfähig.

GeForce RTX 3090 24 GB = zu viel Vram, selbst für 4K Uhd in den nächsten 2 Jahren bei Grafikkrachern. Abseits von einer Hand voll Spiele und/oder mit Mods, für 99 % nicht relevant. In 2 - 3 Jahren wenn relevant, ist schon bereits die nächste Gen draußen. Für bestimmt min. 1500 € auch margenorientiert teuer.
GeForce RTX 3080 20GB = zu viel Vram für Leistung x (Spekulation 20 % unter der rtx 3090) und bestimmt für min. ~ 1k € teuer.
GeForce RTX 3080 10GB = zu wenig Vram für Leistung x.
GeForce RTX 3070 Ti 16GB = Vram passend, der Karte fehlt es aber bestimmt an Leistung für 4K Uhd, da bringt auch der Vram nichts.
GeForce RTX 3070 Ti 8GB = 8GB - Lol. Vllt. für's spielen in 1080p.
GeForce RTX 3070 8GB = Ebenso.

Eine gute Kombination wäre z.B. ein Vollausbau des spekulierten GA102 Chips mit 16/20 GB oder ein beschnittener GA102 der rtx 3080 einmal mit 12 oder 16 GB als Auswahl.
Eine rtx 3070 Ti mit 12 GB und 3070 mit 10 GB.
Blos nicht auf die Idee kommen den Menschen das zu geben was diese wirklich wollen. und für angemessene Preise für beide Parteien.
Aber neee. :rolleyes:


Zuvor hat er uns noch davor noch gewarnt, mit was für raffinierten Tricks uns Nvidia versucht zu täuschen, damit wir den VRAM Engpass nicht bemerken...
 
Leute, schlechte neuigkeiten: mein Board unterstützt kein nvlink - nur diesen crossfire Blödsinn. Daher keine 2x2080TI :(

#1stWorldProblems
 
Zuvor hat er uns noch davor noch gewarnt, mit was für raffinierten Tricks uns Nvidia versucht zu täuschen, damit wir den VRAM Engpass nicht bemerken...

Wow, Du hast wirklich den einen gefunden, Glückwunsch 🥳 Ihm kann man es aber auch wirklich nicht recht machen. Nur wenn die 3070(ti) mit 16 GB irgendwann nach BN raus kommen sollte, wäre er damit vielleicht zufrieden.
 
Leute, schlechte neuigkeiten: mein Board unterstützt kein nvlink - nur diesen crossfire Blödsinn. Daher keine 2x2080TI :(
Ernst gemeinter Ratschlag - lass es lieber. Wenn du nicht gerade ein Spiel hast, was übel gut von SLI profitiert oder weitere Anforderungen hast (in meinem Fall ist das Blender mit dem Cycles Renderer), dann wird die zweite Karte in der Masse aller restlichen Applikationen einfach leer mitlaufen. Schlimmer noch - es gibt alle Nase lang vor allem Spiele, die verlieren Leistung zzgl. weiterer Nachteile wie schlechter Latenz und Microgeruckel.

Ich hab bei mir seeehr häufig SLI deaktiviert - weil die Nachteile einfach überwiegen. GTA V profitiert bspw., TW3 auch. Cyberpunk wird es vllt auch können - zumindest könnte man das meinen als NV Vorzeigetitel. Ansonsten ist von den neueren Sachen nicht mehr wirklich groß was bei, was von SLI profitiert.



Btw. sinniger als ein gebraucht Kauf einer zweiten 2080TI wäre wohl die erste 2080TI zu verkloppen und die Kohle dazu zu nehmen, die du für die zweite 2080TI gebraucht aufzutreiben bereit bist -> und dann direkt Ampere oder BigN :wink:
 
Hoffentlich mit sofortiger bestellmoeglichkeit auf nvidia.com wie bei der letzen gen
 
Ja, SLI/Nvlink ist nicht mehr das was es mal war....

Wenn cyberpunk mit DLSS auf der 2080TI spielbare frameraten abwirft gibt es eh keinen rationalen Grund für mehr. Das ist momentan so der benchmark der im Raum steht
 
Erstmal warten auf den Release des Spiels um soetwas sagen zu können.
 
Interessant wie viel hier über eine Titan oder 3080 Ti geredet wird. Denke der bedenklichste Bereich ist eher der ehemalige Midrange-Bereich von 180 bis 250 EUR, da bekommt man heutzutage, vor allem von Nvidia, nicht wirklich etwas. Ich erinnere mich da an eine GTX 460, eine GTX 560 Ti, GTX 960 4GB oder bei den Roten die Radeon 5850, 7870 oder sowas. Selbst mit damaliger Radeon 5770 konnte man den damals aktuellen Battlefield Titel in nahezu maximalen Details gut spielen. Heute ist da gar nicht mehr dran zu denken, dass die Karten unter 200 EUR sowas können.

Da hast du recht. Wobei ja hier gern das Argument genutzt wird dass es ein Hardwareluxx-Forum ist. Bei der 460 und 560 Ti muss man auch bedenken dass diese eigentlich 480 und 580 heißen sollten, die "echte" 580 war letztlich das was heute "Ti" genannt wird.

SLI würde ich lassen. Sonst hätte ich vermutlich zwei 1080 Ti im PC. Viele Spiele unterstützen es inzwischen gar nicht mehr. Demnächst werden wir es endlich wissen, ich rechne mal damit dass die Preise auch Hartgesottene schockieren werden. Es kann aber auch sein dass die Preise nach Big Navi fallen werden. Das war selbst bei Turing so, später gab es die billigsten 2080 Ti ab 1100 € (was immer noch zu viel ist), anfangs waren es eher 1400.
 
Umgekehrt ! Big Ti wurde doch nur erschaffen um für den Big Chip mehr Geld verlangen zu können !
 
Customs auch schon vom Start weg, das wird hart für AMD dort zu bestehen mit BigN /:
 
das wäre super, wenn die Customs so schnell kommen würden; hoffentlich kommen dann auch genügend
Exemplare in den Handel; Battlefield 5 und Wolfenstein warten schon
 
Ich bin mir ziemlich sicher dass fast alle 2080Ti Besitzer auf Ampere umsteigen werden.

Zumindest für mich keine Notwendigkeit. Ich spiele aktuell auf UWQHD (mit G-Sync) und es läuft quasi-maxed qualitativ alles mehr als zufriedenstellend um die 100 FPS.
 
Naja was solls, wenn der Gegner unbesiegbar ist, wechsle ich auch schon mal gerne die Seiten. :cautious:
 
Naja was solls, wenn der Gegner unbesiegbar ist, wechsle ich auch schon mal gerne die Seiten.

Holzi, das ist eigentlich dein Fehler. Du bist ein Fanboy, das ist, egal von welchem Anbieter, immer Mist. Team Rot und auch Grün sind nur an einem von dir interessiert: deinem Geld. Keiner von beiden macht etwas damit die Käufergruppe A, B oder C mehr Leistung oder weniger Energieverbrauch hat, da wird knallhart gerechnet was am günstigsten kommt und womit man den größten Schnitt macht. Deswegen ist Fanboysein auch das dümmste was man machen kann, wenn man sich objektiv mit dem auseinander setzt was der Markt zu bieten hat und was man selbst benötigt (was bei jedem was anderes ist), dann fährt man noch am besten.
 
fanboy has fallen

:btt2:
 
Customs auch schon vom Start weg, das wird hart für AMD dort zu bestehen mit BigN /:
ouh wird ja immer besser, da werde ich diesmal wohl wirklich nicht mehr auf Amd warten können :unsure: wobei bei meinem Glück ist ausgerechnet dann, wenn ich mal nicht vergeblich auf den High End Kracher von AMD warte - Big Navi mal so ein richtiger Brecher der Ampere aufmischt :shot: :LOL:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh