Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für die ganzen "viel zu wenig VRAM"-Heuler

Aus dem Reddit Q&A
NV_Tim Community Manager 7 Punkte vor 20 Stunden

[Justin Walker] u/jenkemhuffer -
We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. In order to do this, you need a very powerful GPU with high-speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory. Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.

[NV_Tim] - To learn more about the RTX 3080, check out our announce article.
https://www.nvidia.com/en-us/geforce/news/introducing-rtx-30-series-graphics-cards/
 
„Etwas“ ist aber sehr optimistisch ausgedrückt :d

In Aktion sehe ich keinen Unterschied, ob empfohlenes AA oder bestes AA. Wohl aber die „Diashow“. Schau mal in YT nach Settings. Ist echt nicht verkehrt (y)


Hihi, ich würde nie so zocken. Ich hab für mich passende Settings gefunden. Ich nutze das immer nur wenn wieder jemand erzählt das "max Settings" nicht mal eine 2080TI in 4K stemmt, oder er alles in MaX Settings mit irgend einer Gurke zockt, oder das er eine Graka braucht die in MAX SETTINGS in allen Games 60 FPS stemmt. MAX Settings stemmt keine Graka, nicht mal in FHD. Dafür ist das Bild da, also nicht zu viel hineininterpretieren^^

rdr2_2020_06_30_14_31ncjw4.jpg
 
700€ oder mehr für eine Grafikkarte ausgeben und "Juhu ist das Preiwert" schreien.

Aber zu geizig, für eine passendes Netzteil mit den nötigen Leistungsreserven (schaut mal bei Igor's Lab vorbei, wo die Spitzen bei aktuellen Grafikkarten eigentlich liegen dabei), ist nicht drin? Das ist sparen am falschen Ende, aber bitte, die Probleme werden sich so oder so bemerkbar machen, und sei es nur mit Framedrops unter zu hoher Last für das Netzteil. Und moderne Netzteile schalten sich gerne mal ab dabei dank Schutzschaltung, dann wird es düster am Bildschirm. :d


Gruß

Heinrich

Heinrich, die FE RTX 3070 wird 499€ kosten und nicht 700€ und mehr, was ich niemals für eine GPU ausgeben würde. Und ich hab nicht mit einem 320Watt Netzteil "Juhu das ist Preiswert geschrien". Hab ja schon ein teueres gutes Netzteil, was über 100€ kostet. Das hat nichts mit Geiz zu tun, aber nochmal 150€ oder mehr für ein noch besseres Netzteil auszugeben mache ich nicht gerne. Und wenn das nötig wäre, dann passe ich lieber mit der GPU.
 
@krakos

Danke für den Text :d... Abgesehen davon das Nvidia natürlich sagen muss das das reicht und jetzt nicht sagen kann "ach, 10 Gb reichen übrigens nicht"... Das deckt sich mit dem was auch Digital Foundry sagt. Selbst wenn der VRAM voll ist, heißt das nicht, dass das nötig ist. Es wird eben auch gecacht. Und darauf kann man mit schnellen SSDs und RTX-IO vielleicht sogar gut und gerne verzichten. Aber wer gerne noch einmal ein Jahr auf das Facelift in Form der Ti mit mehr Speicher warten will, kann das ja gerne tun. Dann ist es aber auch nicht mehr so lange bis zu 4000der. Die hat dann auch wieder zu wenig Speicher in 2022 :d
 
Auch mal ein Beispiel:
meine kumpels zocken ARK in 1080p und selbst da wurden die 8GB der 1080 gesprengt.
Ich hab ARK schon in EA gespielt, mit der 980Ti in 1440p und da haben selbst die 6GB ausgereicht, VRAM war nie das Problem bei ARK
ARK ist aber generell ein Bughaufen, war es früher schon und ist es immer noch

Beispiel von ARK:
Da wurden sogar meine 32GB RAM zugemüllt, brauchen wir jetzt alle 64GB RAM deswegen?
Wer bei ARK irgendeinen Fehler an der HW sucht, sucht am absolut falschen Platz ;)

Und nur damit wir uns richtig verstehen:
Ich habe dieses Spiel richtig gesuchtet, ist in Stunden noch immer mein meist gespieltes Spiel lt Steam-Statistik
 
12 statt 10GB hätten mich dennoch etwas entscheidungsfreudiger gemacht. Es wird zwar die 10GB Version aber ich werd immer das Gefühl haben das 12 besser gewesen wären.
 
Das erninnert mich irgendwie an die Story, die ich letztens auf dem TV-Sender "History" geschaut habe. Hauptakteure waren Atari, Nintendo und SEGA und Thema war "wer macht wem das Leben schwer, von der P/L her"
 
Hihi, ich würde nie so zocken. Ich hab für mich passende Settings gefunden. Ich nutze das immer nur wenn wieder jemand erzählt das "max Settings" nicht mal eine 2080TI in 4K stemmt, oder er alles in MaX Settings mit irgend einer Gurke zockt, oder das er eine Graka braucht die in MAX SETTINGS in allen Games 60 FPS stemmt. MAX Settings stemmt keine Graka, nicht mal in FHD. Dafür ist das Bild da, also nicht zu viel hineininterpretieren^^

Anhang anzeigen 528526
Probiere ich bei Gelegenheit mal aus, obwohl ich seit langem FHD meide ;)

Du brauchst eindeutig 2x 3090 @ SLI :d
Den Platz, um das ganze Internet im RAM zu spiegeln haste ja schon :fresse:
 
SLI hat schon mit turing keinen sinn mehr gemacht.. das ist sowas von tot.. dieses jahr würde ich jedem, der ein budget für zwei 3090er hat, eher eine Karte und ein 120Hz Oled mit VRR und HDMI2.1 empfehlen. viel spass mit 4K für nur 3K euro

(..)

mfg
tobi
 
2080 TI vs 3080 in Doom Eternal
 
es war nie so günstig :)
early adopter zu sein hat schon immer Geld gekostet

ich finde das echt überschaubar.. titan RTX kam unterm strich vor zwei jahren teurer und die volta titan davor auch.. da hatte ich auch schon ein UHD-panel.. nur war das spielen darauf immer ein kompromiss. *kopfkratz* mit wakü kosteten sogar die beiden TIs, die ich bis zuletzt behalten habe fast drei riesen.. die waren so geil, dass ich sie dem SLi support geschuldet, auf zwei rechner verteilen musste. heute gibt es für das gleiche geld ne fette graka mit ausreichend frames und dazu auch noch ein 55" display mit VRR und perfektem HDR mit bis zu 120Hz und wenn man etwas geschickt verhandelt noch ne schicke wandhalterung und ne garantieverlängerung auf 5 jahre.


(..)

mfg
tobi
 
Heinrich, die FE RTX 3070 wird 499€ kosten und nicht 700€ und mehr, was ich niemals für eine GPU ausgeben würde. Und ich hab nicht mit einem 320Watt Netzteil "Juhu das ist Preiswert geschrien". Hab ja schon ein teueres gutes Netzteil, was über 100€ kostet. Das hat nichts mit Geiz zu tun, aber nochmal 150€ oder mehr für ein noch besseres Netzteil auszugeben mache ich nicht gerne. Und wenn das nötig wäre, dann passe ich lieber mit der GPU.

Ja, darum habe ich auch bei 700€ angefangen und nicht mit 500 €. ;)

B.z.w. 320W und 350W (ohne Spitzen) von der Grafikkarte her. Und das ohne OC,, was auch bestimmt niemand hier versuchen/machen wird. :lol: Und je nach CPU und den restlichen Komponenten im System kommt noch einiges an "Watt" hinzu, Gut, das System wird bestimmt nur in anspruchsvollen Games etc. entsprechend ausgelastet werden, aber wer zu knapp kalkuliert hat wird es dann schon merken. Wer meint, einen 9900K plus RTX 3080 mit einem 400W Netzteil unter Vollast stemmen zu können, bitte, soll es machen. Bis zum bitteren Ende. :p


Gruß

Heinrich
 
Den C9 von LG?
Oder gibts mom. Noch was Besseres?

ja, an den hatte ich gedacht und den habe ich mir vor ein paar wochen an die wand gehängt.. kam mit 5 jahren garantie und erwähnter wandhalterung für knapp unter 1500€ um die ecke und so perfekt habe ich noch nie gespielt.. und ich spiele seit 1983. auf meinen älteren geräten habe ich hdr z.b. immer lieber abgeschaltet (edgelit = eklig).

@Punk Sods
manchmal muss man das mit dem NT erstmal selbst erleben. man liest immer unglaublich viel, aber nicht wenig davon ist halt nur hörensagen und stumpfes nachrechnen irgendwelcher watts vs. TDPs.
btw, ich kann z.b. sogar mein 1200W corsair (seasonic) modell mit nur einer geflashten TI und nem 9900K abschalten. ich muss die krücke nur auf multirail umschalten und schon fällt die absicherung für spannungsspitzen zu gering aus für die gemoddete karte unter last.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Womit sich bisher wohl noch niemand beschäftigt hat, ist die Frage wie Nvidia den Kühler der 3080 bzw. 3090FE dimensioniert hat?!
Mich jedenfalls irritiert es doch ziemlich, dass die 3080 einen deutlich kleineren Kühler-Aufbau erhalten hat… 30Watt TDP-Differenz ist ja nun wirklich nicht viel!
Kann das wirklich nur mit dem Zusätzlichen Speicher auf der Rückseite der 3090 erklärt werden oder meint ihr, dass Flaggschiff soll einfach kühler und leiser laufen um den Mehrpreis zusätzlich zu rechtfertigen?
2080 TI vs 3080 in Doom Eternal

Ohne das vid gesehen zu haben, aber ich hatte in Eternal mit allem Ultra in 1440P schon mit der 1080 immer 70+ FPS..
Brauchts dafür ne 3000er ?
 
Um welches Modell handelt es sich denn bei deinem C9 genau? Suche aktuell für mein Büro / Zockerzimmer noch eine alternative zum eigtl. angedachten Beamer...
 
Wenn man einen 144hz monitor hat will man nicht mit 70fps spielen, außerdem sieht man im video dass sogar durchgehend 144fps in 4k möglich sind nun :) (weitesgehend)
 
ja, an den hatte ich gedacht und den habe ich mir vor ein paar wochen an die wand gehängt.. kam mit 5 jahren garantie und erwähnter wandhalterung für knapp unter 1500€ um die ecke und so perfekt habe ich noch nie gespielt.. und ich spiele seit 1983. auf meinen älteren geräten habe ich hdr z.b. immer lieber abgeschaltet (edgelit = eklig)

1983, zu der Zeit habe ich auch schon gespielt.

Allerdings noch mit einem C64, Datasette und am TV. Später gab es dann einen 1802 Monitor und 1541 Floppy dazu. :)


BTT, ;)
 
Nen 500W welche gute Leistung bringt kann auch 100+ mehr watt ertragen.

Muss man ja auch ausreizen bis zum Limit..
Beitrag automatisch zusammengeführt:

Woher kommt eigentlich die Theorie, das "8gb, bzw. 10gb auf keinen Fall fürs nächste und übernächste Jahr reichen"? Was ist denn los hier? Hat hier mal jemand einen Test von "modernen" Gameengines mit einem ordentlichen Test der Speicherauslastung? So auf Digital Foundry Niveau. Nicht nur RDR2 spielen und gucken wie voll der Speicher ist. Wie schon oben geschrieben. Die Kollegen von Digital Foundry sagen, dass viele Engines den VRAM Vollhauen um zu cachen. Das ist nicht wirklich nötig.
Dazu kommt, dass Entwickler durchaus für den Markt entwickeln und nicht im Vakuum. Wenn kaum einer 16 GB VRAM hat, dann sagen die nicht "Komm, lass uns ein spiel Entwickeln was 16 GB RAM braucht und sonst schlimm aussieht".

Weil ich ja auch 700+ Euro Ausgebe fürn Vram der aktuell gerade noch reicht..
Beitrag automatisch zusammengeführt:

Ich habe eben mal ein paar spiele getestet in 4k und alles Maximum mit der RTX2080TI

Control Raytracing+DLSS FPS 43-60 nach kurzer zeit 10800MB im VRAM die auflösung etwas höher gibt es dann probleme weil der VRAM überflutet wird
Wolfenstein Youngblood wieder Raytracing+DLSS FPS ca. 120+ auch sofort 10400MB VRAM verbrauch und pendelt sich dann bei 10900 ein. Auflösung etwas angezogen sofort harteruckler und dann den Crash weil der VRAM voll ist
Horizon Zero Dawn FPS 48-60 und VRAM wird in 4K überfluttet so das teilweise harte ruckler kommen und auch mal texturen fehlen.

Wie das ganze dann bei einer 10GB karte sein soll... naja

Wurde ja schon durchdiskutiert, frage mich eh warum sich manche den wenigen Vram schönreden..
Beitrag automatisch zusammengeführt:

Würde ich nicht wagen...
Viele vergessen die abnormen Stromspitzen. Es kann funktionieren, aber stell dich auch auf viele Crashes ein

Musste damals ein gutes 700W-Seasonic gegen ein 1000W austauschen, obwohl noch nicht alt gewesen
Aber halt viele Crashes...

Bin mal gespannt mit meinem Straight Power 11 750W und der 3090, ist auch noch recht Neu..
Beitrag automatisch zusammengeführt:

Würde ich nicht wagen...
Viele vergessen die abnormen Stromspitzen. Es kann funktionieren, aber stell dich auch auf viele Crashes ein

Musste damals ein gutes 700W-Seasonic gegen ein 1000W austauschen, obwohl noch nicht alt gewesen
Aber halt viele Crashes...

Bin mal gespannt mit meinem Straight Power 11 750W und der 3090, ist auch noch recht Neu..
naja zwischen reicht grade so und harte ruckler obwohl locker genug leistung da ist können schon 1GB ausmachen.
Nur mal als beispiel
Ich hatte COD Blackops 4 mit allem maximum problemlos gezockt mit der TitanX die ja 12GB hat aber bei der GTX1080Ti hat man nach paar minuten harte ruckler bekommen,
VRAM gibt es für mich nur eine devise "Haben ist besser als Brauchen"
Finde sogar die 2080Ti ist schon ein speicherkrüppel und reicht oftmalsgrade so für 4K.
Siehe Wolfenstein Youngblood wo man locker 100FPS+ hat mit Raytracing und allem max aber die karte bricht zusammen weil der VRAM nicht reicht

Genau deswegen gabs keine 2080Ti, bei 22GB Vram wäre ich evtl schwach geworden.
Bin bzgl Vram ganz auf deine Linie
Beitrag automatisch zusammengeführt:

Würde ich nicht wagen...
Viele vergessen die abnormen Stromspitzen. Es kann funktionieren, aber stell dich auch auf viele Crashes ein

Musste damals ein gutes 700W-Seasonic gegen ein 1000W austauschen, obwohl noch nicht alt gewesen
Aber halt viele Crashes...

Bin mal gespannt mit meinem Straight Power 11 750W und der 3090, ist auch noch recht Neu..
naja zwischen reicht grade so und harte ruckler obwohl locker genug leistung da ist können schon 1GB ausmachen.
Nur mal als beispiel
Ich hatte COD Blackops 4 mit allem maximum problemlos gezockt mit der TitanX die ja 12GB hat aber bei der GTX1080Ti hat man nach paar minuten harte ruckler bekommen,
VRAM gibt es für mich nur eine devise "Haben ist besser als Brauchen"
Finde sogar die 2080Ti ist schon ein speicherkrüppel und reicht oftmalsgrade so für 4K.
Siehe Wolfenstein Youngblood wo man locker 100FPS+ hat mit Raytracing und allem max aber die karte bricht zusammen weil der VRAM nicht reicht

Genau deswegen gabs keine 2080Ti, bei 22GB Vram wäre ich evtl schwach geworden.
Bin bzgl Vram ganz auf deine Linie
ich bin da eher skeptisch.
Auch mal ein Beispiel:
meine kumpels zocken ARK in 1080p und selbst da wurden die 8GB der 1080 gesprengt.

Es war bis jetzt immer so das sobald eine neue Konsolengeneration kam der bedarf an VRAM regelgerecht explodiert ist und mit meiner Alten TitanX war quasi alles egal weil es eben mehr als genug VRAM gab nur jetzt gibt es immer mehr Spiele die schon in die richtung 11GB + gehen und das wird nicht lange dauern das steht man wieder da.
wer 4K zocken will sollte auf jeden fall in Richtung RTX3080 20GB gehen.
Das wäre mein Rat dazu

Das neue streaming von der NVME platte ist na klar mega gut aber die PS5 kann 9Gb/s und die NV RTX3000 kann 14GB/s verarbeiten.
aber das müssen die Spiele dann auch unterstüzen und dann rechne auch mal aus was du investieren musst um die Geschwindigkeit zu erreichen.
da kannste dann auch gleich eine 3080 20GB kaufen


Genaus das, ich kauf lieber gleich vernünftig Vram bevor ich alles umbaue und es nur ein oaar Games unterstützen, meine 970 -evo Plus ist flott genug.
 
Zuletzt bearbeitet:
Für mich kommt auch nur die 3090 mit den 24Gb in Frage.
Was verbraucht ein aktuell-schrottiger Konsolenport wie Zero Dawn aktuell? 8GB...und da reden wir nicht von wunderschönen 8K Texturen
Es ist doch klar, dass die kommenden Konsolen da ne Schippe drauf legen werden und es bleibt wahrscheinlich, dass Konsolenports weiterhin lieblos umgesetzt werden.
Da kauf ich doch jetzt keine 10GB Karte...

Die einzige Frage ist, wie sich die FE-Designs schlagen (die ich optisch meilenweit vor den Customkarten sehe) und ob irgendwo ein faules Ei liegt (bspw. die 970 Vram Geschichte damals)
 
@Thrawn.

" Weil ich ja auch 700+ Euro Ausgebe fürn Vram der aktuell gerade noch reicht.. "

Hmmm Sehe ich ein. Hätte auch lieber 16 GB, klar. Aber ich zweifel an "gerade noch reicht". Ich denke schon das man noch 3-4 Jahre in 4K ohne fühlbare Einbußen damit klar kommt.
 
Würde ich nicht wagen...
Viele vergessen die abnormen Stromspitzen. Es kann funktionieren, aber stell dich auch auf viele Crashes ein

Musste damals ein gutes 700W-Seasonic gegen ein 1000W austauschen, obwohl noch nicht alt gewesen
Aber halt viele Crashes...

Bin mal gespannt mit meinem Straight Power 11 750W und der 3090, ist auch noch recht Neu..
naja zwischen reicht grade so und harte ruckler obwohl locker genug leistung da ist können schon 1GB ausmachen.
Nur mal als beispiel
Ich hatte COD Blackops 4 mit allem maximum problemlos gezockt mit der TitanX die ja 12GB hat aber bei der GTX1080Ti hat man nach paar minuten harte ruckler bekommen,
VRAM gibt es für mich nur eine devise "Haben ist besser als Brauchen"
Finde sogar die 2080Ti ist schon ein speicherkrüppel und reicht oftmalsgrade so für 4K.
Siehe Wolfenstein Youngblood wo man locker 100FPS+ hat mit Raytracing und allem max aber die karte bricht zusammen weil der VRAM nicht reicht

Genau deswegen gabs keine 2080Ti, bei 22GB Vram wäre ich evtl schwach geworden.
Bin bzgl Vram ganz auf deine Linie
ich bin da eher skeptisch.
Auch mal ein Beispiel:
meine kumpels zocken ARK in 1080p und selbst da wurden die 8GB der 1080 gesprengt.

Es war bis jetzt immer so das sobald eine neue Konsolengeneration kam der bedarf an VRAM regelgerecht explodiert ist und mit meiner Alten TitanX war quasi alles egal weil es eben mehr als genug VRAM gab nur jetzt gibt es immer mehr Spiele die schon in die richtung 11GB + gehen und das wird nicht lange dauern das steht man wieder da.
wer 4K zocken will sollte auf jeden fall in Richtung RTX3080 20GB gehen.
Das wäre mein Rat dazu

Das neue streaming von der NVME platte ist na klar mega gut aber die PS5 kann 9Gb/s und die NV RTX3000 kann 14GB/s verarbeiten.
aber das müssen die Spiele dann auch unterstüzen und dann rechne auch mal aus was du investieren musst um die Geschwindigkeit zu erreichen.
da kannste dann auch gleich eine 3080 20GB kaufen


Genaus das, ich kauf lieber gleich vernünftig Vram bevor ich alles umbaue und es nur ein oaar Games unterstützen, meine 970 -evo Plus ist flott genug.
Wahrscheinlich müsste man beim Kauf einer der neuen RTX 3000 GPUs auch ein noch ein neues Netzteil dazu rechnen? Hab ein Intel 10900 (non -K) und habe vor eine RTX 3070 zu holen. Reicht ein 750 Watt Netzteil (Corsair SF750)?


Sollte locker reichen.
 
Also mal abwarten was zukünftige Engines sich gerne so genehmigen. Wohl kaum ein Entwickler wird allerdings darauf bauen, dass in Jahren jeder 16 Gigabyte hat bzw. dass Ultra Einstellungen 16 Gigabyte vorraussetzen. Wohl eher in 4-5 Jahren

Das wurde auch schon vor 4-5 Jahren behauptet.
Meine Glaskugel sagt, dass wir vor 8k überhaupt keine 16 GB brauchen (wie immer der Disclaimer, dass massives Modding und ini Settings das vorziehen können, aber damit nicht dem Massenmarkt entsprechen.
 
mein rekord mit zwei nvidiakarten im intelsys liegt bei 1.1kw aus einem 850w netzteil. das kann durchaus eine gewisse zeit gutgehen. ich weiss nur nicht, wie fahrlässig sowas ist, wenn ein unversierter user ohne die möglichkeit die steckdose zu messen so einen rechner einfach laufen lässt.. *kopfkratz*

@dimi0815
LG55C97LA (deutsches modell mit 2x tripletuner, 48gbits HDMI-2.1-eingänge)

@punksods
ja, die jahre waren toll.. habe ich auch durch.. c16, c64, amiga und 1989 der erste 286er mit 12MHz und CGA grafik.. die erste soundblaster.. die ersten grakas mit 256kb.. 3d zusatzkarten.. das erste SLi.. bäm... scheiss backflash

bogen zum thema -> billig war es nie

@Thrawn
doppelte speicherbestückung (wenn beidseitig) ist aufwendiger zu kühlen, verbrät mehr strom und es kann sogar notwendig sein, noch die eine oder andere lage PCB mehr zu verwenden. auch die spannungsversorgung auf der karte ist dann eine andere als für einseitig bestückte modelle.. das macht für hersteller wenig sinn, denn für das gros der endkunden werden die karten dann nur unnötig teuer und weil der zusätzliche RAM auch am powerlimit saugt, wahrscheinlich langsamer.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Für mich kommt auch nur die 3090 mit den 24Gb in Frage.
Was verbraucht ein aktuell-schrottiger Konsolenport wie Zero Dawn aktuell? 8GB...und da reden wir nicht von wunderschönen 8K Texturen
Es ist doch klar, dass die kommenden Konsolen da ne Schippe drauf legen werden und es bleibt wahrscheinlich, dass Konsolenports weiterhin lieblos umgesetzt werden.
Da kauf ich doch jetzt keine 10GB Karte...

Die einzige Frage ist, wie sich die FE-Designs schlagen (die ich optisch meilenweit vor den Customkarten sehe) und ob irgendwo ein faules Ei liegt (bspw. die 970 Vram Geschichte damals)
Also 800 Euro mehr ausgeben, damit schrottige Konsolenports der Zukunft nicht ruckeln? Naja... Ich lege es darauf an. Und wie vorhin schon jemand schrieb: Für die 800 Euro auf dem Konto kann ich dann auch in 2021 ne 3080Ti mit 16GB oder in 2022 eine 4080 mit 16GB kaufen.

Edit: Aber ist ja ein Hobby. Andere halten auch leute die generell 700 Euro für eine Graka ausgeben für bescheuert. Ich kann mich durchaus begeistern für die 3090, genau so wie für andere tolle Spielzeuge.
 
@krakos

Danke für den Text :d... Abgesehen davon das Nvidia natürlich sagen muss das das reicht und jetzt nicht sagen kann "ach, 10 Gb reichen übrigens nicht"... Das deckt sich mit dem was auch Digital Foundry sagt. Selbst wenn der VRAM voll ist, heißt das nicht, dass das nötig ist. Es wird eben auch gecacht. Und darauf kann man mit schnellen SSDs und RTX-IO vielleicht sogar gut und gerne verzichten. Aber wer gerne noch einmal ein Jahr auf das Facelift in Form der Ti mit mehr Speicher warten will, kann das ja gerne tun. Dann ist es aber auch nicht mehr so lange bis zu 4000der. Die hat dann auch wieder zu wenig Speicher in 2022 :d

Die mehr Speicher versionen sollen doch recht schnell kommen, was hast du mit einem Jahr ?
Beitrag automatisch zusammengeführt:

Wenn man einen 144hz monitor hat will man nicht mit 70fps spielen, außerdem sieht man im video dass sogar durchgehend 144fps in 4k möglich sind nun :) (weitesgehend)

Istja auch so nötig beim Singleplayershooter..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh