Na, man kann natürlich nen Grashalm mit 32k Textur einbauen, um den VRAM künstlich voll zu bekommen.
Das wäre natürlich total doof von einem Entwickler, außer er bekommt dafür, sagen wir.... einen Zuschuss,... als Entwicklungshilfe!
So eine Praktik hätte ich eher von Intel, oder sogar NVidia erwartet, aber wir alle wussten ja, dass AMD nicht besser ist, sobald die Produkte vorne sind.
Well played. Hatte schon Angst, dass AMD evtl. der Biss fehlt, aber hier ist zumindest mal ein Indiz, dass es daran nicht scheitern wird.
Das nennt sich eben Fortschritt. 8 GB gibt es seit 2016 und wir haben nun fast 2021, also fünf Jahre...
es zwingt einen ja niemand 4k in "ultra" details zu spielen. muss halt "hoch" langen.
Eher ein Mix aus Einstellungen. Damals mit der 1070 habe ich festgestellt dass "Hoch" und "Ultra" bei Beleuchtung und Schatten keinen sichtbaren Effekt brachten. So konnte man sich die 1080 sparen und BF1 lief trotzdem super.
Soll jeder für sich machen wie er denkt es gibt ja auch Leute die wechseln ihre Karte nach noch nicht mal einem Jahr und sehen eine 3080 nur als Übergangslösung an .
Es hat nicht jeder das selbe Setup beim Monitor der eine spielt 200HZ dem anderen reichen 60 alles auf Ultra 4K+Usw.
Jeder hat sozusagen seinen oder keinen Masterplan! 🤪
Völlig richtig, nur würde ich nicht einsehen fast 1 K für eine Übergangslösung hinzulegen. Ich habe rund 500 € ausgegeben und werde mit Glück noch Gewinn machen, würde die 3070 500 kosten würde ich auch nicht so klagen als wenn diese Karte das kostet was sie eben kostet. Darüber hinaus ist sie immer noch langsamer als eine 2080 Ti... "Fast" ist auch daneben.
60 Hz sind eine reine Gewohnheitssache. Angefangen habe ich mit ~25 FPS in 640 x 480, die Konsolenspieler sagen ja immer mehr FPS sieht das Auge nicht
Dann kam eine Laptopphase in der man mit 40 FPS schon zufrieden sein konnte, irgendwann realisierte ich dann dass um einen Desktop nichts herum geht wenn man sinnvoll investieren möchte. Dazu kommt dass man nach 2-3 Jahren einfach eine neue GPU kauft und weiter zufrieden zocken kann. Nachdem die Laptopphase endete stieg die K/D in BF4 recht schnell von 0,42 auf 1+. Mag zwar sein dass man mit 100+ FPS mal ein paar Kills mehr macht, dafür zocke ich eben in maximaler Grafikqualität - Bislang immer ein Kompromiss, aber bald werden (relativ) bezahlbare 4K144-Monitore flächendeckend Einzug gehalten haben und Freesync geht immer. Alles spricht für eine Radeon. Es klingt fast zu gut um wahr zu sein - Darum heißt es nun abwarten, ob die UVP tatsächlich eingehalten werden.
999 US-$ entspricht 856,97 Euro. Macht also so ziemlich genau 1 K, da ist also noch eine Hoffnung dass die 6900 XT dann am Ende tatsächlich so viel kosten wird. Bei der 3090 ist jeder (Hype)-Zug schon lange abgefahren, wer da eine FTW will kann locker 2 K+ hinlegen, selbst wenn ich die jetzt hätte, wäre ich dann mit einer 6800 und einem schönen 50+ Zoll 4K144-TV besser beraten. Mich würde es nicht wundern wenn BFV auf den Radeons besser laufen wird als mit NVIDIA. Notfalls dann eben mit RTX off - Dafür aber mit dauerhaften ~100 FPS.
8GB ist outdated, Punkt.
Reicht für 1080p vielleicht noch ein Jahr, aber wer spielt mit ner 3070 in 1080p, nur um nicht ins Vram limit zu laufen? Richtig - keiner.
Eigentlich sogar recht viele, nur eben nicht hier im Forum. Die Sache ist auch, keiner kauft sich eine ~1 K Karte für 1080p. Mir fiel schon auf dass 1080p oft gar nicht mehr getestet wird, da sowieso klar ist dass selbst eine obere Mittelklassekarte da locker über 100 FPS macht, also immer prozessorlimitiert ist. 240 oder 360 Hz gibt es sicher aber ob das sinnvoll ist ist fraglich, für die meisten die aus Genussgründen zocken macht ein 1440p oder 2160p dann schon mehr Sinn. Der Zugewinn an Bildqualität ist enorm. Gerade 2160p ist wie ein natürliches AA, da will man nicht mehr auf 1080p zurück.