Sind 6GB VRAM zu wenig? Eine Analyse mit Pro / Kontra Betrachtung

Tech Enthusiast

Enthusiast
Thread Starter
Mitglied seit
01.01.2016
Beiträge
3.609
Disclaimer:
Bitte die Fanboy-Mützen aus dem Topic rauslassen.
Es wird, zumindest in der Zusammenfassung, natürlich um AMD vs NVidia gehen und eine Diskussion ist erwünscht, aber bitte auf FAKTEN und messbaren Werten basierend.
Danke.

Quelle für die Überlegungen: Hardware Unboxed Video


Reichen 6gb VRAM heutzutage oder ist so eine GPU verkrüppelt?
Diese Frage taucht immer wieder auf. Gerade natürlich bei der RTX 2060, da sie nun offiziell die schnellste GPU mit nur 6gb VRAM ist und damit die GTX 980TI ablöst.

Warum kann man hier überhaupt einen falschen Eindruck bekommen?
Es gibt einen Unterschied zwischen belegtem VRAM und benötigtem VRAM (Erklärung der Quelle).
Ersteres ist das, was jeder daheim sofort sieht, wenn er ein Nutzungsoverlay wie MSI Afterburner / RivaTuner aktiviert. Im Prinzip wird mehr Speicher belegt, als eigentlich nötig wäre.
Dies kann Vorteile haben, da verschiedene Dinge vorberechnet werden können, muss aber nicht. Solange freier Speicher zur Verfügung steht, spricht aber nichts dagegen diesen auch zu nutzen.
Selbst wenn in nur 1 % der Fälle (Frames) ein Vorteil entsteht, hat man bereits einen Vorteil daraus. Also werden die meisten Gameentwickler hier lieber zu großzügig agieren, als zu sparsam.

Als Extrembeispiel:
Jeder, der etwas mit Java umgehen kann und ein "Hello World" programmieren kann, kann hier mal Spaßeshalber 8 gb an Bildern einfügen. Man kann die vollen 8gb in den Speicher ziehen, selbst wenn man nur ein 100mb Bild auf dem Bildschirm anzeigt.

Benötigter VRAM ist schwer zu messen alleine und ohne Vergleichs-GPUs.
Die wenigsten 0815 Gamer wissen überhaupt, dass es diese Unterscheidung gibt.
Es handelt sich hier um die tatsächlich verwendeten Daten, die gleichzeitig benutzt werden. Sozusagen die Unterkante bevor FPS beeinträchtigt werden.
Da man diesen Wert (meines Wissens nach) nicht in einem Overlay sehen kann, ist es einfacher zu viel Speicher zu kaufen "um sicherzugehen". Nötig ist dies aber nicht, bzw. kann sehr schnell, sehr teuer werden und dabei nicht mal einen Effekt haben.


Zahlen und Fakten aus der Quelle
Von den 36 getesteten Spielen belegen nur 4 (!) überhaupt mehr als 6gb VRAM, wenn dieser zur Verfügung steht.
Das sind im einzelnen: Quake Champions (7,6gb), Rise of the Tomb Raider (7,0gb), Resident Evil 2 (6,6gb) und Shadow of the Tomb Raider (6,5gb).

Von meiner Seite möchte ich die Überlegung adden, dass von den 4 Titeln nur Resident Evil 2 bei der RTX 2060 nahe an das VRAM-Limit ging. Bei den anderen Titeln wurden nur 5,3-5,7gb belegt.
Dies spricht in meinen Augen dafür, dass hier eigentlich noch gut Luft ist und die Entwickler es als sinnvoller ansehen den Puffer offen zu lassen, als ihn sinnlos zuzumüllen.

NVidia only Bonus (geringfügig): Die Komprimierung von Turing ist effizienter als bisher
Quelle: VRAM Allocation @ 1440p GTX 1060 vs RTX 2060 vs RTX 2070
Die 6gb von Turing sind also, geringfügig, besser als 6gb von Pascal. Dies soll kein NVidia loben sein, sondern nur aufzeigen, dass es mehr Faktoren gibt als die eine Zahl im Overlay.


Performancevergleich 6gb vs 8gb
Um zu messen wieviel Impact der geringere Speicher hat, hat Hardware Unboxed von 1440p auf 4k erweitert.
Es ist hier wichtig zu wissen, dass die RTX 2060 keine 4k GPU ist. Es ist also nicht relevant wieviel absolute FPS entstehen, sondern wie sich der Unterschied von 1440p auf 4k gegenüber der RTX 2070 verhält.

Außerdem sehr wichtig zu bedenken:
Die RTX 2070 hat 17% mehr Cuda Cores. Jede Differenz kleiner als 17% ist also definitiv kein VRAM Thema, sondern aufgrund der Rechenleistung erwartete Unterschiede.
Ein FPS Einbruch aufgrund von Speicher würde sich also zeigen indem der Unterschied zwischen 1440p und 4k deutlich größer als das ausfällt.

Quake Champions
RTX 2060 (139fps) -> RTX 2070 (149fps) => 7% bei 1440p
RTX 2060 (73fps) -> RTX 2070 (80fps) => 9% bei 4k.
Quasi im Rahmen der Messtoleranz. Wäre 1fps mehr gemessen worden, wäre der Unterschied 0.

Rise of the Tomb Raider
RTX 2060 (74fps) -> RTX 2070 (77fps) => 4% bei 1440p
RTX 2060 (41fps) -> RTX 2070 (47fps) => 13% bei 4k.
Hier ist der Unterschied größer geworden. Da beide GPUs aber hart am Limit sind, ist ein 3fps Delta schwer auf den VRAM zu schieben.
Selbst wenn die kompletten 3fps Delta aufgrund des VRAMs wären, würde man das wohl so gar nicht bemerken. Ein "kompletter Einbruch der FPS" ist das auf jeden Fall nicht.

Shadow of the Tomb Raider
RTX 2060 (58fps) -> RTX 2070 (65fps) => 11% bei 1440p
RTX 2060 (31fps) -> RTX 2070 (37fps) => 16% bei 4k.
Wie zuvor: Der FPS Unterschied ist komplett durch die geringere Cudaleistung zu erklären.

Resident Evil 2
RTX 2060 (81fps) -> RTX 2070 (91fps) => 11% bei 1440p
RTX 2060 (40fps) -> RTX 2070 (46fps) => 13% bei 4k.
Selbes Bild.


Diskussion über Sinn / Unsinn und Auswirkungen für die Kunden

Punkte aus der Quelle:

  • 6GB VRAM sind sogar für 4k ausreichend. Kein FPS Einbruch konnte gemessen werden in 36 Games.
  • Es wird angezweifelt ob die 2060 genug Leistung haben wird, wenn "in der Zukunft, irgendwann" Spiele wirklich 6gb knacken.


Meine Punkte und Takeaways:
NVidia scheint genau so viel Speicher zu spendieren wie sinnvoll ist, um den Preis nicht noch weiter zu erhöhen (da RT ja nicht gerade billig ist).
AMD hingegen scheint gerne Augenwischerei zu betreiben und damit ein Problem für alle Kunden (auch NVIdia) zu generieren.

Größere Zahlen sind nicht einfach nur immer besser. Speicher ist verdammt teuer.
Sicher würde jeder Kunde, gleicher Preis vorrausgesetzt, lieber 20gb als 2gb haben, aber so funktioniert Preis nunmal nicht. Es ist also nötig einen sinnvollen Weg zu gehen zwischen "nötig" und "mehr Puffer".

Dieser Test hat nun gezeigt, dass 6gb sogar für 4k ausreichend sind. Auch wenn die Rohleistung der RTX 2060 nicht ausreichend ist.
Was bedeutet das aber dann für eine RX 580 mit 8gb? Nun, sie hätte mit 4 oder 6gb deutlich billiger sein können und damit mehr Druck auf NVidia ausüben können. Die Leistung wäre die selbe, aber alle Preise wären geringer.
Alternativ hätte AMD viel mehr Marge haben können und damit mehr Gelder für Entwicklung.
Noch extremer bei der Kommenden Radeon 7. Mit 16gb ist man mal locker flockig 10gb über dem was aktuell für 4k benötigt wird. Nochmal: Benötigt ist nicht gleich belegt! Der Unterschied ist relevant.
Wir reden hier über einen vermuteten Preisunterschied von 100-150 Euro, wenn die R7 mit 8gb kommen würde. RTX 2080 Leistung für 550 Euro wären das dann. Ein riesen Gewinn für alle! Stattdessen wird es wohl nördlich von 700 Euro liegen und damit gar nichts bewegen leider.

Um meinen Punkt zusammenzufassen:
AMD könnte den Markt gewaltig aufmischen mit geringeren Preisen. Sie könnten NVidia zu Preiscuts zwingen.
Stattdessen betreiben sie Augenwischerei und werden dafür sogar gelobt, statt kritisiert. Gerade AMD Fans sollten hier gezielt hinterfragen und nicht blind verteidigen. Wärend NVidia neue Technik pusht auf ihre Kosten, pusht AMD Augenwischerei auf Kosten der Kunden.

Nochmal:
Mehr Speicher ist natürlich besser als weniger. Solange es den Preis nicht unnötig (!) beeinflusst. Aber wo würdet Ihr das Limit setzen?
Braucht eine 1440p GPU wirklich mehr Speicher als für 4k benötigt wird?
Was haben wir von GPUs die für 1080p gedacht sind, aber 8gb Speicher haben?
Wofür 16gb Speicher, wenn der die ganze Zeit idle ist und hunderte von Euro kostet?

Mich würde interessieren ob es noch andere ausführliche Tests in diese Richtung gibt. Oder Punkte die hier nicht bedacht wurden.
Bitte haltet sinnlose "aber ich glaube das,..." oder "aber der andere ist doof weil,..." aus dem Topic raus. Es soll um messbare Daten gehen, nicht um persönlichen Groll gegen Farbe X. :-)

Edit 1:
Danke an Cool Hand für diesen Frametime Test: --> Nvidia GeForce RTX 2060 FE im Test (Seite 5) - ComputerBase
Da die GPU bei den Tests knapp am Limit ist, können wir nicht einwandfrei sagen, ob wir hier ein VRAM Limit sehen, oder ein allgemeines Leistungslimit.
In FFXV z.B. würde eine schnelle Drehung des Characters reichen um eine komplette Neuberechnung des Screens zu erfordern, die wohl auch unter 60fps fallen würde. Wie man das nun dem Speicher, oder der Rohleistung zuschreiben kann, ist mir nicht ganz klar.
Framedrops bei schnellen Bewegungen kennt sicher jeder vom eigenen System. Auch wenn der Speicher nicht voll ist.
Tests die nicht am Leistungslimit laufen wären sinnvoll und wenn sie auftauchen adde ich sie hier.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ziemlich sinnlos ohne Frametime Messung. Aber keine Angst, das haben schon andere für dich gemacht, wie z.B. CB. Bei einigen Spielen bekommt man deutliche Frametime Spikes.
 
Disclaimer:
Bitte die Fanboy-Mützen aus dem Topic rauslassen.

Meine Punkte und Takeaways:
NVidia scheint genau so viel Speicher zu spendieren wie sinnvoll ist, um den Preis nicht noch weiter zu erhöhen (da RT ja nicht gerade billig ist).
AMD hingegen scheint gerne Augenwischerei zu betreiben und damit ein Problem für alle Kunden (auch NVIdia) zu generieren.

Gerade AMD Fans sollten hier gezielt hinterfragen und nicht blind verteidigen. Wärend NVidia neue Technik pusht auf ihre Kosten, pusht AMD Augenwischerei auf Kosten der Kunden.

Und das soll jetzt nicht einseitig zugunsten Nvidias formuliert sein? :lol:
 
vielleicht bedeutet mehr VRam einfach nur mehr Texturschärfe in der Entfernung.

Das ist ohne Frage der erste Punkt, bei dem man Speicher sparen kann, natürlich. Das würde man aber auch nicht in einem Overlay sehen. Die belegte Menge wäre die Selbe, nur die benutzte Menge würde sinken.
Da fällt es nahezu nicht auf, außer auf Screenshots, Ansel usw., aber liefert deutliche Einsparungen.

Die Überlegungen sollten aber nicht auf "wie spare ich an Grafik, um weniger Speicher zu brauchen" hinausführen, sondern auf "wie viel benötige ich, ohne Einsparungen zu machen".
Ich fand es z.B. sehr überraschend, das 6gb für 4k komplett ausreichend sind. Ich bin bisher auch treu doof davon ausgegangen, dass 4k schon bei 8k kaum machbar ist. Sowas testet man daheim halt nicht nebenbei,... daher fand ich das Video so spannend.
 
Ziemlich sinnlos ohne Frametime Messung. Aber keine Angst, das haben schon andere für dich gemacht, wie z.B. CB. Bei einigen Spielen bekommt man deutliche Frametime Spikes.

Kann ich nur zustimmen, Spiele können auch mit 300+ fps unspielbar sein wenn die Frametimes scheiße sind.
 
Und das soll jetzt nicht einseitig zugunsten Nvidias formuliert sein? :lol:

Wie würdest Du das formulieren, wenn ich fragen darf?
Das sind die messbaren Tatsachen. Wie darf ich sie umschreiben, ohne das es einseitig wirkt, obwohl es einseitig ist?

- - - Updated - - -

Ziemlich sinnlos ohne Frametime Messung. Aber keine Angst, das haben schon andere für dich gemacht, wie z.B. CB. Bei einigen Spielen bekommt man deutliche Frametime Spikes.

Hast Du da einen entsprechenden Link zu diesen Tests?
 
leider ist wohl gerade die kombi dxr + 6gb problematisch. also ohne dxr 6gb ok und ausreichend, mit dxr 6gb wohl eher zu wenig. schlussfolgerungen dazu sind jedem selbst überlassen :)

wäre mal interessant zu sehen wie sich das bei 2070 / 2080 und dxr auf ultra verhält

hatte das mal im 2060 test thread dazu geschrieben:

mal unabhängig von verfügbarer software, preis, etc... fand es schon nicht schlecht, wie die 2060 ray tracing @1080p/60fps in bf5 schafft - klar nicht auf ultra.

leider bestätigt sich im video von digital foundry auch, dass eben doch mehr als 6gb ram durchaus wünschenswert sind, gerade bei aktiviertem dxr.

Battlefield 5 DXR vs RTX 2060: Is 1080p60 Ray Tracing Really Possible? - YouTube
 
Meine Punkte und Takeaways:
NVidia scheint genau so viel Speicher zu spendieren wie sinnvoll ist, um den Preis nicht noch weiter zu erhöhen (da RT ja nicht gerade billig ist).
AMD hingegen scheint gerne Augenwischerei zu betreiben und damit ein Problem für alle Kunden (auch NVIdia) zu generieren.

Wenn denn nun 6 GB pauschal ausreichend wären, warum hat schon die Vorgängergeneration ab der 1070 8 GB und mehr gehabt? Warum hat eine 2080 TI dann satte 11 GB VRam? Weils Augenwischerei ist?

Auf der Grundlage eines Youtube-Videos solche Aussagen zu treffen halte ich für sehr gewagt.

Schon HiRes-Textur-Mods können für eine ganz andere Situation sorgen, mit Skyrim und passenden Mods z.B. bringt man immer noch jede Grafikkarte ins Schwitzen.
Gerade AMD Fans sollten hier gezielt hinterfragen und nicht blind verteidigen. Wärend NVidia neue Technik pusht auf ihre Kosten, pusht AMD Augenwischerei auf Kosten der Kunden.

nVidia pusht auf eigene Kosten? Darum sind die RTX also so preiswert geworden ... Nimmt man hingegen die 16 GB HBM2 der neuen Radeon VII zum Vergleich, dann bietet AMD hier etwas "auf eigene Kosten" an und nicht nVidia.
Was war da mit der 970 und nur 3.5GB Speicher, die ordentlich angebunden waren...

Zu berücksichtigen ist auch, dass unterschiedliche Chips die Texturen unterschiedlich gut komprimieren und auch das nachladen über PCIe durchaus unterschiedlich gelöst ist. Und die Frage bei den AMD-Chips wie der 580/590 ist auch, ob die denn mit "krummem" Speicherinterface arbeiten können und 6 GB technisch möglich sind oder ob man da nicht schlicht nur die Wahl zwischen 4 und 8 GB hat ...
 
Der 2060 fehlts in 4K nicht an VRAM (hier und da vllt auch das), sondern an Cuda Cores, Speicherbandbreite und ROPs.
 
Er hätte besser geschrieben, dass 6 GB ausreichend sein können, aber nicht unbedingt sein müssen. Dass sie es in bestimmten Konstellationen selbst in FHD (ohne Raytracing) nicht sind, ist ja wohl hinlänglich belegt.
 
Zu diesem Thema würde ich gerne auch mal eine ehrlich reflektierte Meinung hören ...
 
Zuletzt bearbeitet:
Was jetzt hier noch nicht so rauskam:
1. Das ist der Stand heute. Bei einer Nutzungsdauer der GPU von 2 bis 3 Jahren kann es später anders aussehen.
2. AMD und Nvidia werden wohl verschieden effiziente Texturkompressionen haben. Heisst 6gb bei Nvidias 1060 oder 2060 müssen nicht zwingend aquivalent zu AMDs "6gb" auf einer RX580/590 sein (die gibts ja nur mit 4 und 8gb).
3. Frametimes fehlen noch.

Was ich gut finde ist generell mal anzusprechen das belegter Vram nicht zwingend auch benötigter Vram sein muss. Ist mehr Vram da, können "alte" Daten länger im Spreicher verbleiben und so Nachladeruckler effizient vermieden werden. Das insgesamt mit der RTX 2060 argumentiert wurde ist für mich uach kein Fanboygehabe, sondern speziell diese Karte sollte derzeit am ehesten von mangelndem Vram betroffen sein. Eben weil sie "nur" 6gb hat.

Er hätte besser geschrieben, dass 6 GB ausreichend sein können, aber nicht unbedingt sein müssen. Dass sie es in bestimmten Konstellationen selbst in FHD (ohne Raytracing) nicht sind, ist ja wohl hinlänglich belegt.

Ist halt immer die Frage wie häufige diese Konstellationen vorkommen und wie stark die Einbuße ist. Gibt bestimmt genügend Spieler die nie einen Nachteil bemerken weil sie nur Counterstrike und DOTA spielen :d
 
Zuletzt bearbeitet:
Naja selbes Thema wie mitm Ram - kannste 8, 16, 32 gig nehmen, das meiste wird auch gut noch in 8Gb komprimiert gepackt (4/6gb Vram), haste 16 wirds halt "verschwenderisch ausgenutzt" (8gb Vram) - weil ist ja da, also kann man schon mal was zwischenspeichern. 32Gb ist für mich wie 11gb aufwärts - nice to have aber einen RICHTIGEN und SINNVOLLEN nutzen wirds aktuell nicht erfüllen - ja auch 32gb und mehr kriegt man voll wenn man will.. effizient und "normal" ist das idR aber eben nicht. :)


Ist aufjedenfall mal nett konstruktiv zu diskutieren, statt zu bashen.
 
Das Thema 4K in Verbindung mit GTX 1070 und 2060 zu beleuchten ist schon von vorn herein Unsinn.
Selbst mit meiner 2080 Ti möchte ich nicht 4K spielen, weil die Leistung einfach nicht ausreicht.

Die Debatte ist generell auch Unsinn, weil dann wieder Hawaii und Kepler Keule geschwungen wird. Ob ich in 4K nun 32 oder 37 FPS habe - beides ist unspielbar und damit hat sich die Sache erledigt.
 
Reichen 6GB oder nicht?
Hat jeder selbst in der Hand, dazu hat der Entwickler uns Regler gegeben.



Und es soll durchaus Engines geben, die bei Vram Mangel die hohen Texturstufen gar nicht erst freischalten.
Will man Eyecandy bezahlt man Vram, ist es einem egal, lässt man es.

Und ob es was mit der Auflösung zu tun hat? Nur am Rand. Es sind die Texturen, nicht die Auflösung, die das Vram brauchen.



Das ihr das gleich wieder auf die FPS reduzieren müsst ... gibts echt nix anderes?
 
Zuletzt bearbeitet:
Das Thema 4K in Verbindung mit GTX 1070 und 2060 zu beleuchten ist schon von vorn herein Unsinn.

Ja ne... Es ging hier ja nicht um spielbare fps sondern um den fps Verlust durch zu wenig Vram... Und das am Besten zu 100% im Gpu Limit. Da find ich 1440p und 4K perfekt geeignet für. Ist halt ein ähnlicher Fall wie das Cpu Limit in 720p bei vollen Details zu ermitteln. In der Praxis spielt so niemand, aber die Limits kann man perfekt ausloten.

Viel interessanter wäre zu wissen, was in aktuellen Spielen wirklich passiert wenn zu wenig Grafikspeicher vorhanden ist also ein Praxistest GTX1060 3GB vs. 6GB.

Blöderweise haben diese beiden Karten auch unterschiedliche Shaderzahlen. Ggf. wäre eine RX570 4gb und RX570 8gb oder die RX580 als 4/8gb Variante besser geeignet.
 
Zuletzt bearbeitet:
Der Test hat aber auch gezeigt das nur Benchmarks gelaufen sind. Die wirkliche Nutzung von Vram besteht teilweise auch darin das bestimmte Texturen bevor der tatsächlichen Nutzung in den Vram geladen werden um Übergänge so "sanft" wie möglich zuhalten. Dies passiert bei Benchmarks nicht. Alleine deswegen sind solche "Tests" schon mit Vorsicht zugenießen.

Dieses "Kein Fanboy blabla" und dann in Drei Sätzen gegen AMD zu haten ist ebenso total unnötig und kindisch..
 
6GB VRAM sind ausreichend, wenn die Regler betätigt werden (oder das Spiel streamt von alleine mit Matschtexturen), um Mikroruckler zu vermeiden. Ändert nichts daran, dass die RTX 2060 für das Jahr 2019 einfach eine unzeitgemäße Speichergröße hat. Finde 8 GB VRAM schon grenzwertig, die Radeon VII ist eine gute Bereicherung für Leute die hübsche Texturen oder Mods mögen.
 
Zuletzt bearbeitet:
Liest sich wie "scheisse ich hab ne 2060" gekauft und suche nach einer Rechtfertigung und hate erstmal gegen AMD, weil die ja mehr Speicher haben und Speicher teuer ist. Dabei ist genau das Gegenteil der Fall. Speicher wird günstiger.
Und das NVIDIA eine TI 11GB hat verschweigst du natürlich. Nimm mal deine NVIDIA Kappe ab ;)
Und ja Mann kann auch mit einem 300Ps Auto in der Stadt fahren oder mit einem 50Ps smart mit beiden komme ich zum Ziel.

Wie ander bereits sagten...Frametimes!





Gesendet von meinem SM-G950F mit Tapatalk
 
Das ist ja wieder mal zum "trollen", es ist nur komisch, das meine Vega 64 In spielen wie z.B. PubG, BFV oder Far Cry 5 Ständig mit 7-8GB im Vram rumläuft in maximalen Einstellungen in 2K. Der verbrauch senkt sich sofort wenn ich in High oder Mittel Spiele.

Auch wird hier vergessen, dass es spiele gibt, die bei zuwenig vram garnicht erst alles freigeben an Einstellungen.

Am ende haben die Entwickler uns "regler" gegeben um das beste ergebniss aus FPS und Optik zu generieren, jemand mit 4-6GB Ram, wird Zwangläufig anders einstellen als jemand mit 8-16GB.

Es wurden schon soviele tests gemacht zur VRAM belegung und da waren teilwese 8Gb schon nicht ausreichend.

Es klingt am ende alles nach AMD bashing und trolling
 
Denke das in zukünftigen Graka-Test auch inspiriert durch die Radeon7 mehr auf das Thema V-Ram Verbrauch eingegangen wird.
Interessant wäre das jedenfalls. :)
 
Ein weitere Problem von solchen Tests ist auch die Bench Dauer Teilweise 30-40 sek oder mit kurzen Ausschnitten wo die Szene gleich geändert wird usw.
 
Viel interessanter wäre zu wissen, was in aktuellen Spielen wirklich passiert wenn zu wenig Grafikspeicher vorhanden ist also ein Praxistest GTX1060 3GB vs. 6GB.
Programmierer sollten in der Lage sein Codes zu schreiben die erkennen wie viel Speicher zur Verfügung steht und das Spiel dementsprechend so zu konfigurieren,
dass es nie ruckelt also entweder intelligentes Texturstreaming oder von Anfang an die Bildqualität so zu begrenzen, dass es nie zu Performanceproblemen kommt.

Kann ich dir sagen, hab bis vor 1 Woche ne 970 ("leider" im SLI Bund was nichts taugte bis auf bei 2 Titeln..) gehabt und jeden Tag Forza Horizon 4 gespielt.
Der Vram war quasi IMMER voll, witzig zu beobachten war, im Fotomodus, wenn man sich schnell um 180 Grad gedreht hat wie da nur Matsch Texturen waren die er in ner Sekunde direkt "fließen" in Scharfe gewandelt hat (kein harter Cut sondern eben immer schärfer einblendend) und das kann man da jedes mal neu provozieren. Das hat meine RTX 2060 zB nicht mehr. Gemerkt in "Framtimes" bzw FPS hab ich das exakt 0 und ich merke es schon wenn ich bei meinem 1080p 60Hz Schirm auf 58FPS Falle und/oder mal n kleiner Zuppler trotz 60FPS Vsync erscheint.

Ehrlich gesagt hat mans halt nur daran gemerkt, das hier und da Texturen eben nachgeladen wurden - aber eben nur optisch zumindest bei dem Titel, mag auch inzwischen gut optimiert sein.
Hats mich gestört..? Nö.. heutzutage sind sogar bei den Meisten Spielen die schlechtesten Texturen akzeptabel und bei schnellen Spielen mit Motion Blur sowieso kaum kerbar ob da jetzt die Ultra Texturen geladen wurden oder eben nur hoch - gar mittel. Klar wenn mans provoziert und drauf acht gibt kann mans merken. :)

Bei anderen Titeln wie NFS Payback hat mans schon eher mal mit Mikrorucklern, viel mehr aber mit spät aufploppenden Objekten/Texturen gemerkt, da scheint die Engine nicht so großzügig zu sein. Also mit optimierten Engines merkt mans im Spielfluss kaum, bei schwächeren Engines kanns schon hier und da zuppeln wenn man nichts an den Reglern macht.
 
Nvidia GeForce RTX 2060 FE im Test (Seite 5) - ComputerBase

Frame Time Messungen sollten heutzutage in jedem Test dabei sein.
Was bringen mir 100 FPS wenn sie trotzdem Ruckeln?

Danke für den Link. Werde das im OP adden.
Leider sind diese Messungen bei Games bei denen die RTX 2060 mit biegen und Brechen 60fps knackt. Besonders FFXV.
Ist etwas gewagt da zu viel rein zu interpretieren und auf den Speicher zu schieben, wenn eine kurze Drehung des Characters auch einen Framedrop bewirken kann.
Die 8gb 2070 ist da z.B. auch mit Spikes dabei, wenn auch kleinere, aber eben auch Spikes unter 60fps. Ob mehr VRAM solche Spikes ausgleichen kann, wenn die Rechenleistung selber nicht reicht in der Sekunde, ist leider nicht ersichtlich so am Limit.

Gibt es derartige Tests auch bei Games die nicht am Limit laufen von den FPS?
 
Bitte berücksichten:

Die HBM Packages gibt es in Größen zu je vier GB.
GDDR5 und 6 jeweils in ein GB großen Happen.

Warum? Da HBM weniger verbrauchen und schneller sein sollte als GDDR5 Speicher, wurde dies unter anderem durch Stapel der verfügbaren DRAM Module erreicht.
Problem gelöst: Schneller Speicher, kompakter und weniger hungrig.

AAAaaaber was macht nun ein Hersteller? Nur vier GB Speicher in heutigen Zeiten anbieten? Nicht zu empfehlen, die kann man nämlich wirklich voll bekommen. Und nach der "Fury hat nur vier, reicht aber" Geschichte, war der Zug "zu kleiner Ausbaustufen" bei AMD abgefahren.
Das ging schon mit GTA 5 in gewissen Szenarien.
Also wird auf zwei Module je vier GB gegangen, resultierend in acht GB.

Da nvidia die Notwendigkeit für HBM in Ihrer Struktur nicht als gegeben gesehen hat, wurde hier darauf verzichtet. Stattdessen wurden die zu mageren vier (oder auch nur 3.5 :P) GB auf sechs GB vergrößert.
AMD hätte eventuell auch andere Größen genommen, wenn es physikalisch möglich gewesen wäre. Ging aber nicht.

So gibt es nun das Bild "AMD hat mehr Speicher" vs. "nvidia braucht weniger" weil mehr optimiert.

Auf lange Sicht, wird eine AMD Karte länger durchhalten (sollte diese jemand längere Zeit benutzen) und auch bei Titeln in ferner Zukunft mehr Speicher bieten.
6GB sind ein gutes Mittelmaß für die "kleinen Karten" in ferner Zukunft, reichen aktuell aber bequem für AAA Titel in hohen Auflösungen.

Hier muss und sollte sich dann der Kunde fragen was er in Bezug auf Lieblingsfarbe, Preisgestaltung, Heizleistung und RAM Ausbau bevorzugt.
 
Wenn denn nun 6 GB pauschal ausreichend wären, warum hat schon die Vorgängergeneration ab der 1070 8 GB und mehr gehabt? Warum hat eine 2080 TI dann satte 11 GB VRam? Weils Augenwischerei ist?

Weil es ab einem gewissen Preis nicht mehr so ins Gewicht fällt.
Eine 1080ti kostet rund 30 Euro mehr aufgrund der 8->11gb. Bei einem 700 Euro Preis wohl nicht so wild.
Eine RX 580 mit 4 -> 8gb kostet dann 40 Euro mehr, bei einem 200 Euro Gesamtpreis.

Es geht mir hier nicht darum zu behaupten 6gb würden immer reichen.
Ich möchte eine Diskussion anregen ob Einsteigerkarten auf Teufel komm raus so viel brauchen, oder ob wir hier unnötig Geld hinlegen als Kunden.

Schon HiRes-Textur-Mods können für eine ganz andere Situation sorgen, mit Skyrim und passenden Mods z.B. bringt man immer noch jede Grafikkarte ins Schwitzen.

Man kann immer mehr Texturen adden. Soll deswegen der 0815 Spieler draufzahlen unnötig?
Würde jemand der Skyrim mit 16k Texturen spielen will,.. nicht einfach ne GPU im entsprechenden Segment kaufen, statt eine Einsteigerkarte?
Sinnhaftigkeit ist das Thema hier. Nicht Extremfälle.

nVidia pusht auf eigene Kosten? Darum sind die RTX also so preiswert geworden ... Nimmt man hingegen die 16 GB HBM2 der neuen Radeon VII zum Vergleich, dann bietet AMD hier etwas "auf eigene Kosten" an und nicht nVidia.
Was war da mit der 970 und nur 3.5GB Speicher, die ordentlich angebunden waren...

Du glaubst also NVidia hätte keine bessere Marge gehabt, wenn sie RT weggelassen hätten und einfach nur 50% mehr Leistung gebracht hätten?
Und Du glaubst auch, dass die R7 nicht billiger sein könnte mit 8gb?

- - - Updated - - -

Er hätte besser geschrieben, dass 6 GB ausreichend sein können, aber nicht unbedingt sein müssen. Dass sie es in bestimmten Konstellationen selbst in FHD (ohne Raytracing) nicht sind, ist ja wohl hinlänglich belegt.

Kannst Du diese Belege verlinken bitte?
Dann würde ich sie im OP adden.

- - - Updated - - -

Programmierer sollten in der Lage sein Codes zu schreiben die erkennen wie viel Speicher zur Verfügung steht und das Spiel dementsprechend so zu konfigurieren,
dass es nie ruckelt also entweder intelligentes Texturstreaming oder von Anfang an die Bildqualität so zu begrenzen, dass es nie zu Performanceproblemen kommt.

In dem Video, das ich verlinke wird genau das sogar gezeigt.
Spiele belegen zwar mehr als 6gb bei der 2070, dann aber nur 5,3gb bei der 2060.
Es wird also gezielt Spielraum nach oben gelassen, um Dinge wie schnelle Drehungen abzufangen.

@even.de
4k ist nicht Bestandteil dieses Themas, es wurde nur in dem Video benutzt, um relative Performance Einbrüche zu erkennen.
Bei dem Sprung von 1440p auf 4k hat sich die relative Leistung (und nur darum ging es, relative Leistung) nicht stark verschoben. Sie blieb in allen Fällen im Bereich des Erwarteten aufgrund der geringeren Cudaleistung.

Man sollte auch nicht vergessen:
Von den 36 getesteten Spielen haben nur 4 überhaupt 6gb belegt auf maximalen Settings. Und dabei reden wir noch von belegtem, nicht benutztem Speicher.

Ein Test zu Frame Times in Spielen die nicht an der Cudaleistung scheitern wäre sehr spannend. Hat da jemand was gefunden?
 
Danke für den Link. Werde das im OP adden.
Leider sind diese Messungen bei Games bei denen die RTX 2060 mit biegen und Brechen 60fps knackt. Besonders FFXV.
Ist etwas gewagt da zu viel rein zu interpretieren und auf den Speicher zu schieben, wenn eine kurze Drehung des Characters auch einen Framedrop bewirken kann.
Die 8gb 2070 ist da z.B. auch mit Spikes dabei, wenn auch kleinere, aber eben auch Spikes unter 60fps. Ob mehr VRAM solche Spikes ausgleichen kann, wenn die Rechenleistung selber nicht reicht in der Sekunde, ist leider nicht ersichtlich so am Limit.

Gibt es derartige Tests auch bei Games die nicht am Limit laufen von den FPS?

Was sagst du das mir?
Meld dich bei CB und sag denen, dass du es besser weißt und die alles falsch gemacht haben. Und zeig ihnen noch deinen "Test" hier, der ja scheinbar beweist dass Frame Times nix zu sagen haben...
:bigok:
 
Nach langem wiederholtem lesen hier in diesem Thema und Beobachten, komme ich zu dem Schluss, das zb eine 1060 4GB noch gut ist, und eine 1060 selbst mit 6GB nicht lohnt, da ihr eher das VRAM als die GPU Leistung aus geht, warte somit auf eine 16GB Version und wenn es dann eine Nachfolger Karte wie zb die RTX2060 sein muss, so ist die Karte schon von vorne herein zu knapp dimensioniert, weil spätesten wenn es dann mal mehr wie full HD beim neuen Monitor sein soll ist asche! Also sind 6 und 8GB schon in wenigen Wochen zu wenig, somit rausgeschmissene Kohle!

Frage: Wie will man eigentlich messen, ob auf einer Karte der V-Ram wirklich gebraucht wird oder nur befüllt wird, weil er da ist?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh