Sind 6GB VRAM zu wenig? Eine Analyse mit Pro / Kontra Betrachtung

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bzw. dem Gegentest: Mit genau hinschauen ob die höchste Texturstufe überhaupt freigeschaltet wird (was schwierig ist, wenn man keine größere Karte zum gegentesten hat *g*)
Wenn ich z.b. ROTTR lade, und direkt am Spawn-Punkt/Level-Load schon 9GB VRAM gefüllt sehe ... dann ist das für mich ein Indiz, dass diese 9GB auch tatsächlich gebraucht und nicht nur gecached werden.
 
Zuletzt bearbeitet:
Frage: Wie will man eigentlich messen, ob auf einer Karte der V-Ram wirklich gebraucht wird oder nur befüllt wird, weil er da ist?

Kannst du nur messen, indem du die Karte in zwei Versionen da hast. Z.B. die RX570 in 4gb und 8gb. Oder indem man ein Bios aufspielt, das den Vram teildeaktiviert... Obs dafür auch ne Softwarelösung gibt (quasi 50% des Vram fluten und damit sperren) keine Ahnung ;)
 
[...]
Danke an Cool Hand für diesen Frametime Test: --> Nvidia GeForce RTX 2060 FE im Test (Seite 5) - ComputerBase
Da die GPU bei den Tests knapp am Limit ist, können wir nicht einwandfrei sagen, ob wir hier ein VRAM Limit sehen, oder ein allgemeines Leistungslimit.
falsch.
wir können klar sagen, dass es sich um ein VRAM limit handelt.
warum?
- die normalen frametimes sind aufgrund der etwas geringeren leistung etwas schlechter. (ist ja logisch, beide gpus laufen im limit, die eine braucht aber 11 anstatt 10 ms pro frame)
- die eine karte hat enorme ausreisser nach oben. diese treten nur alle 1-2 sekunden auf, dafür aber um mehrere 100 prozent. was könnte zu diesen zeitpunkten wohl passieren?

Wie würdest Du das formulieren, wenn ich fragen darf?
Das sind die messbaren Tatsachen. Wie darf ich sie umschreiben, ohne das es einseitig wirkt, obwohl es einseitig ist?
einfach nur die fakten: 'es kann im moment kein nennenswerter avg-fps nachteil durch 6gb vram gemessen werden.'

was du gemacht hast war aber eher: 'nvidia machts genau richtig, den kunden zum wohle. amd betreibt augenwischerei, auf kosten der kunden'
in welcher welt ist das neutral?

du merkst ja nicht einmal, was für eine tiefgrüne brille du aufhast. :lol:
äußerst peiliche vorstellung, die du hier ablieferst. :)


EDIT: btw hatte die gtx970 auch immer gute AVG fps. die frametimes waren im vram limit dafür aber jenseits von gut und böse.
aber das war bestimmt auch nur propaganda von amd.
 
Zuletzt bearbeitet:

Wie soll eine Frame Time Messung die Frage beantworen?
Da steht nichts darüber, ob die Daten wirklich gebraucht werden oder nicht.
Es gibt auch Beispiele, da sind die Frame Times mau, obwohl genügend Speicher frei ist. Es gibt genau so Fälle, da sind die Frame Times glatt obwohl eine Karte nachweislich im VRAM Limit fährt, nachweislich deswegen, weil die BQ sichtbar schlechter ist als ohne dieses Limit.

Also nein, Frame Times eignen sich bestenfalls als Indiz, nicht aber als Beleg.

Wenn ich z.b. ROTTR lade, und direkt am Spawn-Punkt/Level-Load schon 9GB VRAM gefüllt sehe ...

... sagt das leider immer noch nichts über den real benötigten Speicherbedarf aus. Engines sind häufig in der Lage Daten voraus zu laden. Und Engines sind auch nicht selten in der Lage die Menge dieser Daten dynamisch in Abhängigkeit der Kapazität zu bestimmen. Schlimmer noch, dieses Verhalten kann! potentiell auch negativ sein, nämlich genau an dem Punkt wo Daten voraus geladen werden, Platz wegfressen und das, was wirklich in der gezeigten Szene benötigt wird, nicht mehr in den Speicher passt -> das ist dann ein Fall von bescheiden optimiert. Bspw. immer dann anzutreffen, wenn der Basisysstemverbrauch zu hoch ist - höher als der Entwickler das vorgesehen hat.

PS: RotTR braucht doch im Hauptmenü schon GB weise Speicher, wenn ich das gerade nicht verwechsle? Da wurden dann wohl im Hauptmenü schon sonstwede Daten voraus geladen...

Kannst du nur messen, indem du die Karte in zwei Versionen da hast. Z.B. die RX570 in 4gb und 8gb. Oder indem man ein Bios aufspielt, das den Vram teildeaktiviert... Obs dafür auch ne Softwarelösung gibt (quasi 50% des Vram fluten und damit sperren) keine Ahnung ;)

Auch das bringt keine Klarheit zur Frage... Wie soll es auch?
Mit zwei verschiedenen Karten wird die Engine/das Spiel trotzdem meist mehr Daten in den Speicher kippen als zwingend notwendig...


Die Frage da oben von Holzmann hat irgendwie was von wegen, wie viel muss ich am Tag wirklich essen um nicht zu verhungern - gepaart mit dem Verbot, dass der, der isst nichts über seinen Zustand sagen soll, sondern einfach Dritte vom sehen her nachweisen sollen wie viel dort reicht... Sowas KANN prinzipiell nicht funktionieren. Ist nicht. Egal wie man sich auf den Kopf stellt!
Die einzige Option das ansatzweise zu betrachten wäre eine durch den Entwickler geschaffene Option, die in der Szene notwendige Datenmenge aufzuzeigen. Aber selbst das ist nur die halbe Miete - denn der eine bencht nur 30sec -> es müssen auch die Daten erfasst werden, die n den 30sec auch dargestellt werden. Der andere spielt aber ne Stunde und will keine Nachladeruckler... GEHT so schlicht nicht.


Das einzige, was hier geht ist mit Indizien zu arbeiten.
Bspw. wenn du den Texturregler runter drehst - verschwinden mögliche Nachladeruckler? Glätten sich die Frame Times? Oder bleibts weiterhin auffallend haklig?
Ein weiteres Indiz ist wie HisN schon sagte der Initialverbrauch bei Start, hier muss aber irgendwo ausgeschlossen werden, dass nicht mehr Daten geladen werden, wenn mehr Daten auch Platz finden können.
Ein drittes Indiz wäre sich die VRAM Verlaufskurve anzusehen. Geht die Kurve ausschließlich! nach oben, dann liegt zu 99% kein VRAM Limit vor. Entspannung in der Auslastung bringen in dem Fall idR nur Level Wechsel. Schwankt die Kurve hingegen um ein paar MB bis zu ein paar hundert MB -> klares Indiz für VRAM Limit. Denn es findet offenbar Datenauslagerung statt. Kann man zusätzlich diesen Punkt noch gegen eine ähnliche Hardware mit mehr Speicher gegen prüfen und hat die Schwankungen dort nicht -> ist es fast schon ein Beleg.

Frage: Wie will man eigentlich messen, ob auf einer Karte der V-Ram wirklich gebraucht wird oder nur befüllt wird, weil er da ist?

Technisch ohne vom Spiel/der Engine bereitgestellten Daten schlicht nicht möglich.
Recht nah an den real benötigten Speicherbedarf einer Szene könnte man bspw. auch ran kommen, wenn man sich ne Vega GPU mit aktivem HBCC schnappt. Aber auch hier muss der Entwickler noch mitspielen - weil wenn das Feature nicht gut implementiert ist, bringt es auch fast nix. Die von AMD gezeigte Demo in DeusEx damals bspw. kam phasenweise mit drastisch weniger Speicher aus ggü. non HBCC Karten
 
Jetzt müsste man halt "brauchen" definieren.
Braucht nicht die Engine schon mehr vRam wenn sie anfangen muss mit den Daten zu jonglieren? Oder ist "brauchen" erst dann gegeben wenn es beim User ankommt, dass jongliert wird? Schließlich könnte die Engine in der Zeit wo sie Texturen (immer und immer wieder) swappt ja auch was sinnvolles erledigen :-)
 
Zuletzt bearbeitet:
Fakt ist das die Karte mit mehr Speicher weniger ruckelt und die mit weniger Speicher oft am Speicherlimit hängt wenn sie ruckelt.
Was kaufe ich also? Die mit weniger Speicher, oder die mit mehr?

Frametime Ausbrecher hat jede Karte mal. Das kann verschiedene Gründe haben, die nichtmal an der Karte liegen müssen. Aber wenn es alle paar Sekunden ruckelt, und das nur bei der Karte die weniger Speicher hat, sollte klar sein was los ist.

Ich mache ja auch nicht das Gelände dafür verantwortlich, wenn ich mit nem Sportwagen wie mit nem Geländewagen umgehe.
Grafikkarten müssen mit allem gut umgehen können, ob das nun das verschwenderische Spiel ist, oder das was extrem Speicher spart und evtl. auch noch viel schlechter dabei aussieht.

Exakt das selbe Verhalten konnte man damals bei den 3,5 GB 970er beobachten und anderen früheren Tests ob der Speicher genug ist.
Und ganz ehrlich, ich habe diese Diskussion langsam satt. Schon um 2000 rum habe ich sie geführt wo Leute sagten dass 1 GB RAM mehr als genug ist und man viele Jahre lang in Spielen nicht mehr braucht... Ein paar Monate später war das bewiesener Schwachsinn, obwohl es das davor auch schon war. Und jetzt das gleiche bei VRAM... mal wieder.
Nvidia hat diese Generation versaut. Nicht nur beim Preis und der Performance, sondern auch beim Speicher. Und ich kann mir sehr gut vorstellen wie sie da in den Meetings saßen und sagten:
"Oh, die werden so aber richtig teuer...."
"Dann bauen wir halt weniger Speicher drauf!"
 
Zuletzt bearbeitet:
Hmm, also ich bin bis 2017 mit 2Gb sehr gut gefahren. Das erste Spiel wo tatsächlich so viele Texturen nicht dargestellt wurden dass es unspielbar wurde, war Prey im selben Jahr. Jetzt hab ich 11Gb und weiss die auch auszureizen, brauchen tut das aber Ottonormal noch lange nicht. Mit viel VRam ist man immer gut bedient keine Frage, heisst aber nicht dass weniger nicht auch völlig ausreicht. Wie sieht es denn beim Hauptspeicher aus? Mir reichen zum daddeln 16Gb. Dort ist es doch das gleiche. Man kann auch 64Gb reinstopfen, aber das bringt einem nur sehr bedingt etwas.
 
Also ob man mehr als 6gb wirklich braucht oder nicht... kann ich logischerweise auch nicht abschließend beantworten.
Aber die Art wie der Thread geschrieben ist, ist komisch. Erst heisst es man soll sich nur auf Fakten verlassen und Messbares in diesen Thread holen und dann ist der gesamte zweite Teil ein:
"Es scheint so zu sein, es scheint da anders zu sein" und ein einziger Nvidia-Lobgesang "die pushen die Technik, voll toll" und AMD-Bashing "wird auf dem Rücken der Kunden ausgetragen".

Meiner Meinung nach ist genau das das was in so einem Thread NICHT drin sein sollte. Das hat nichts mehr mit Fakten und Messungen zu tun sondern ist eine persönliche Einschätzung die ganz klar eine Marke bevorzugt.

Persönlich sehe ich es so wie viele andere hier im Forum. Es wurde im Verlauf immer und immer wieder gesagt "das ist viel zu viel, wird eh nicht gebraucht". Obs bei CPU, GPU, RAM oder SSDs ist. Die Diskussion gibt es bei allen Bereichen. Und fast immer ist es ein paar Jahre später so, dass das, was man eh niemals brauchen wird zum Standard geworden ist und weniger schlecht ist.

Wenn mehr User mehr RAM haben werden eventuell Spiele entwickelt, die diesen RAM mehr nutzen. Dann kaufen sich mehr User Karten mit mehr RAM und es werden irgendwann fast nur noch Spiele (AAA-Titel natürlich) entwickelt, die eben diesen RAM auch nutzen und alle haben "gewonnen".
 
Naja die Frage is ja...verarscht uns AMD mit Ram den kein Mensch braucht,bzw. nur ein wirklich sehr sehr kleiner Teil der "Zocker" oder werfen die mit Absicht was aufn Markt,so richtig gegensätzlich als weißer Ritter und fahren die Welle:viel RAM,hält lange,wir sind gut zu euch.
oder isses nVidia,die genau den RAM einbauen,den wir brauchen.Nicht mehr und nicht weniger.Nicht zu wenig um die Leistung nutzen zu können aber auch nicht zu viel,damit es zu viel Assche kostet.
Oder beschneidet nVidia den Vram mit Absicht um die Zocker im Rhytmus der Generationen wechseln zu lassen?
Mein kleiner Bruder konnte super mit der 970 und verkrüppelten 0,5 Ram der 4 GB alles auf hoch flüssig spielen.FHD.
Jetzt kommen welche un meinen 16 GB muss mindestens sein,gut gemacht AMD.Nuja...der Preis der V7 würde mich echt net hinnerm Ofen hevorlocken.Es ist halt ne rote Karte.Als AMD Liebhaber halt kaufbar.Aber von diesen Fragen wird leider nix wirklich aufgelöst und es stimmt,es liest sich doch estwas grün der Opener.Nicht zu viel,man merkt es aber doch.
mir persönlich hinkt AMD hinterher.Man muss allerdings auch die Größe der Brutze beachten und eben fisten sie Intel und später vielleicht auch Nvidia.Soll mir recht sein.Wenn sie vorne sind mit Leistung und Vebrauch,steige ich gerne um.
Grüße
 
Naja, wenn wir davon ausgehen, dass "das was man nicht braucht und zusätzlich Geld kostet schlecht ist", dann ist klar, dass die 16gb RAM bei AMD absolut nutzlos sind und kontraproduktiv.
Aber dann zu sagen Nvidia "pusht die Technik" mit dem RT? Das ist genauso etwas, das aktuell nicht gebraucht wird und unnütz teuer ist. Da wird einfach mit grüner Brille geguckt.

Entweder man sagt bei Nvidia UND AMD, dass aktuell unnötige Technik, die teurer für die User ist nicht gut ist, oder man sagt bei beiden, dass es ein eventueller Fortschritt in der Zukunft bedeutet.

Aber dann so direkt pro Nvidia und anti-AMD zu sein wenn man noch groß sagt, dass man die Diskussion bitte aus dem Thread raushalten soll? Das ist schon ziemlich krass.
 
Meine Punkte und Takeaways:
NVidia scheint genau so viel Speicher zu spendieren wie sinnvoll ist, um den Preis nicht noch weiter zu erhöhen (da RT ja nicht gerade billig ist).
AMD hingegen scheint gerne Augenwischerei zu betreiben und damit ein Problem für alle Kunden (auch NVIdia) zu generieren.

Disclaimer:
Bitte die Fanboy-Mützen aus dem Topic rauslassen.

Dein Takeaway klingt aber schon sehr stark nach Fanboygeschwafel.
Nvidia hätte sich kein Bein ausgerissen 8GB bei der 2060 zu verbauen und 6GB sind heutzutage unter anderem in Call of Duty Black Ops - einem sehr beliebten Shooter - schon zu wenig und führen in Full HD zu schlechten Frametimes.
Gerade auch Battlefield 5 mit Raytracing zieht sehr viel V-ram und fängt bei der 2060 schon an zu ruckeln --Marketingfail.
Es war von Nvidia generell ein Fehler nicht mehr V-ram zu verbauen, so lässt man AMD mit einem einfachen shrink seiner eh schon schlechten Vega die Tür offen.
Wenn du mich fragst sich die Turing GPUs kein Fail aber zeugen von absolut dilletantischer Planung.
Die RTX 2060 verkauft sich schleppend und das hauptsächlich wegen der 6GB die 2019 einfach zu wenig sind um sie ernsthaft zu kaufen, oder willst du deine GPU dann nach 1 Jahr schon wieder tauschen?

Der 2060 fehlts in 4K nicht an VRAM (hier und da vllt auch das), sondern an Cuda Cores, Speicherbandbreite und ROPs.

Nein, ganz sicher nicht. Die RTX 2060 bietet 1080 bzw. Vega 64 Leistung.
Mit etwas reduzierten Details kann man viele Spiele in 4K genießen, sagen wir mal könnte.
Durch die 6GB Speicher darf man dann auch Texturdetails reduzieren. Mit 8GB oder mehr wäre das gar nicht nötig.
Die Speichermenge ist so knapp wie bei einer GTX 770 2GB, einer FuryX oder Fury.
Also einfach ein klassischer Speicherkrüppel wie man sie kennt. Geplante Obsoleszenz.

Ich glaube auch Nvidia hat die 4GB und 3GB Karten schon verworfen.
Das wäre ja dann der Skandal schlechthin.

das zb eine 1060 4GB noch gut ist....Also sind 6 und 8GB schon in wenigen Wochen zu wenig, somit rausgeschmissene Kohle!

Zwei unterschiedliche Ansichten innerhalb von zwei Sätzen.
Da trollt der Holzmann aber schon ordentlich ins Forum. Klasse!
 
Zuletzt bearbeitet von einem Moderator:
Wirklich? Lobhudelei mit der nachfolgenden Ansage die Fan Mützen nicht aufzusetzen?
Es wird kaum aus dem Kontext zitiert sein.
Wie kann man denn mit gesundem Menschenver...ach. Da war ja das Problem.

Immer nur das Notwendige dem Kunden liefern? Rtx on? Wirklich?
Ist ein freies Internet und jeder, egal wie unterbelichtet, darf ablassen was auch immer er mag.
Aber dass ein Thema wie dieses in einem "Enthusiastenforum" ernsthaft von 1,5 Leuten diskutiert wird..wer hier, aus welchen Gründen auch immer, häufiger mitliest hat die richtigen Gestalten eh ausgeblendet. Aber wenn gegen diesen Kinderkram nicht auch mal angegangen wird, dann nimmt das irgendwer da draussen vielleicht ernst und das kann doch niemand wollen!
Und der nvidia Algorithmus bekommt das hier mit und dann gibt es für die fanbois in Q4 2019 Grafikkarten mit 4GB Speicher für 1800 Euro.
Gut für bwl Enthusiasten, aber mit Technik hat das doch alles nichts mehr zu tun..
Collini out.
 
Vielleicht mögen 6GB noch genügen bzw sind sie für einige Games schon jetzt sehr knapp. Aber es kommen ständig neue Games auf den Markt, was denn dann?
Wenn ich mir eine Grafikkarte kaufe, dann möchte ich auch in paar Monaten oder vielleicht nächstes Jahr etwas davon haben, und nicht die Grafikeinstellungen immer weiter reduzieren, nur wegen dem VRAM, obwohl die Grafikkarte selbst noch gut alles könnte.
 
Nehme die Kritik zu Herzen.
Versuche in Zukunft keine Produktnamen zu nennen bei Vergleichen. Bin nur nicht sicher, ob ein normaler Leser aus Luxx nicht trotzdem genau denselben Schluss ziehen wird.

Wenn ich nun sage, dass 16gb aktuell wohl komplett unnütz sind und nur Geld kosten ohne Sinn,... wem genau ist dann nicht klar, dass es sich um Kritik an AMD handelt?
Dieselbe Kritik gibt es zu Nvidia und dem RT, es ist aber nicht Bestandteil dieses Topics.

Soll ich also das RT Thema hier rein ziehen, nur damit irgendwie "ausgewogene" Kritik an beiden im Topic ist? Wenn es nur darum geht: Gerne. Ich würde auch lieber 16gb VRAM mit RT und 2080TI Leistung zu 700 Euro haben.
Ist das ein nötiger Schritt um die Diskussion zu VRam zu haben? Bei dem Thema VRam gibt es halt einfach diesen einen Ausreißer von AMD, der nach allem was wir bisher wissen einfach nur Extrakosten ohne Nutzen für den Kunden liefern wird.
Dasselbe hätte man auch gehabt, wenn NVidia mit 16gb dahergekommen wäre. Sie haben es aber nicht. Sie haben stattdessen neue Technik gebracht. Dass diese aktuell kaum nutzbar ist, ist aber ein anderes Thema, oder? :-)
Hier soll es halt nicht darum gehen zu ergründen ob kaum nutzbares RT, oder kaum nutzbarer VRam sinnvoller ist.

Thema ist, ob wir als Kunden hier den falschen Gimmicks Applaus spendieren. Und aktuell befürchte ich genau das.
In den letzten 4 Tagen habe ich einige Games mit meiner neuen GPU gestartet und war sehr überrascht wie selten mehr VRAM belegt war als bei der alten 970.
Wenn es überhaupt mehr als 4gb waren, dann nur in einem Fall mehr als 6gb. Und das ist wieder "belegt" und nicht zwingend "benötigt". Sicher wird es Leute geben die irgendein Spiel finden und 8k oder 16k Texturen adden.
Extremfälle sollten aber bei Lowend und Midrange GPUs wohl eher nicht beachtet werden, oder? Extremfälle sind im Highend zu suchen. Eben da, wo eine Speicherverdopplung den Preis nicht auch verdoppelt überspitzt gesagt.

Die Argumentation, dass 11gb bei NVidia also ein KO Kriterium sind, kann ich absolut nicht nachvollziehen. Es scheint eher schon "unnötig viel" zu sein.
Entsprechend möchte ich hier hinterfragen, ob wir uns als Kunden selber ein Bein stellen. Auf der einen Seite über Preise herziehen, auf der anderen Seite aber nach Dingen rufen die nicht benutzt werden.
 
Ich stelle mir kein Bein, aber denke das wir die Fragen noch nicht beantworten können, sondern, dass sich erst in naher Zukunft zeigen wird, ob wir von mehr als 11GB profitieren können.

Tests müssen das berücksichtigen, wenn ich @DON vom Luxx richtig verstanden habe, dann werden anlässlich der Radeon7 solche Testreihen gefahren gerade, mal sehen. :)
 
Zuletzt bearbeitet:
Bisschen engstirnig die Aussage findest du nicht?

Stell die Settings auf hoch statt sehr hoch oder ultra und knall die Texturen auf das Maximum.
So hast du kaum Leistungseinbußen.
Sicher kann man mit der Karte in sehr vielen Spielen 4K genießen, man muss nur die Regler bedienen können.
 
Ich habe mir die RTX 2060 als Nachfolger zur GTX 1060 geholt.
Ich war nicht bereit 150€ für 2 GB mehr zu zahlen.
Den Test im Startpost habe ich vorher gesehen und der hat mich überzeugt.
Falls es ruckelt stellt man einfach die Schatten eine Stufe runter.
Mit der GTX 1060 lief Shadow of the Tomb Raider auch super.
Ich denke das auch die CPU einiges mit Minirucklern zu tun hat.
Das kann ich alles nicht wissenschaftlich belegen, ist aber meine Spieleerfahrung.
Die 2060 ist sicher gut für 2 bis 3 Jahre.
 
Ja gut, nur kommt für mich ein billig 2070er Modell nicht in Frage :)
Ich habe gestern noch Preise verglichen und da habe ich nicht gesehen das es nur 35€ Unterschied waren, sondern 140€ zwischen den jeweils billigsten Modellen.
 
Zuletzt bearbeitet:
Kann jemand mit einer 6GB Graka mal den Gegentest in Division2 mit DX12 machen?

1. Bild im Game (Cutszene, Fertig) belegt in DX12 16GB VRAM RAM auf meiner Graka. Ist das jetzt belegt, oder benötigt?
Ich meine, die Engine "reserviert" oder "füllt" schon mal 16GB mit Daten während sie den Level lädt am Startpunkt. Ich hab mich da nicht bewegt oder umgedreht, deshalb noch der Screenshot aus dem Ingame-Video, den ich ja nicht beeinflussen kann).

 
Zuletzt bearbeitet:
Ich vermute belegt, ähnlich wie bei Quake Tournament.
16004 MB sind doch alles was physikalisch da ist?
Ich habe die Beta nicht, sonst würde ich das mal anwerfen.
 
Zuletzt bearbeitet:
Ja gut, nur kommt für mich ein billig 2070er Modell nicht in Frage :)
Ich habe gestern noch Preise verglichen und da habe ich nicht gesehen das es nur 35€ Unterschied waren, sondern 140€ zwischen den jeweils billigsten Modellen.

Bei anderen Versionen nicht.

- - - Updated - - -

@HisN
Ist so ziemlich das gleiche. Denn wenn es belegt ist, gibt es dafür einen Grund. Es wird früher oder später benötigt. Und da hat man es sofort und bekommt eben keine Frametime Drops, wenn darauf zugegriffen wird anstatt dass es von der SSD geladen wird.
 
Ist so ziemlich das gleiche. Denn wenn es belegt ist, gibt es dafür einen Grund. Es wird früher oder später benötigt. Und da hat man es sofort und bekommt eben keine Frametime Drops, wenn darauf zugegriffen wird anstatt dass es von der SSD geladen wird.

Das ist grundsätzlich zwar richtig - widerspricht aber dem Sinn hinter dem Texturstreaming.
Letzteres ist dafür da eben nicht unnötig viele Daten direkt vorhalten zu müssen.

Wenn die Hardware aber in der Lage ist, entsprechend viele bis ggf. sogar alle Daten eines Levels in den Speicher zu schreiben - warum sollte sie das nicht tun? Unbelegter Speicher ist unnütz. Im Umkehrschluss bedeutet aber damit belegter Speicher <> real benötigter Speicher. Vor allem wenn man es auf Szenen runter bricht.

PS: Wenn Frametimedrops stattfinden, wenn auf Daten zugegriffen werden, dann stimmt entweder was mit dem Texturstreaming nicht oder der phyisch vorhandene Speicher ist zu klein. (oder beides)
Normalerweise lädt die Engine die Daten in einem gewissen Bereich um das Geschehen vor - um so knapper der Speicher, desto weniger "Puffer" hat es dort. Die Änderungsraten steigen somit auch. Was schlussendlich in unruhigen Frametimes über dauerhaft niedrigere FPS bis hin zu unspielbarkeit resultieren wird.
 
Ich glaube das viel vram vor allem bei hohen sichtweiten Vorteile bringt.


Gesendet von meinem ANE-LX1 mit Tapatalk
 
Ist das jetzt belegt, oder benötigt?

Belegt.
Benötigt würde heißen, dass es mit weniger nicht läuft.

Es spielen da ne Menge an Faktoren mit rein.
Mittlerweile haben wir ja eine Stange an Tests, die zeigen, dass die R7 z.B. deutlich mehr Speicher "belegt" als andere GPUs, auch wenn diese anderen ebenfalls viel "frei" haben.
Speichermanagement ist also ein Thema, dass größer als erwartet ist. Alles schon gesehen in Tests zwischen gleichstand (selten), 0,5gb mehr bei AMD (meistens), 1,2gb mehr auf AMD (wieder selten).

Zudem gibt es ne Menge Spiele, die einfach nur den VRAM voll machen, ohne viel Sinn dahinter. Das bedeutet aber nicht gleichzeitig, dass sie "schlecht optimiert" sind und alle Leute deswegen 100gb VRAM brauchen.
Auch zeigen Frametime Analysen, dass die Radeon 7 mit ihren 16gb HBM2 sogar MEHR Spikes erzeugt (50% mehr!) als eine RTX 2080 mit nur 8gb. Also ist auch dieses Thema nicht so einfach pauschal abzutun.

Allgemein ist das ein Thema, dass viel zu oft in Absoluten besprochen wird, wobei es keine eindeutigen Absolute zu geben scheint.
Das Einzige was sicher ist: Mehr Speicher kostet auch mehr Geld. Wenn der nur belegt wird, nicht aber benötigt, dann zahlt man teils ne dicke Stange für idle Hardware. Bei den RT Cores von RTX wird darüber geflucht wie nix anderes, aber bei VRAM wird idle hardware gefeiert.

Mehr ist immer mehr. Da brauchen wir nicht reden. Mir ist der Preis auch egal bei ner GPU. Aber die breite Masse will deswegen sicher nicht, dass 50% des GPU Preises von idle Hardware kommt. Egal ob RT, Compute, oder VRAM.
 
Und warum schmiert es dann mit einem VRAM-Fehler bei Leuten mit wenig VRAM nach einiger Zeit ab?


16004 MB sind doch alles was physikalisch da ist?

24GB sind vorhanden, wenn ich jetzt zocken würde geht die Anzeige auf 17GB hoch.
Die Beta ist öffentlich, wenn Du nachprüfen möchtest.


@HisN
Ist so ziemlich das gleiche. Denn wenn es belegt ist, gibt es dafür einen Grund. Es wird früher oder später benötigt. Und da hat man es sofort und bekommt eben keine Frametime Drops, wenn darauf zugegriffen wird anstatt dass es von der SSD geladen wird.

Das wäre auch meine Vermutung. Sie wird aber nicht von allen geteilt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh