Je mehr RAM desto besser, wenn dieser auch genutzt werden kann. Ich möchte an diesem Punkt auch eigentlich nicht widersprechen, allerdings kann ich mir nicht vorstellen, was BF4 da großartig im Cache halten sollte, was während des Spiels wieder nachgeladen werden muss. Und erst recht nicht in einem solchen Umfang. Dann sollte BF4 die Daten doch einfach direkt im RAM halten um ein Nachladen zu verhindern. Sprich beispielhaft 6 GB RAM Belegung durch BF4 statt nur 3 GB .
Ohne jetzt genau die technischen Details seitens der BF4 engine zu kennen, könnte man dann ja auch einfach sagen, es ist einfach nicht gut programmiert worden, wenn das Speicher-Management den vorhandenen RAM nicht voll nutzt.
Dann hast du allerdings das Thema des RAM Cachings nicht verstanden
Nicht die Anwendung belegt den Speicher, sondern das OS belegt diesen, weil es von Anwendungen ungenutzte Speicherbereiche für eben jenen Cache nutzt. Das geschieht dabei völlig transparent von der/den Anwendungen selbst und kann Jeder mit einem Windows OS, spätestens seit Vista selbst nachprüfen.
Der Vorteil davon ist schlicht und ergreifend der, dass Zugriffe auf die gleichen Daten, das Storagesubsystem einfach nicht mehr bemühen müssen und dieses Storagesubsystem dann freie Kapazitäten in Sachen Leistungsfähigkeit für andere Dinge hat. Damit ist also der Flaschenhals HDD (oder auch SSD) für diese Daten völlig aus dem Rennen!
Und natürlich könnte eine Anwendung selbst auch Daten in den eigenen RAM laden... Allerdings ist das nicht Sinn der Sache des Caches. Für die Anwendung verhällt sich der Cache wie ein Storage. Wenn die Anwendung Daten vom Storage benötigt, wird diese sich diese Daten holen. Benötigt sie allerdings mehrfach die gleichen Daten vom Storage, fragt sie eben jene Daten auch mehrfach an. Für die Anwendung ändert dies am Verhalten nix. Allerdings durchläuft der Zugriff, bildlich gesehen dann den Cache -> die Daten liegen im Cache und können so viel schneller abgegriffen werden.
Ich habe noch NIE bei einer Windows Installation und dem folgenden Voll-Update eine Meldung bekommen, dass zu wenig RAM zur Verfügung stehen würde. Sorry, das halte ich auch für einen ominösen Einzelfall, wie er in der EDV immer mal auftreten kann. Und stellt für mich in der Form kein Argument dar. Zumal man ja nicht 24/7 Windows Updates einspielt.
Ich auch nicht... Allerdings sollte mein Kommentar zu der Thematik eher dahin abzielen, dass man dafür nicht an den Parametern der Auslagerungsdatei rumspielen muss, weil einfach diese paar Updates da, wie genannt, RAM wegfressen. Das ist ein bekanntes Verhalten und lässt sich nachstellen.
Es ist eher die Frage, wie hoch war/ist die Basis-RAM Belastung gewesen? So oder so entnehme ich der Aussage, dass die Installation der Windows Updates den Ausschlag für das Verhalten bringen können. Und dem MUSS ich aus eigener Erfahrung schlicht und ergreifend einfach zustimmen, da mir das Verhalten der RAM Auslastung bei "wenig" RAM ebenso bekannt ist.
Es ging mir mit dem HTPC Beispiel mehr darum zu verdeutlichen, dass das Anwendungsverhalten bestimmt, wie performant ein System zu sein hat. Und nicht etwa irgendwelche User, Zeitschriften oder gar die Industrie.
Dennis "argumentier" hier allerdings in einer Art und Weise, dass quasi JEDES "moderne system" mit min 8GB RAM ausgestattet sein sollte, was einfach quatsch ist.
Wenn ich unvoreingenommen an das Thema ran gehe, dann erkenne ich dennoch den Hintergrund seiner Aussage... Und da ist aus meiner Sicht immernoch der Ansatz eines Arbeits-PCs gemeint, nicht der einer MediaCenter Kiste (oder besser, allgemein einem PC, welche speziell für ein kleines Themengebiet designt und gebaut wurde). Schon allein der Wink auf den Titel des PCGH Artikels dürfte dies verdeutlichen... Oder spielst du mit deiner MediaCenter Kiste auch BF4? -> man redet doch also wohl um eine spieletaugliche Kiste, was eine gewisse Basis schonmal perse mitbringt.
Gerade auch dein Argument mit dem Nutzerverhalten schlägt doch in die gleiche Kerbe. Da ist eben nicht gesagt, WAS der User damit macht. Und wenn er seine Officeanwendungen eben 20x anstatt nur 2x aufmacht, steigt der Bedarf ebenso, wie wenn er möglicherweise spielt.
Im Grunde sind das die beiden Extreme -> die Realität bewegt sich wohl zu 99% da irgendwo in der Mitte...
Ja auch der Punkt stand zur Debatte. Ich möchte hier niemandem auf die Füße treten, aber auch als mod solltest Du alle Beiträge genau lesen, wenn Du Dich derart intensiv in ein Thema einbringen möchtest, wie oben geschehen.
Keine Sorge, ich hab schon die Beiträge gelesen... Zumindest die relevanten. Und da geht doch das Thema auf den RAM, bis dann Jemand einwarf, dass die SSD womöglich mehr bringt... Was allerdings eigentlich gar nicht zur Debatte stand. Denn auch eine SSD KANN bei RAM Knappheit schlicht keine Wunder bewirken.
Der Jenige hat damit sogar recht, die SSD wird zu 99,9% im Alltag ihre Stärken ausspielen, einfach weil der wahlfreie Zugriff auf die Daten schneller vonstatten geht. Allerdings kann dir ein RAM Cache ein ähnliches Verhalten auch mit HDD bringen. Vor allem eben dort, wo es darum geht, mehrfach auf Daten zuzugreifen.
Das kann man auch selbst nachstellen, SSD hin oder her... Schnapp dir bspw. MS Word, installier es auf die SSD und starte es nach einem Rechner boot -> miss die Zeit. Dann Zumachen und nochmal öffnen.
Das gleiche testest du ggü. der Installation auf eine HDD -> der SSD Initialstart wird bei weitem schneller sein als von HDD. Allerdings der 2. Start wird sich kaum noch unterscheiden...
-> solange nachstellbar, wie die Daten im Cache gehalten werden und trifft auf ALLE Anwendungen zu, welche durch das Storage limitiert werden.
Solange man halt nicht in der Lage ist sein System mit deutlich mehr als 64GB RAM kostengünstig auszurüsten, ist und bleibt die hdd der Flaschenhals im System.
Nur mal ganz kurz gesucht ... 2 x 250GB Samsung EVO SSD kostet ähnlich viel wie ein taugliches 16GB DDR 3/4 Kit von Gskill oder Corsair ...
Den Part verstehe ich nicht so recht... Warum sollten mindestens 64GB RAM drin sein? Die RAM Menge wird durch die Datenmenge bestimmt, die man dort bewegt. (oben schriebst du dazu noch was von 128GB und mehr)
PS: mein Ansatz bei dem Thema ist eher der, dass ich nicht die teils riesigen Datenmengen heutiger AAA-Spiele derart umkopieren will. Also muss ich den schnellen SSD Platz vorhalten, der in Summe teurer ist, als den anderen Weg zu gehen und auf den RAM Cache zu setzen. -> für CoD:Ghosts, CoD:AdvancedWarfare und GTA:V benötige ich zusammen schon weit über 100GB reinen Speicherplatz. Selbst wenn ich mich also für ein günstiges SSD Modell entscheiden würde, kostet mich das wohl um die 100€, je nach Modell und Marke. Die RAM Erweiterung auf 8GB (ausgehend von 8GB) kostet ca. 60€, lass es 70-80€ sein, wenn man höhere Ansprüche hat.
Für den Preis bekommst du ein 120-128GB Modell einer SSD. Was ist dann mit anderen Titeln, die man noch hat, die man ebenso spielt??
Ich bin zumindest dahingehend gespannt, was sich die Entwickler von Software-Storagelösungen noch einfallen lassen für die Zukunft. Bspw. wäre es denkbar, dass Microsoft den Ansatz der StoragePools/Spaces dahingehend weiter ausbaut. -> eine Art Tiering über verschieden schnelle Storagelösungen wäre im Grunde die Ideale Lösung um auch wirklich nur heiße Datenbereiche in den sehr teuren schnellen Storages abzufackeln, während kalte Datenbereiche dies eben nicht benötigen und auf den langsamen Storages liegen können.
-> die performancetechnisch ideale Lösung, alles direkt in eine RAM Disk zu packen, ist halt mit heutigen Mitteln für den Otto Normalo Bürger nicht bezahlbar... Allerdings könnte so ein Tiering eben den Speed der RAM Disk beim Preis von herkömmlichen Storageansätzen + einem kleinen Aufpreis, möglich machen.
Übrigens, weil ich es hier ebenso mehrfach laß. Ich halte Aussagen von Vergleichen, wo man das kleine System als Basis hat und auf das größere updatet -> mit dem Fazit, bringt nix, für eher nichtssagend. Andersrum wird erst der Schuh draus. Man muss sich einfach mal zwingen, das große System zu nutzen (ausschließlich!) und dann, nach ein paar Wochen/Monaten Gewöhnung auf das kleine System zurückgehen -> probier es mal selbst, du wirst staunen. In der Betrachtungsweise fällt dir nämlich dann auch direkt ein Unterschied auf. Was scheinbar daran liegt, dass der Mensch ein Gewohnheitstier ist. Wenn du es gewöhnt bist, Zugriffe in der Art und Weise xy zu sehen, wird ein deutlich langsamer faktisch extrem als schlecht wargenommen. Andersrum hingegen, schneller arbeiten als gewohnt erfordert eine Eingewöhnung und geht idR eher langsamer über