16Gb werden nicht genutzt.

Hi

Sowie ich mich erinnern kann, reserviert die Hardware ja nicht den vorhandenen Arbeitsspeicher, sondern ist (war mal?) einfach zusätzlich im Adressraum (zwecks Adressierung) vorhanden? Und dabei handelt es sich wohl nur um einige MByte?

Natürlich abgesehen von iGPU's, die den Arbeitsspeicher auch benötigen.

Ansonsten spannender Fred. Ich hatte bislang die Pagefile auch immer aus, aber werd die wohl morgen mal wieder einschalten, aufgrund des allgemeinen Tenors. Hatte manchmal nen Blauen, vielleicht kam der ja von daher (Flash Filmstream, Puffer auf unbegrenzt).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht eine Bett-Lektüre für Dich? Blogs - Mark's Blog - Site Home - TechNet Blogs lohnt sich.

Ich kenne den Beitrag sehr gut, du anscheinend nicht gut genug. Auch wird ja *mehrfach* darauf hingewiesen, dass der virtuelle Speicher lediglich eine *Erweiterung* des physikalisch vorhandenen Speichers ist. So what?

Ich habe bisher noch nirgends einen echte Proof gesehen, dass Programme mit Auslagerungsdateien besser (oder überhaupt) laufen als ohne. Die einzigen Quellen im Netz (wo auch du immer den gleichen abgestandenen Senf zu abgibst) beziehen sich lediglich auf gemoddete Spiele, und das ist eben wieder diese Frickelei, die man in eine vernünftige, allgemeingültige Diskussion dieser Art kaum einbeziehen kann - höchstens als schlechtes Beispiel.
Da ich allerdings keines der Spiele besitze, kann ich es nichtmal nachvollziehen oder gar debuggen. Mich würde ein Proof aber wirklich interessieren, da die Behauptung so abstrus ist, dass sich dahinter ziemlich sicher ein dirty Hack verbirgt.
Die einzige (theoretische) Erklärung, die ich momentan für deine Behauptung finde ist, dass bei gemoddeten Spielen (Textur Packs, die größer sind als die Originalen) eine Art Pufferüberlauf im Hauptprogramm stattfindet, der dann vom Pagefile "abgefangen" wird. Da befinden wir uns aber auf einer sehr experimentellen Ebene, und dass diese Spiele auch MIT Pagefile gern mal abstürzen ist auch kein Geheimnis. Warum steht wohl bei vielen (inoffiziellen) Spiele Mods sowas wie "Benutzung auf eigene Gefahr", "Ist nicht 100%ig stabil" o.ä.!? Solange der Programmierer diese Mods nicht explizit vorgesehen hat im Code, wundert mich erstmal garnichts.

Ansonsten kann man bei ganz "normalen" Anwendungen ohne irgendwelche Modifikationen sagen:
Ist genug Speicher da, kann man Auslagerungsdatei aus machen. Ist der Speicher dann voll, ist Ende.

Sogar auf der Microsoft Seite wird impliziert, dass man das Pagefile bei genug RAM ausschalten kann, aber das ist für dich sicherlich kein Grund von deiner Meinung abzurücken.

Wie gesagt, ich warte auf einen reproduzierbaren Proof, ansonsten ist es erstmal nur Gelaber...
 
*grübel*
Ungemoddetes Spiel. Sehr billig.
Star-Ruler.
Einfach die Anzahl der simulierten Sternensysteme erhöhen bis das Programm mangels Speicher abschmiert.

Edit: Hat ein LAA-Flag. Schmiert erst bei 3.7GB ab. Eventuell doch kein so gutes Beispiel^^
Edit2: Habs jetzt mal mit und ohne Auslagerungsdatei mit und ohne LAA-Flag ausprobiert. Schmiert bei 1.8/3.6GB ab. Also genau da wo der Adressraum zuende ist, unabhängig von der Auslagerungsdatei. Da hat der Sushimaster also recht. D.h. der Umstand dass die Games mit angeschalteter Auslagerungsdatei weniger (oder später) Probleme bereiten hängt nicht grundsätzlich von den 2GB/4GB Userspace ab, sondern scheinen nur im Zusammenhang damit zu stehen dass das System mit angeschalteter Auslagerungsdatei mehr "Freiheiten" bei der Speicherverwaltung hat.
 
Zuletzt bearbeitet:
Oder ist hier jemand Programmierer, oder hat wenigstens das Windows SDK/WDK schonmal durchgeschaut ("verstehen" will ich garnicht voraussetzen)? Hat hier jemand schonmal malloc() in eine IDE eingetippt? Ich vermute nicht...

Nein, ich bin kein Programmierer. Aber ich arbeite seit den 90ern in der Branche und betreue mittlerweile eine zweistellige Anzahl an Servern mit diversen Funktionen und eine mittlere dreistellige Zahl an Clients. Ein wenig Praxiserfahrung ist also vorhanden.

Ich sehe nach wie vor keinen Sinn darin, die Auslagerungsdatei abzuschalten. Ich halte es auch für wenig praktikabel, die Auslagerungsfunktion "bei Bedarf" einzuschalten. Das funktioniert wirklich nur in einer sehr kleinen IT-Welt.
 
Mit Auslagerungsdatei mag Windows noch krampfhaft versuchen die Pages hin- und herzukopieren, aber wenn das Spiel versucht mehr Speicher zu allokieren als möglich (=> 2GB/4GB) ist einfach Ende.
Schlimm ist eigentlich die Tatsache, dass das Spiel es nicht abfängt, was auf eine "schlampige" Programmierung hindeutet (grob formuliert, ohne den Code oder die Engine genauer zu kennen).

Und das ist eben das Problem! Wenn du ein Spiel nimmst, wo der Programmierer als Anforderung "Max 2GB RAM verbrauchen, da 32Bit" hat, müssen zB Texturen und halt Daten im Allgemeinen entsprechend kalkuliert sein. Wenn man jetzt mit einem Mod die Sachen einfach in der Größe ändert (besonders dann, wenn es nicht vorgesehen ist), landet man im DeadEnd.

Mich würde es trotzdem interessieren, ob du noch ein anderes Beispiel findest, meinetwegen auch ein gemoddetes Spiel, wo die Existenz des Pagefiles den Absturz nachweislich unterbindet.

- - - Updated - - -

Nein, ich bin kein Programmierer. Aber ich arbeite seit den 90ern in der Branche und betreue mittlerweile eine zweistellige Anzahl an Servern mit diversen Funktionen und eine mittlere dreistellige Zahl an Clients. Ein wenig Praxiserfahrung ist also vorhanden.

Dann sind wir ja quasi in der gleichen Branche. Ich betreue zwar weniger Clients (das reicht auch dicke) dafür aber mehr Server ^.^
Auf allen "überdimensionierten" Clients (>=16GB Ram, Intel 4-8Kerner und/oder DualCPU, dedizierte GraKa,...) habe ich es eingerichtet wie bei mir (RamDisk, Auslagerungsdatei, diverse Tweaks), da der Fokus auf Geschwindigkeit liegt. Es gibt bei exakt 0% dieser "Brocken" Probleme damit. Zur Fairness sei gesagt, dass diese Clients gerade mal ein Dutzend sind, und wirklich *überdimensioniert* für den Anwendungsfall sind. An den Maschinen hast du aber wirklich einen entsprechenden Geschwindigkeitsrausch, und wenn du dich wieder an einen "konventionellen" PC setzt, merkt man das auch.

Ich halte es auch für wenig praktikabel, die Auslagerungsfunktion "bei Bedarf" einzuschalten. Das funktioniert wirklich nur in einer sehr kleinen IT-Welt.

Es ist nicht praktikabel, aber es kommt bei mir auch selten vor. Die wenigen Male wo ich mehr als 10GB Ram brauche sind absehbar. Vllt 2-4x im Jahr. Ist mir aber immer noch lieber als ständig den Bremsklotz laufen zu haben.

So, ich warte jetzt noch auf Beispiele von HisN, dann sag ich einem Mod bescheid, dass hier aufgeräumt werden muss :d
 
Langsam ufert das hier aus :d

Also

1:mem ok gemacht, ram passt mainboard passt auch weil es erst bei asus war und ich hab die bestätigung das das MB keinen schaden hat.
2: Memory Hole RE. hab ich aktiviert und deaktiviert= keine änderung bzw 1gb weniger ram als deaktiviert war

es wird nach einem bios reset immer kurioser
siehe bild :d

@hisn sorry bei sovielen seiten ich seh erst jetzt deinen post, ok reich ich gleich nach


edig:so alles da und ich werd nicht schlau draus, cpu takt erhöht weniger speicher lol. danke hisn das du trotzdem noch helfen möchtest
 

Anhänge

  • ram 4.jpg
    ram 4.jpg
    182,7 KB · Aufrufe: 61
  • cmd.JPG
    cmd.JPG
    100,3 KB · Aufrufe: 61
  • IMG_0912.jpg
    IMG_0912.jpg
    156,5 KB · Aufrufe: 84
  • IMG_0913.jpg
    IMG_0913.jpg
    142,8 KB · Aufrufe: 65
  • IMG_0914.jpg
    IMG_0914.jpg
    141,2 KB · Aufrufe: 67
  • IMG_0915.jpg
    IMG_0915.jpg
    167,3 KB · Aufrufe: 58
  • IMG_0916.jpg
    IMG_0916.jpg
    194,1 KB · Aufrufe: 58
  • cmd1.JPG
    cmd1.JPG
    48,4 KB · Aufrufe: 55
Zuletzt bearbeitet:
@Sushi
Von mir? Ich hab keine Probleme, denn meine Auslagerungsdatei ist immer an^^
Ich sehe immer nur die 1000 Threads in den Foren, bei denen die Probleme immer verschwinden, sobald die Auslagerungsdatei wieder angeschaltet wird.
FSX, Minecraft (Java), BF4, Company of Heroes .... das fällt mir so spontan ein. Kann auch nix dafür, dass es immer Gamer sind, die in Probleme rennen^^
 
@Ole
Da werden nur 12GB im ersten Post-Screen hochgezählt http://www.hardwareluxx.de/communit...474517-16gb-werden-nicht-genutzt-img_0912.jpg und nur 8GB im zweiten. Keine 16. Also liegt Dein Problem schon mal viel Tiefer als Windows. Da wollte ich hin. Es ist kein Windows/Software-Problem.
Das hätte Dir eigentlich schon (ist ja nicht so als hätte ich nicht gefragt) viel früher auffallen können, aber gut das wir es jetzt sehen. Da fällt die Hälfte aller Fehlerquellen (msconfig, BCD, Tuning-Software, Auslagerungsdatei etc. etc. etc. ) alles weg (und nur deshalb bin ich so erpicht auf den Post-Screen, weil er Fehlerquellen reduziert).
So lange im Bios basteln bis da 16GB im Post stehen.
Im Bios selbst werden 16GB erkannt (und auch mal nur 8^^), das sehe ich. Aber wichtig ist der Wert den der Post-Screen anzeigt. DAS ist die Menge die an Windows weitergegeben wird. Nur dieser Wert zählt erst mal.
Du darfst so lange am Bios arbeiten, bis da 16GB stehen. Du kannst das ja mal beobachten, ob die Speichermenge im Windows in etwa der Speichermenge gleicht, die Du im Post-Screen siehst.
Im Bios arbeiten bedeutet: Timings sanfter einstellen. Speicher-Spannung sanft erhöhen, Speicher-Controller (ich glaub das firmiert bei AMD noch unter Northbridge, ABER ich bin kein AMD-Checker, eventuell weiß das einer besser als ich) mit mehr Spannung versorgen. Testweise mal den Takt vom Speicher langsamer. Auf jeden fall 2T beim Command-Cycle reindrücken.

Thx für die Windows-Screens, auch wenn sie Momentan erst mal bedeutungslos sind.
Ich weiß nicht genau wie es bei AMD ist, ob die Speichergeschwindigkeit an den CPU-Takt gebunden ist oder nicht. Aber wenn Du die CPU-Geschwindigkeit hochdrehst, und die Speichermenge fällt, dann könnte das gut zusammenhängen, dann wird nämlich der eine Riegel der sowieso kipplig ist gleich auch nicht mehr erkannt, weil der Speichercontroller den höheren Takt noch weniger verträgt.
 
Zuletzt bearbeitet:
ähm nur mal so am rande warum auch immer aber bevor ich das bios resetet hab standen 16 da und wie du auf dem einen bild siehst stehen auch 16 da und das aktuell, also wo anfangen?
 
Ich brauch immer länger meine Gedanken zusammenzufassen, deshalb wachsen meine Beiträge über die Zeit. Ich hab ein paar Hinweise in den Post #68 gestellt.
 
alles klar habs gelesen, ich hab 2 T immer drin :d ich probier mal bissle was
 
mal schauen was ich aus meiner AMD-Zeit noch weiss...

die ganzen auto-OC-Dinger sind aus?
Northbridge Takt auf 2200Mhz?
HT-Link auf 2600Mhz?
BaseClock weiterhin auf 200Mhz?

Nicht dass ein Teil der Riegel da OC nicht mitmacht (mir kommen die DDR3-1903 komisch vor, um die zu erreichen muss man doch am Base/HT-Clock was ändern)

würde vorerst nur mit Stock-setting testen, um die Ursache auszuschließen.
 
Klasse Thread, vielen Dank an HisN und Sushi, sehr interessant. Ich hab die Auslagerung noch nie abgeschaltet, probier ich demnächst aber mal an einem nicht so wichtigen PC aus, evtl. hast Du für mich ein paar Tips dazu Sushimaster?


btt..

Ich hoffe der Ole findet es noch, ich hätte die Geduld schon längst verloren und mir was anderes besorgt...
 
@ole88: poste mal bitte die 5 Screens, die CPU-Z zu deinem RAM hat (also Tab Memory + Tab SPD für jeden Speicher-Slot).
ECC-Mode im BIOS bitte ausschalten, wenn es keine ECC-RAMs sind.
Screenshots der im BIOS angezeigten Frequenzen und Spannungen (insbesondere des Speichers) wären evt. auch hilfreich.
 
Zuletzt bearbeitet:
Klasse Thread, vielen Dank an HisN und Sushi, sehr interessant. Ich hab die Auslagerung noch nie abgeschaltet, probier ich demnächst aber mal an einem nicht so wichtigen PC aus, evtl. hast Du für mich ein paar Tips dazu Sushimaster?

Wenn dann per PM!
 
SSDs schont man, indem man möglichst wenig darauf schreibt. Jeder Schreibzyklus tut weh.
Ach was, das ist totaler Unsinn, denn die ersten Tipps zur Vermeidung von Schreibzugriffen waren nie wegen der Schonung der NANDs, sondern weil die ersten SSDs bei kurzen zufälligen Schreibzugriffen ähnlich mies waren wie es USB Sticks heute noch meist sind, wenn sie keinen SSD Controller enthalten. Teils sogar mieser, so ein JM602 konnte sich schon mal 2s Bedenkzeit beim Schreiben erbitten.

Neuere SSDs waren davon aber nicht betroffen und heute schreiben SSD auch bei 4k weit schneller als HDDs, diese Optimierungs Tipps hätten also schon vor 4 bis 5 Jahren auf dem Müllhaufen der Geschichte landen können, zumindest seid Win 7. Nur kommen damit immer noch Leute an und verkaufen den alten Hut als Schonung der SSDs. Die brauchen aber nicht geschont zu werden, die halten meist länger als der Anwender leben wird! Das gilt zumindest für die Lebenserwartung der NANDs, da brauchen die meisten Heimanwender vielleicht 1 bis 2 % der spzifizierten P/E Zyklen im Jahr auf, aber an der SSD selbst düfte unabhängig davon irgendwas anderes kaputt gehen, oder wird als zu alt und zu klein ausrangiert.

Wer seine SSD hat um sie zu schonen und sein System verbiegt um ja noch weniger darauf zu schreiben, der lässt i.d.R. Leistung liegen, bekommt dafür dann vielleicht für 200 Jahre P/E Zyklen statt für 150 Jahre, erleben wird er beides nicht. Also nutzt die Teil und gut ist, dafür sind sie da und meist ist nach 2 oder 3 Jahren die Versuchung die alten, kleine gegen eine aktuelle, schnelle zu tauschen sowieso größer. Ob dann 5% der spzifizierten P/E Zyklen verbraucht sind oder 10 spielt doch keine Rolle, zumal die NANDs guter SSDs bei 100% nicht am Ende sind, die kommen eigentlich immer über 200% und das teils weit, sehr weit sogar.

Nur mal so: Diese 840 Pro 128GB hat über 3PD geschrieben, die spezifizierten P/E Zyklen waren nach 465 TB verbraucht, also bei weniger als 1/6!
 
Ach was, das ist totaler Unsinn, denn die ersten Tipps zur Vermeidung von Schreibzugriffen waren nie wegen der Schonung der NANDs, sondern weil die ersten SSDs bei kurzen zufälligen Schreibzugriffen ähnlich mies waren wie es USB Sticks heute noch meist sind, wenn sie keinen SSD Controller enthalten. Teils sogar mieser, so ein JM602 konnte sich schon mal 2s Bedenkzeit beim Schreiben erbitten.

Neuere SSDs waren davon aber nicht betroffen und heute schreiben SSD auch bei 4k weit schneller als HDDs, diese Optimierungs Tipps hätten also schon vor 4 bis 5 Jahren auf dem Müllhaufen der Geschichte landen können, zumindest seid Win 7. Nur kommen damit immer noch Leute an und verkaufen den alten Hut als Schonung der SSDs. Die brauchen aber nicht geschont zu werden, die halten meist länger als der Anwender leben wird!

Ich hatte es oben weiter schon beschrieben, ich habe beruflich damit zu tun, und ich hatte schon EINIGE kaputte SSDs, die nicht wirklich alt waren. Teilweise nur wenige Wochen, einige 2-3 Jahre alt. Meine Praxiserfahrung deckt sich also nicht mit deiner - vermutlich ohne Praxiserfahrung getätigten - Aussage, dass NANDs "sowieso" den Anwender überleben.

Fakt ist, dass Flashbausteine eine limitierte Lebensdauer haben - und das mag hier auch wohl keiner bestreiten, oder? Ich kann nur empfehlen, sorgsam mit der SSD umzugehen. Man muss ja keine Bremse einbauen oder so, aber zB absolut überflüssige Schreibvorgänge umgehen ist ja wohl eine sinnvolle Herangehensweise. Neben der - wenn auch vllt. homöopathisch Menge - geringeren Abnutzung durch Schreibzyklen gibt es ebenfalls einen Geschwindigkeitsvorteil - denn schreiben im RAM ist *immer* schneller als auf eine SSD. Jede Leugnung dieses Fakts würde nur eine Unkenntnis der technischen Gegebenheiten offenbaren.

Achja, die 840 Pro ist eine gute SSD, die empfehle ich auch gern und verkaufe/verbaue diese auch. Aber die jetzt als Referenz zu nehmen und zu sagen "ALLE SSDs sind jetzt so" ist einfach nur blauäugig und naiv, denn ich habe diverse Gegenbeispiele. Stichworte wären hier SanDisk, OCZ Vertex 3/4 (und div. andere Baureihen),...
 
Naja, aber Du wirst doch zugeben müssen, dass eine SSD, die nach wenigen Wochen ausfällt schon ab Werk Mängel gehabt haben muss, sofern sie fachgerecht eingebaut und genutzt wurde.
Und vor 2-3 Jahren gab es noch wesentlich mehr SSDs mit Kinderkrankheiten, da habe ich auch noch "schöne" Erinnerungen an meine Super Talent mit Indilinx Barefoot oder diverse OCZ Vertex. Die Zeiten sind aber glücklicherweise vorbei.
 
Schon mal drann gedacht dass es praktisch (für den Heimanwender) unmöglich ist eine SSD in einigen Wochen Totzuschreiben?
Da ist sicherlich nicht das Flash bei Dir draufgegangen. Und die 2 Wochen wären auch mit angeschaltetem SWAP gewesen :-)
Und nach 2 Jahren. Das sind doch Zeiten in denen die HDDs auch anfangen auszusteigen. DAS ist doch wirklich kein Beinbruch, oder Du als Profi hast da andere Ansprüche als die normalen Anwender. Deshalb dieser Aufriss, und die Aufforderung zu Problemen? No Go.
 
Zuletzt bearbeitet:
ich hatte schon EINIGE kaputte SSDs, die nicht wirklich alt waren. Teilweise nur wenige Wochen, einige 2-3 Jahre alt.
Das sie kaputt waren muss aber nicht bedeuten, dass die NAND am Ende waren, gerade wenn sie nur 2 bis 3 Wochen alt wurden, kommen da sehr wohl andere Gründe für in Frage. Deshalb habe ich ja auch geschrieben "an der SSD selbst düfte unabhängig davon irgendwas anderes kaputt gehen" und das war in der Vergangenheit bei manchen auch der Fall, z.B. bei den Sandforce mit frühen FW Versionen und dem OCZ Schrottserien wie Octane und Petrol.
Meine Praxiserfahrung deckt sich also nicht mit deiner - vermutlich ohne Praxiserfahrung getätigten - Aussage, dass NANDs "sowieso" den Anwender überleben.
Ein bischen Praxiserfahrung habe ich auch mit SSDs und sie wie Du hier richtig sagst, habe ich behauptet, dass die NANDs den Anwender überleben werden, normale Heimanwender wohl germerkt, bei Enterprise Usern mit schreibintensiven Anwendungen ist das natürlich etwas anderes.


Jede Leugnung dieses Fakts würde nur eine Unkenntnis der technischen Gegebenheiten offenbaren.
Hau nicht so auf die Kakke, das tut dem Diskussionstile eines Forum nicht gut und der fällt hier bei HL mit zunehmender Geschwindigkeit sowieso ins bodenlose. Du solltest meinem Beitrag auch noch mal in Ruhe lesen und versuchen Deine Kenntnisse bei dem zu beweisen, was Pisa als "Lesen und Verstehen" definiert!

Da steht nämlich klar, dass der gewöhnliche Heimanwender nur einen Bruchteil limitierten der P/E Zyklen der NANDs seiner SSD überhaupt aufbraucht, bevor er sich eine neue, größere, schneller etc. SSD holt. Ob die also mit noch 90% der spzifizierten P/E Zyklen nach 3 Jahren abserviert wird oder mit 95% oder mit 98%, spielt keine Geige.

Stichworte wären hier SanDisk, OCZ Vertex 3/4 (und div. andere Baureihen),...
Die SanDisk sind so schlecht nicht, von viele Ausfälle kann dort nicht mehr die Rede sein und wer nach Anfang 2011 noch OCZ Schrott gekauft hat, war schlicht nicht informiert, denn spätestens in in diesem Artikel von Anandtech vom 6.04.2011 konnte man nachlesen, dass OCZ auch offiziell zugab NANDs von Spectek verwendet zu haben. Auch wenn das dort nicht steht und man dort nur auf die Performance eingegangen ist, aber Spectek ist die Restrampe von Micron und keine SSD sollte Spectek NANDs enthalten. Alle Qualitäten die für SSDs ausreichend sind, werden als Tier 1 oder Tier 2 von Micron selbst vertrieben, was über die Resterampe geht, ist allensfalls für USB Stick, billige Smartphone, Tablets, Spielzeug, etc. geeignet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh