Hallo,
ich finde leider dass diese Info einfach schon zu alt ist und einige Tips hier nicht mehr zutreffen.
Ganz entschieden muss ich mich auch gegen das "Auslagern der Auslagerungsdatei" <--- tolles Wort
aussprechen.
Microsoft sagt
ausdrücklich dass das pagefile.sys AUF die SSD mit soll. Bin jetzt zu faul den Link nochmal zu suchen.
Grund u.a. auch dass bei Auslagerungsdatei-Zugriffe BEI WEITEM MEHR sequentielle reads und längere writes und
weniger writes mit kleinen Blockgrössen stattfinden, dieses optimal für SSDs ist.
Das Ausschalten der Auslagerungsdatei..bitte nicht...Ihr wollt doch nicht ne brandneue SSD für Performance...und DEAKTIVIERT dann virtuellen Speicher?
Schlimmste Sünde: Auslagerungdatei ins RAM <-----
(Muss ich wohl nicht ins Detail gehen...das wäre ein sehr krasses Fehler dieses zu tun)
Optimierungen von SSDs und allgeimeine Windows Optimerungen
Es gibt in der Tat einige Programme die bspws. die "random writes" in sequentielle umwandeln. Diese "random writes" sind die die einigen SSD zu schaffen machen.
JEDOCH: Ist mit neuen, cachenden SSDs der Nutzen sehr zweifelhaft!
Ich habe auch einige sehr interessante Tips gelesen dass man ja ganz einfach mit Sysinternals PROCMON "alltägliche" Filezugriffe in Windows mal monitoren kann...dann sieht man ganz deutlich WELCHE TASKS/Prozesse in Windows häufig "writes" machen.
Natürlich sind die Reads (die SSD freundlichen) da weitaus mehr vertreten als die writes mit kleineren Blockgrössen!
Künstliche Benchmarks mit künstlichen "random write" tests sagen NIX, aber GAR NIX über real life Windows Performance aus - und schon GAR NICHT über den realen Gewinn den jetzt "schnellere" random writes haben sollen. (Über Server Umgebungen reden wir jetzt mal nicht)
Man kann sich mal ein Log von Procmon ansehen und sieht dass eigentlich in einem typischen System nur WENIGE PROGRAMME diese writes machen.
1) Firefox ist krass da es laufend auf eine SQLite database schreibt
2) Viruschecker (wie Kaspersky) laufend was in Logfiles schreiben.
3) Und vereinzelt andere Programme
Lösungen:
Ramdisk scheint mir
tatsächlich sinniger als das sehr komplex zu installierende (und veraltete!) MFT ("SSD Beschleuniger").....andere Lösungen könnten auch sein Umleitung von häufig beschriebenen Ordnern/Dateien ins ram oder sogar auf Festplatte.
Bspws. kann man ja einen symbolischen Link/Junction auf der SSD erstellen und so Verzeichnisse entweder ins RAM oder auf HD umleiten..bspws. Temp Ordner, Firefox Cache...solche Sachen. Dann auch rumexperimentieren ob es wirklich reale Vorteile bringt.
Procmon laufen lassen und halt mal gucken was für Zugriffe stattfinden und dann Anwendungen dahingehend konfigurieren bzws. Optionen. Beispielsweise Logs ausschalten oder Umleiten. Solche Dinge.
Man kann in der Tat
eine Menge optimieren, sei es wie das OS arbeitet oder, mehr noch, wie einzelne Programme arbeiten, wo diese hinschreiben.
Anmerkungen:
Dieses ganze kam mir nachdem ich verstanden habe wie eigentlich dieses alte MFT "SSD Beschleuniger" Programm arbeitet welches "random writes" in sequentielle umwandelt und welches von einigen bei alten SSD verwendet wurde um dieses Manko der langsamen random writes zu beseitigen.
Was MFT tut ist dass es diese Optimierungen für die Systempartition C: erstellt - aber NICHT für den WINDOWS/ Ordner. Der WINDOWS/ ordner bleibt "read only" - während für das restliche C:\ diese Optimierung/Cache aktiv ist.
Nun kann man ja gucken was eigenlich auf der System-Partition (minus dem WINDOWS Ordner) ist - und es sollte bald klar werden welchen "realen" Gewinn so ein Programm haben könnte. Benchmarks interessieren da natürlich AUCH nicht, uns interessiert der reale Gewinn beim täglichen Arbeiten in Windows, Programme starten usw.
(Es hat wirklich wenig Nutzen wenn mir der Benchmark sagt dass ein Tool random writes "im Prinzip" 100x beschleunigt...aber nur eine Handvoll Programme solche Writes auf der SSD auch ausführen)
Das Argument man müsste Optimieren im Hinblick auf die Lebenszeit der SSDs
Ist klar dass einige Leute "Optimierungen" suchen mit dem Ziel die Lebensdauer der SSD zu verlängern - wenn man aber versteht wie SSDs arbeiten muss klar werden dass Optimierungen für DIESEN ZWECK Unsinn sind. Es gibt schon genug Aufrechungen wieviele Gigabyte man
täglich auf eine SSD mit "nur" 10.000 "erase cyclen" (wie bei den gängigen, derzeiten MLC SSDs) schreiben kann bis sie den Geist aufgibt. Ohne hier weiter ins Detail zu gehen, ihr könntet ca. 20GB (Gigabyte) TÄGLICH auf eine 64GB SSD schreiben und sie würde auch auf jedem Fall 7++ Jahre halten.
<--- Es ist NICHT so dass ihr Optimierungen braucht und Lesen/Schreiben reduzieren müsst weil "...ansonsten die SSD nach einem Jahr den Geist aufgibt". Das ist ein Mythos der so nicht zutrifft. Die SSD wird mit ziemlicher Wahrscheinlichkeit länger halten als jede Festplatte.