Fancycache SSD cache tool

spieluhr hats wohl doch noch begriffen, bei andern hab ichs gefühl sie haben die letzten 7 seiten wohl nur überflogen....
Ich hatte die letzten Seiten auch nur "überflogen", da mir die Arbeitsweise dieses Tools auch so schon einleuchtet. :d ..nicht schlimm, oder?

Mir ging es aber eher darum, einmal aufzuzeigen, daß dieses Tool auch in bestimmten Konstellationen/Konfigurationen eher kontraproduktiv, ja sogar gefährlich (im Sinne von Datenverlust usw.) aggieren kann.

Das daß Tool eine Art "Rambooster" ist war mir schon vorher klar. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
datenverlust hast nur bei stromausfall oder freeze.. soweit sollte aber jeder mensch denken können das etwas das sich im ram befindet dann halt futsch geht
 
Korrigiere mich wenn ich falsch liege und wenn ja warum, ok? ..aber der Tenor dieses Threads ist doch, daß die Daten zuerst in den Cache/Ram geschrieben werden und erst bei einen Overflow der eingestellten Kapazität oder einstellbaren Timeout wieder zurück geschrieben werden, richtig?
 
so siehts aus. ;P lädst du aber ne word datei (nehmen wir was kleines ) in den cache, bearbeitest diese existiert diese für windows was das bearbeiten / lesen angeht nur im cache.. das teil auf der hdd wird erst verändert wenn einer der beiden erwähnten fälle eintritt.. schmiert dir halt der rechner vorher ab ist das erreichte dahin.

hab mir jetzt gradmal 8gb ddr3 ram fürn laptop bestellt :) falls der läuft werd ich auch mal intensiver testen können
 
Das ist was ich versucht habe auf der letzten Seite zu erklären mit "gefährlich" im Sinne von zb. Datenbankbugs usw. usf. ;)

Stell dir mal vor, 2 Rechner die über einen Server vernetzt sind. Dort läuft eine Datenbanksoftware und an den beiden Rechnern wird jetzt versucht über die Software auf den gleichen Datensatz einer Datenbank zuzugreifen. Normalerweise schreibt der Rechner welcher den Datensatz zuerst öffnet über die Anwendung eine Art Stopbit zurück die dem anderen Rechner bei Versuch den gleichen Datensatz zu öffnen und zu bearbeiten signalisiert, daß dieser schon in Bearbeitung ist. Wenn dieses Stopbit (nenne ich jetzt mal so) vom virtuellen Cache des Tools aber abgefangen wird aus im Vorpost genannten Gründen, bleibt der Datensatz zur bearbeitung für den anderen Rechner offen - der Crash ist somit vorprogrammiert.

Das Fancycache meinetwegen durch das "vorladen" in den Cache, je nach Situation die Schreiblast auf das Zielmedium reduziert, dadurch das es zb. Duplikatdateien oder temporären "Müll" sondiert, daß bestreite ich ja nicht.
 
nun wie sich das verhält wenn man im netzwerk auf einem rechner fancycache nutzt kann ich dir nicht sagen. aber ich gehe davon aus das windows dann genau so mit umgeht als wären die daten im normalen windows ram cache.. die programme merken ja nix von fancy cache .. sonst könnte es ihnen und windows ja nix vorgaugeln..

müsste man halt mal testen ;) dafür ist ja ne beta da.


wenn ich meinen ram hier habe bin ich gern für allerlei tests bereit... nur mit 2gb ram wo auch noch shared memory an die graka geht sind meine möglichkeiten momentan noch begrenzt ^^ da ich ein 32bit win7 habe kann ich auch das mitm invisble memory mal testen.

denke mal bei dem tool wird sich jetzt eh noch einiges tun.. ocz mischt ja jetzt in der entwicklung mit.. und das erst seit der aktuellen version...
 
Zuletzt bearbeitet:
Also meiner Meinung nach ist das Tool für Datenbankrechner, erst recht Mehrplatzlösungen im Netzwerk, absolut nicht geeignet.

Im Home-PC für den Normaluser schon, da gebe ich dir recht - solang es auf Einzelplatzsysteme angewendet wird. :)

Aber das würde mich echt mal interessieren, wie schnell und fatal die Bugs bei Mehrplatzrechnern über dieses Tool anhand der Datenbanksoftware auftreten. Schade, hab hier Zuhause nur einen Rechner und auf der Arbeit werd ich es bestimmt nicht im System aufspielen. :d
 
naja du weisst ja nicht ob diese probleme überhaupt auftreten.. ich denke mal die entwickler werden an sowas auch gedacht haben.. die machen ja eigentlich eher software für firmen und nicht für den heimanweder...

ich hab aber leider auch kein netzwerk zur hand. interessiert mich aber auch net so brutal muss ich zugeben. solangs da was bringt wo ichs nutzen will.

(performance vom system noch etwas steigern und die ssd schonen)
da ocz nun ja bei dem programm mitmischt.. vllt werden sie ja bald etwas in der richtung anbieten...
 
Ich hab mal so einen ganz banablen Kopiertest gemacht über Fancycache und einfach mal 4 Ordner mit 28455 Dateien und einer Gesamtgröße von 5,14GB. von der Windows SSD Partition auf das andere SSD-Volume im gleichen Verbund kopiert:

mit Fancycache: Kopierstream min/max 13,4/32,1 | Kopierzeit 2,25min
ohne Fancycache: Kopierstream min/max 18,7/44,6 | Kopierzeit 2,06min

..kann es sein, daß Fancycache da ein wenig den Stream ausbremst?

Eingestelt im Fancycache: Blocksize 4kb, Cachesize 4000MB, Enable Defer Write 5sek., Algorithm LFU-R, Enable L2-Cache, Invisible Memory.
Volume-Stripesize des Raid 128kb - 2 SSD OCZ-Vertex2E.
 
Bei einem Raid sollte die Blocksize von FC dann mindestens doppelt so groß sein, wie die Stripesize des Raid oder ? Wenn sie gleich groß wäre, würde ja nicht mehr gestriped......
 
na was soll da auch der geringe defer write von 5 sekunden bringen.. immernoch net begriffen das fancy cache erst wirklich was bringt wenn die daten die möglichkeit haben im cache zu bleiben? wenn sie nach nen paar sekunden wegen der zeitlichen begrenzung geschrieben werden kann sich da ja nicht viel tun.

und wenns dir nur darum geht daten von a nach b zu schieben bringt dir der lru modus eigentlich auch mehr
lfu-r versucht ja hauptsächlich daten im read cache zu behalten das nicht soviele dateien die öfters schreiben das tun müssen..
also selbst wenn du 10GB cache gibst kanns sein das nur 3-4gb als write cache benutzt werden
 
Zuletzt bearbeitet:
Stell dir mal vor, 2 Rechner die über einen Server vernetzt sind. Dort läuft eine Datenbanksoftware und an den beiden Rechnern wird jetzt versucht über die Software auf den gleichen Datensatz einer Datenbank zuzugreifen. Normalerweise schreibt der Rechner welcher den Datensatz zuerst öffnet über die Anwendung eine Art Stopbit zurück die dem anderen Rechner bei Versuch den gleichen Datensatz zu öffnen und zu bearbeiten signalisiert, daß dieser schon in Bearbeitung ist. Wenn dieses Stopbit (nenne ich jetzt mal so) vom virtuellen Cache des Tools aber abgefangen wird aus im Vorpost genannten Gründen, bleibt der Datensatz zur bearbeitung für den anderen Rechner offen - der Crash ist somit vorprogrammiert.

Möglichkeit 1:
[Client1 mit fc] ------[NAS]---------[Client2]

Wenn die Datenbank nur auf einer "dummen" Netzwerkfestplatte liegt und Fancycache am Cleint läuft, kann das Probleme geben, ja. (Wobei ich nicht weiß, ob Fancycache überhaupt für Netzwerklaufwerke funktioniert? Ich glaube stark, dass das nicht geht... unter anderem aus den genannten Gründen)


Möglichkeit 2:
[Client1]--------[DB-Server mit fc]---------[Client2]
Sollte Fancycache am Datenbankserver laufen, dann ist der Zugriff mit mehreren Clients ja kein Problem und läuft sogar schneller, da dann die Daten ja im RAM am Server liegen.


Edit:
Ich hab mal so einen ganz banablen Kopiertest gemacht über Fancycache und einfach mal 4 Ordner mit 28455 Dateien und einer Gesamtgröße von 5,14GB. von der Windows SSD Partition auf das andere SSD-Volume im gleichen Verbund kopiert:

mit Fancycache: Kopierstream min/max 13,4/32,1 | Kopierzeit 2,25min
ohne Fancycache: Kopierstream min/max 18,7/44,6 | Kopierzeit 2,06min

..kann es sein, daß Fancycache da ein wenig den Stream ausbremst?

Eingestelt im Fancycache: Blocksize 4kb, Cachesize 4000MB, Enable Defer Write 5sek., Algorithm LFU-R, Enable L2-Cache, Invisible Memory.
Volume-Stripesize des Raid 128kb - 2 SSD OCZ-Vertex2E.

Mit welchem Tool wurden die Zeiten + Geschwindigkeiten getestet/gemessen?

Der L2 Cache kann nicht greifen - zumindest nicht im "invisible memory"-Bereich, da du laut Systeminfo ein 64bit OS verwendest.

Blocksize sollte man auf die Blocksize des verwendeten Volume stellen. Bei NTFS ist das 4KB, da aber bei dir ein RAID mit 128KB Stripesize darunterliegt, das die 4KB Blöcke erst wieder zusammenfasst, würde ich das mal mit 128KB oder sogar 256KB neu testen. Gerade das ist doch auch ein Vorteil eines Caches, Daten in passendere Blöcke zusammenzufassen.

Danke dennoch, für Realworld-Tests mit allen nötigen Angaben + Einstellungen!
 
Zuletzt bearbeitet:
für ne firma wär möglichkeit 2 ja nur logisch... man stelle sich mal nen stark benutzen server (nur paar gb daten(so um die 40-60) aber unmengen nutzer) mit SAS platten vor.. die kann man auch in die knie zwingen wenn genug leute dran sitzen..

jetzt entlastet man das ganze mit 16gb ram... aufeinmal hat der server weit weniger arbeit.
weil die meisten lese zugriffe aus dem cache kommen und die platten nur noch schreiben müssen, dazu noch weniger chaotisch weil fancycache das ganze sammelt um es dann in einem rutsch weiter zu geben.
oder man schaltet ne 80GB SSD als read cache vor das ganze ding.



möglichkeit 1 würde man wohl eher als heimanwender nutzen...
leider muss ich zugeben.. mit nas , externen festplatten an routern und raid kenn ich mich nicht aus.
 
Zuletzt bearbeitet:
Da fc im Endeffekt ja ein Filtertreiber ist, glaube ich stark, dass das nur für lokale Geräte/Volumes nutzbar ist - immerhin kann man ja bei Netzlaufwerken ja gar keine "Blöcke" adressieren! Man kann ja (als Praxisbeispiel) auch ein *****(?! googles mailboxservice wird zensiert... vermutlich spamschutz)-Konto als Netzlaufwerk einbinden, das dann Daten speichern und ausspucken kann.
 
Zuletzt bearbeitet:
also hab jetzt 8GB ram im laptop und fancycache erkennt den unsichtbaren ram fürs 32bit os einwandfrei ^^

werde die tage testen


erste beobachtung schonmal (und das war für mich auch wichtig)

meine familie macht urlaub.mkv 1.65GB ... 17 gesplittete rar dateien zusammen fügen ging alles in den level 2 cache, die fertig MKV lag auch im cache.. die jetzt nutzlosen rar dateien die im cache warn hab ich gelöscht.. kurzem moment später kam der trim befehl von windows der ja in cache ging.. 1.65GB mehr cache wieder verfügbar

dann wollte ich die mkv natürlich als m2ts.. will sie ja mit opa und oma auf der ps3 gucken.. also tsmuxxer gestartet.. und alles ging komplett in cache..

hat man schön gemerkt das aufeinmal wo vorher noch die SSD limitiert hat aufeinmal die cpu auslastung auf bis 90% hochging.

programme in read cache laden geht auch super.. der lfr-u modus "lernt" ja wie prefetch zb.. also google earth 2 mal gestartet.. und jetzt startet das teil instand aussem ram :)



momentane config:
256MB L1 cache LFU-R Read/Write
5116MB L2 cache (unsichtbare ram)
defer write: 30 min
 
Zuletzt bearbeitet:
programme in read cache laden geht auch super.. der lfr-u modus "lernt" ja wie prefetch zb.. also google earth 2 mal gestartet.. und jetzt startet das teil instand aussem ram :)

Dazu braucht man aber keinen Cache, weil Windows das automatisch macht. Ab dem 2. Start starten alle Programme aus dem Ram. Das kann man mit dem Passmark AppTimer gut messen.

Ich habe mit der 0.5 Beta auch noch einmal eine Testreihe in Bezug auf Videoschnitt durchgeführt:

Als Fancy Cache Setting habe ich 4 kB (HDD1) bzw 512 kB (HDD2), 512 MB, LRU, Write-Only, 120 sec eingestellt. Komischerweise gab es bei meiner HDD2 (eine 1,5 TB Samsung Ecogreen) immer eine Fehlermeldung, wenn ich 4 KB einstellen wollte.

Test 1: 400 MB AVI Datei (MPEG4 Video (H264) 1280x720 50.00fps 1998Kbps), 8 Schnitte (400 MB -> 300 MB), Smart Rendering - Dauer in [min:sec]:

Code:
RAM  -> RAM  0:44
HDD1 -> HDD1 1:08 mit FC 0:55
HDD2 -> HDD2 0:57 mit FC 0:52
HDD1 -> HDD2 0:55 mit FC 0:54


Test 2: 1000 MB AVI Datei (DivX 5 576x432 25.00fps 952Kbps), 5 Schnitte (1000 MB -> 750 MB), Smart Rendering - Dauer in [min:sec]:

Code:
RAM  -> RAM  0:04
HDD1 -> HDD1 1:07 mit FC 0:42
HDD2 -> HDD2 0:33 mit FC 0:21 
HDD1 -> HDD2 0:28 mit FC 0:30

Der letzte Wert passt nicht so recht - der Schnitt dauert mit FC länger. Das Problem ist, dass die ganze Datei nicht in den Cache passt. Mit einem Cache von 2048 MB sinkt die Zeit tatsächlich auf 0:27.

Zwischendurch hatte ich einmal einen Bluescreen - so etwas hatte ich seit Monaten nicht mehr und einmal eine Fehlermeldung beim Runterfahren - die hatte vorher noch nie. Das ist vermutlich dem Beta Status geschuldet.

Fazit:

Auf meine System SSD würde ich das Programm allein schon aus Sicherheitsgründen niemals anwenden. Ich hätte keine Lust mir alle Nase lang ein Systemimage zu ziehen, um das zurückspielen zu können, sollte der PC doch mal unerwartet ausgehen/einfrieren. Selbst mit einer USV würde ich den Cache nicht einsetzen, weil der PC trotzdem einfrieren kann.

Für die System SSD ist meines Erachtens der bessere Weg, einfach nur die Temp Verzeichnisse und sonstige Caches in eine Ramdisk zu legen.

Auf meine Daten HDDs würde ich das Programm evtl. in Einzelfällen anwenden. Würde ich an einer Datenbank arbeiten, würde ich das Tool definitiv ausschalten, denn das Risiko einer korrupten Datenbank steht in keinem Verhältnis zu dem Nutzen.

Beim Videoschnitt ist das Programm ganz nett und kann gerade langsamen HDDs spürbar Beine machen - solange der komplette File in den Write Cache passt.

Also wenn ich 8 GB Ram hätte und das Programm Freeware wäre, könnte ich mir vorstellen, dem Programm 1 GB Ram als Write Cache für meine Datenplatte zu überlassen (der Rest: 2-3 GB für Win und 4-5 GB als Ramdisk, die ich sehr häufig als Zwischenspeicher einsetze).
 
wenn du read/write aktiv hast sollte der cache halt doppelt so groß sein wie die datei selbst.. dann kann die datei auch wirklich von ram zu ram geschickt werden durch FC ^^

habs gradmal mit ner 700mb mkv getestet.. und die als m2ts gemuxxt und nen stream entfernt

mit fancy cache ging das ganze 11 sekunden und ohne 15 sekunden.

ganz schön fand ich allerdings als ich nach ner menge dateien bearbeiten und entpacken 45GB traffic zusammen hatte.. tatsächlich geschrieben wurden aber nur 15GB


ein 64bit OS wär mir jetzt grad aber lieber.... zum videosbearbeiten sind die 5GB cache ja echt schön aber ich hät auch gern 1.5GB mehr für windows gehabt ^^

beim benchmark sieht man auch schön das ein kleiner L1 cache und ein großer L2 cache aus ram wohl langsamer ist (es wird ja von sichtbaren ram in den nicht sichtbaren ram geschrieben.. also laufen schreib und lese vorgänge doppelt ab?) als 1 großer L1 cache
 
Zuletzt bearbeitet:
Zwischendurch hatte ich einmal einen Bluescreen - so etwas hatte ich seit Monaten nicht mehr
Hatte ich die Tage auch schon mehrmals, und den auch seit sehr vielen Monaten nicht mehr gesehen. Und das einzigste was sich hartwaremäßig geändert hatte, war ja das aufrüsten des Speichers von 4 auf 8 GB.
Bekommen habe ich den beim downloaden von Video- und MP3-Dateien. Zuerst wunderte ich mich über den Blauen, zumal beim ersten mal, nach dem hochfahren, auch noch die SSD auf Fehler überprüft wurde. Dann hatte ich zum testen die gleichen (Video-)Dateien noch mal runter geladen, und bekam wieder diesen Blauen. FC aus, wieder die gleichen Dateien gezogen -> keinen Blauen mehr. :hmm:
Am nächsten Tag das gleiche mit MP3-Dateien versucht. Den gleichen Test mit dem selben Ergebnis!! Nun habe ich dann auch mal die alte FC-Beta gegen die aktuelle FC-Beta getauscht. Damit bekam ich keinen Blauen; muß das aber noch mal intensiver testen.
 
wenn du read/write aktiv hast sollte der cache halt doppelt so groß sein wie die datei selbst.. dann kann die datei auch wirklich von ram zu ram geschickt werden durch FC ^^

Ich hatte nur write-only eingestellt. Die Quelldatei muss ja eh erst einmal von der Festplatte gelesen werden. Und da ich den Schnitt nur einmal machen will, bringt mir der Lese-Cache vermutlich nicht viel.
 
stimmt da hast du wohl recht

wie genau hast den bluescreen hinbekommen? würds gern testen ^^

hab jetzt auch sachen am downloaden (jdownlaoder, 1 klick hoster)
habe an die 15GB videos bearbeitet (muxxen, dts in ac3)
zig GB auch hin und her geschoben auf usb platte und zurück und es ist nichts passiert 0.o

selbst da wo FC das letzte MB ram aufgebraucht hat nix...
 
Hatte ich die Tage auch schon mehrmals, und den auch seit sehr vielen Monaten nicht mehr gesehen. Und das einzigste was sich hartwaremäßig geändert hatte, war ja das aufrüsten des Speichers von 4 auf 8 GB.

Sakrileg, du hast als Stromsparer auf 8 GB aufgerüstet! O.k. vermutlich auf 2 x 4 GB, dann verändert sich der Verbrauch ja nicht. :fresse:
 
bin auch auf 2 x 4GB im laptop ^^
ram kann man doch eigentlich nie genug haben... ;)
 
wie genau hast den bluescreen hinbekommen? würds gern testen ^^

Gute Frage. Ich meine es muss irgendwann gewesen sein, als - bzw. kurz nachdem - ich an den Einstellungen etwas geändert hatte. Ich weiß aber nicht mehr wann genau. Während des Videoschnitts war es jedenfalls nicht.
 
du nutzt win xp mit FC?

bei mir ist es Win7 .. vllt hat das ja auch was mit zu tun.. trim befehle usw
weiss auch net so genau
 
Sakrileg, du hast als Stromsparer auf 8 GB aufgerüstet! O.k. vermutlich auf 2 x 4 GB, dann verändert sich der Verbrauch ja nicht. :fresse:
Nö, 4x2GB. Wieviel ich jetzt mehr verbrauche habe ich noch gar nicht gemessen. Aber soviel mehr wird's wohl auch nicht sein.
 
vllt kommen deine bluescreens auch vom zusätzlichen ram... war doch früher auch immer so das die controller das net sogut mitgemacht haben wie mir nur 2 riegeln bei mir ist der stromverbrauch um etwa 4 watt gestiegen.... (immerhin hab ich jetzt auch was vom dual channel betrieb) vorher waren ja nur 1 x 2gb drin ^^
 
Zuletzt bearbeitet:
hast mal nen stress test mit und ohne FC fürn ram probiert?
hab grad starcraft2 demo gespielt mit fc und gab auch kein problem...^^
 
Zuletzt bearbeitet:
Getestet hab ich den Ram noch nicht, aber mit der aktuellen Beta habe ich auch eben beim downloaden, die gleichen Dateien wie neulich, keinen Blauen mehr bekommen. Liegt also wohl eher an der Beta-Version von FC.
Ich könnte ja nochmal mit der .0.4.1. gegegtesten, aber das spare ich mir jetzt.
 
also bei mir läufts

starcraft 2 demo im window modus
jdownloader am downloaden und rar archiv entpacken
email offen
browser mehrere tabs offen
also haufen sachen wo alle in cache gehen und läuft einwandfrei


fancycache 0.5 hat nen trim support für den L1 und L2 cache.. vllt kommt dein xp? damit net so zurecht
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh