Fancycache SSD cache tool

bringt net ansatzweise soviel wie fancy
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bringt net ansatzweise soviel wie fancy

Dem widerspreche ich. Beide Tools von Superspeed.com werden auf Servern eingesetzt und machen im Prinzip nichts anderes als Fancy. Zudem gibt es diese Software schon seit 15 Jahren und lief schon auf NT 3.51 und NT4 Servern.

Ich ziehe es Fancycache vor und hatte noch nie Probleme, zumal man dort den Zeitpunkt den rückschreibens in intervallen angeben kann. Fancy ist mir zuviel "Experiment" auf meinem Arbeitsystem.
 
Danke für die Inputs.
Doch was genau ist der Unterschied der beiden Superspeed Tools?
Also zwischen Supercache und Supervolume?
 
Einfach rüberinstallieren reicht.

Habe den Test der 0.6.1. übrigens wegen zuvieler BSODs abgebrochen. Mal sehen ob die neue Version besser ist.
 
Sowas gab es doch schon mal und hat sich tot gelaufen.

Ja - EasyCo.'s MFT. Hatte ich mal vor paar Jahren vorgestellt.
Man konnte nur kein OS installieren.
Aber die die alten MTRON's haben damit real 5x schneller geschrieben.
Bei den heutigen SSDs bringt das leider nicht mehr viel.
 
Ein sehr interessantes Programm. Ich würde es gerne mal Testen.
So nun zu meiner Frage

Ich habe
8 Gig DDR3 1600MHZ (bald 16gig)
1x OS Platte SSD Crucial 128gig
Hardware Raid5 5x Western Digital RE4 2TB (Auf dem Raid werden auch ab und an 20gig Dateien entpackt)

1 SSD 128 gig Platte hätte ich noch übrig.

Würde es sinn machen z.b. für die OS Platte 2gig vom Arbeitsspeicher zu nehmen ??
Und z.b. die zusätzliche SSD als Write/Read Cache für das Raid ? Oder nur Read ?
 
Zuletzt bearbeitet:
Einfach rüberinstallieren reicht.

Habe den Test der 0.6.1. übrigens wegen zuvieler BSODs abgebrochen. Mal sehen ob die neue Version besser ist.

Hm, also wochenlang hatte ich ohne fancy cache keinen Stress mehr von wegen Freezes, BSODs, etc...

Kaum teste ich die neue Version, habe ich heute morgen einen freeze dahingehend, dass ich zwar noch die Maus bewegen kann, der Rechner ansonsten aber gar nichts mehr macht. Blieb nur der Reset nach 15 Minuten warten...

Einstellungen waren:

- deferred write 600 Sekunden
- 1536 Ram nur write gecacht


Ich bin jetzt schon wieder am Punkt, dieses Programm einfach wegzulassen. Die Intel hält sicherlich auch so lange genug und mit deutlich weniger Stress und ggf. Datenverlusten...
 
Ja, Systemdisk ist mit Diskcryptor vollverschlüsselt. Natürlich besteht die Möglichkeit, dass sich der Diskcryptor-Hintergrund-Treiber und fancy cache beharken. Aber da Diskcryptor ansonsten absolut stabil läuft, würde ich das Problem eher in die Richtung fancy cache schieben.

Allein das letzte changelog mit 3 oder 4 Fixes hinsichtlich BSODs zeigt leider, wie unausgereift das Programm noch ist. Da liegt noch viel Arbeit vor denen...

Ach ja, ich setzte die Volume-Edition ein...
 
Bei meinem letzten Test (vor einigen Wochen) hatte ich 2 1/2 Stunden. Aufgrund der Problematik wollte ich mich langsam ranwagen.

Also habe ich erstmal 60 Sekunden getestet. Als das die letzten zwei-drei Tage funktioniert hat, habe ich gestern abend auf 600 Sekunden erhöht. Heute morgen dann Stress...Ob es was damit zu tun hat, k.a., aber es ist doch naheliegend. Und ohne "deferred" braucht man die Software ohnehin nicht einsetzen.

Nur weil bei Dir mit FSE und TC meine beschriebenen Probleme nicht auftreten, heißt das ja nicht, dass die Problematik nicht doch an einer mangelnden Kompatibilität zwischen fc und DC (Diskcryptor) liegt. Andererseits glaube ich nicht so recht daran. Der jeweilige Verschlüsselungstreiber sorgt ja nur für eine "Transparenz" der Daten. Was immer also fc macht, sobald der Befehl "schreib!" kommt, wird geschrieben und zwar dank Verschlüsselungstreiber in verschlüsselter Form. Die Problematik dürfte eher in fc selber liegen, dass also wenn z.B. geschrieben werden soll oder auf benötigte gecachte Daten im Ram zugegriffen werden soll, irgendetwas falsch adressiert wird oder die Daten nicht(mehr?) gefunden werden bzw. vorhanden sind.
 
Zuletzt bearbeitet:
Sehr guter Tread!

Mein Interesse ist geweckt, ich hab jetzt aber mal ein paar Fragen:

1. Mein Homeserver (Datengrab, Downloadrechner, viel Winrar,...) hat zurzeit noch 4GB, wenn ich den jetzt aber auf 16GB aufrüste, bringt dann fancy "etwas"?

Also z.B. beim entpacken von einem 8GB großen Iso, etc. sofern der Cache auf sagen wir 13GB eingestellt ist?

2. Wie BSOD-anfällig ist das Tool? Der Rechner läuft absolut stabil, auch über mehrere Tage (länge rnoch nicht getestet).

3. Wenn ich etwas über das Gbit-Netzwerk schiebe (Trunking), müsste doch fancy sich dazwischen schallten?

Hardware:
Corei3 2100t
C300 64GB (Sys)
4GB G.Skill Eco (bisher)
Mehrere Platten als JBOD an nem Hardwareraidcontroller (256 Writecache)
Gigabyte I-Ram für Pagefile
 
Also ******* und ich können mangels Stabilität nur davon abraten, dieses Teil für die Systemplatte zu nutzen. Ich würde es auch nicht für Datenplatten einsetzen, Bob hat da wohl noch keine Schwierigkeiten bemerkt.

Angesichts des wohl recht geringen Performance-Vorteils, den das Programm bringen könnte, dürfte sich das meines Erachtens nicht in ein sinnvolles Verhältnis zur höheren Datenverlustwahrscheinlichkeit bringen lassen. Was bringt es einem, 10x 3 Sekunden schneller gewesen zu sein, wenn beim 11. mal die Daten weg sind. Einmal falsch geschrieben wegen BSOD, Freeze oder Fehlberechnung und futsch sind die Daten...will man das wirklich riskieren? Also ich nicht...bin geheilt...zumindest bis es eine Final gibt!

Abgesehen davon, wenn Du Dir tatsächlich 16GB Ram holen solltest, dann wird von Windows aus schon so sehr viel gecacht, so dass Du fc wirklich nicht mehr brauchen solltest.

btw, wenn Du Dir eine etwas größere SSD geholt hättest >=120 GB, dann würdest Du auch beim entpacken von 8GB Isos schneller vorankommen, da die größeren SSDs bei weitem bessere Schreibwerte aufweisen. Oder als Alternative die Samsung 470, die soll auch als 64GB Variante sehr hohe sequ. Schreibraten aufweisen.
 
Zuletzt bearbeitet:
Danke für deine Antwort, hat mich wieder ins Grübeln gebracht nicht doch in ein Revodrive zu investieren...

Also die C300 ist nur Systemlaufwerk, da wird nicht drauf gearbeitet bzw. der geringere Stromverbruach war mir wichtig.

Mein Ziel ist es die Arbeit mit Winrar zu beschleunigen, also hohe sequenzielle Werte. Das führt aber wieder zum Thema "hohe Abnutzung".
 
Ich glaube nicht, dass da unbedingt ein so teures RevoDrive notwendig ist, insbesondere weil es teuer und dann auch noch von OCZ ist. Ein Kumpel von mir schickt seines jetzt zum dritten Mal innerhalb von wenigen Wochen ein. Ein anderer Freund schickt seinen OCZ USB Stick auch schon zum dritten Mal innerhalb von wenigen Monaten ein. Beide Geräte haben einen Komplettdatenverlust gehabt. Und wenn man die Foren liest...das sollte man einfach sein lassen, um sich nicht zu ärgern.

Das Entpacken findet oftmals zunächst temporär im Systemverzeichnis statt, so dass es schon entscheidend sein kann, welches Systemlaufwerk Du hast. Deine C300 liegt im sequ. write bei 70-75MB/s, was nicht so dolle ist:

[Review]Crucial RealSSD C300 64GB SATA 6Gbps SSD - TweakPC Hardware Forum


Wenn Du ein Board mit nativem Sata3-Controller hast, dürfte jede der neuen Sata3-SSDs deutlich mehr Leistung bieten, preisknüller dürfte hier die M4 sein.

Ansonsten sind aber auch die anderen Sata2-SSDs sequentiell nicht unbedingt langsam. Schau mal hier:

AnandTech - The 2011 Mid-Range SSD Roundup: 120GB Agility 3, Intel 510 and More Compared

Hier werden ein paar Sata3 und Sata2 SSDs der mittelgroßen Kapatitäten miteinander verglichen. Z.B. die Intel 320 macht einen guten Eindruck. Sehr gutes P/L Verhältnis und ausgewogene Leistung im random und sequentiellen Bereich.

Intel SSD 320 Series 160GB, 2.5", SATA II, retail (SSDSA2CW160G3K5/SSDSA2CW160G3B5) | Geizhals.at Deutschland

Bei der 160GB Variante schreibt einer als Rezension AS SSD sequ. write 174MB/s...denke doch, dass das recht fix ist...willst ja nicht nur entpacken und es kommt ja auch noch aufs lesen an...da soll die 280MB/s machen...

jetzt aber wieder back to topic, den Rest kannste in den SSD-Foren klären. ;)
 
Ich nutze Fancy seit längerem nichtmehr, nicht weil ich BSOD´s gehabt hätte, da hatte ich eigentlich keine probleme, vielmehr deswegen das es mir öfter passiert ist das ich etwas von C: (zb. Film) auf mein datengrab kopiert hatte, nach beendigung des selbigen dann das original auf C: gelöscht habe und irgendwann später dann feststellen musste das das kopierte File fehlerhaft war.

Fancy ist ein duchaus interessantes programm das aber wirklich noch in den kinderschuhen steckt und noch einiges verbessert werden muss bevor es ernsthaft eingesetzt werden kann.
die begründung der schonung von SSD´s ist es aber nur begrenzt anwendbar, brauchbare SSD´s schreibst so schnell nicht kaputt und die einsparung an writes ist nur unter bestimmten vorraussetzungen relevant, diese vorraussetzungen gehen leider dann schon wieder zu lasten der datensicherheit, sprich man muss das programm schon so einstellen das daten möglichst lang im Fancy Cache verweilen und das führt dann nicht selten zu problemen, ein BSOD oder eben mein voriges beispiel und die kacke dampft
 
Das kann ich so unterschreiben. Lieber Finger weg...

Allerdings ist das Anwendungsgebiet "Entpacken von 8GB-Isos" für SSDs natürlich schon ziemlich belastend. Geht man z.B. bei Intels von durchschnittlichen 20GB/Tag für 5 Jahre Lebensdauer aus, und bedenkt man, dass man auch bei nur normaler Anwendung schon locker mehrere GB/Tag allein wegen Windows schreibt, dann ist natürlich ein tägliches Entpacken von ein oder mehreren Isos sicherlich bei der Lebensdauer bemerkbar.

Aber andererseits...kommt schon Jungs, wollt ihr denn, dass die SSDs ewig leben??? ;)

HDDs leben schließlich auch nur eine begrenzte Zeit und die verlorene Lebenszeit beim Warten auf HDDs ist Gold wert...
 
also ich nutze es weiter... nen absturz hatte ich bisher nur 2-3 mal wo ich vona usgehe das es wegenf ancy cache war..
aber grade beim zocken und entpacken spart es schon ganz gut was.. genauso beim surfen.
fehlerhafte dateien hatte ich bisher allerdings noch nicht. egal ob beim umwandeln, entpacken oder verschieben
 
Hast Du ne HDD oder SSD als Systemlaufwerk, Mavea?

2-3 Abstürze wegen vermutlich fc sind...lass mich rechnen...ja, genau, 2-3 zu viele! Wenn auch wegen nur einem Absturz eine Systemdatei falsch geschrieben wird, kannste Dir Dein ganzes System u.U. in die Tonne kloppen...der Aufwand des Wiederaufsetzens wäre mir das nicht wert...
 
hm, ich nutze es weiter. hatte seit der ersten FC installation nicht ein einziges problem.
 
Es wurde osoch von Anfang an vor solchen Experimenten mit 10 Minuten Writecaches (oder gar 24 Stunden!) gewarnt!

Bei sowas klemme ich doch als erstes den Resettaster ab...

Ich habe bisher ebenfalls keine Probleme mit FC, bemerke bei meinem SSD jetzt aber auch nicht so die Riesenvorteile. Bei der HDD unterstützt es die Cachefunktion von Windows durchaus, also es geht noch etwas flotter vorran als ohne.

Ich sollte mal wieder mehr Videoschnitt etc. machen, für den Zweck ist es sicher besser geeignet als das was ich derzeit mache.
 
Klar besteht durch deferred write immer ein höheres Risiko.

Wenn man diese Funktion allerdings abschaltet, dürfte sich

a) der Performance-Vorteil des Programmes deutlich wenn nicht sogar ganz erledigen, da die Software dann auch nicht viel anders macht, als es Windows (vista,7,8) von Hause aus tut und

b) meine SSD genauso belastet werden, wie ohne fc.

Gerade die beiden beschriebenen - und dann wegfallenden - Vorteile sind doch die, die fc ausmachen. Angesichts der billigen Ram-Preise sollte man dann lieber in mehr Ram investieren, um Windows noch mehr cachen zu lassen. Und wer als Systemplatte noch immer eine HDD einsetzt, der ist selber schuld und kann eh keine wirkliche Performance erwarten, mit oder ohne fc...HDDs sind nur noch als Datenplatte geeignet oder für Systeme, die in Bezug auf I/Os nicht sonderlich performant sein sollen, z.B. ein reiner Surf-Rechner oder HTPC oder was auch immer.

Ergo: Entweder fc ganz (mit deffered) oder gar nicht...und da sag ich dann, gar nicht, bis die Final draußen ist...dann sehen wir weiter...
 
Zuletzt bearbeitet:
Als temporäre Ablage (Videoschnitt) ist das Programm nicht schlecht. Nur eben nicht als dauerhafte Ablage.

Acard hatte bei mir noch keine Fehler produziert, da ECC. Nachteilig ist leider der Stromverbrauch, die Flüchtigkeit der Daten und der Preis.
Aber die Perf. kann sich immer noch sehen lassen :)

http://www.hardwareluxx.de/community/15562583-post167.html
 
Zuletzt bearbeitet:
Ich find's jedenfalls immer noch besser als RAM-Disks für Tempdateien (egal ob im Arbeitsspeicher oder via SATA angebunden) oder diese seltsame Z-68 verdongelte Lösung von Intel.

Nur für SSDs ist es eben ein bisschen riskant (und mMn unnötig), längere Zeit zu cachen. Ich hab das nur auf 10 Sekunden gestellt, um irgendwelche irren kleinen Programme, die meinen jede Zeile Logfile extra schreiben zu müssen, in Zaum zu halten.

Interessant wäre noch der Use-Case Fancycache als Ersatz für diesen Intel-SSD cache zu verwenden, SSDs also als "Level2 Cache" von HDD(s) einzusetzen statt als Systemlaufwerk.

Hat das mal jemand (mit einem alten JMicron SSD z.B.) hier versucht?
 
Hab nen kleines problemchen.

Was tun?
 

Anhänge

  • image818.jpg
    image818.jpg
    56,1 KB · Aufrufe: 89
:d. das sehe ich auch. hatte vorher eine ältere dann habe ich diese Drüber installiert und die alte dann wieder deinstalliert. Nur finde ich im google die v. 0.61 nicht wieder.
 
Heyhou,

wollt mal ein paar Infos da lassen...

Hab an die Hersteller geschrieben, mit ein paar Fragen. Lange Rede kurzer Sinn, blabla:

1. der L2 Cache wird nicht gespeichert.

2. bei einem Stromausfall ist der L2 Cache auch weg, und blockiert keinen Speicherplatz auf der SSD. Man muss also nach einem Crash nicht erst die SSD entmüllen ^^

3. Solange man NUR die read-strategy verwendet KANN dem System nicht geschadet werden; das ist lediglich bei einem Crash in Kombination mit der write-strategy möglich.


So, und jetzt noch eben eine eigene Erfahrung...

ich hab keine SSD, aber 12 GB RAM; Hab 6000 MB L1 Cache, und die read+write-strategy gewählt, dazu dann 300 sekunden latency. Hab die Volume-Version, und lediglich auf C: angewendet. Hab von E: einen 1,4 GB Film auf C: kopiert, und direkt mal den write cache auf die HDD geflusht. Anschließend hab ich den Film von C: auf C: kopiert (was instant gegangen ist). Dann hab ich das Original (auf C:) gelöscht, und die Kopie beibehalten. Im Write-Cache waren also die Befehle: 1. Kopiere Film, 2. Lösche Original Film. Dann hab ich den Reset-Knopf gedrückt (Strom also kurz weg), und rebootet. Ende der Geschichte war, dass der original Film noch da war, die Kopie aber nicht mehr...

Lange Rede kurzer Sinn... Leute, die Grundsätzlich mit Shift+DEL -> ENTER die Files von der HDD löschen können sich einen Defer Write von z.B. 20 Sekunden einstellen, und haben dann, nachdem sie versehentlich ein File gelöscht haben, 20 Sekunden Zeit um den Strom wegzunehmen - und das File ist noch da. Das Risiko, dass in den 20 Sekunden gerade eine Systemdatei geschrieben wurde und sich der Rechner nicht mehr starten lässt ist zwar da, aber immerhin kann man dann noch mit einer Live-CD die Daten von der Festplatte holen und Windows neu installieren... D.h. man hat zwar einen großen Aufwand, aber immerhin auch eine sehr große Möglichkeit, versehentlich gelöscht Dateien doch noch behalten zu können.

Oh, was ich noch anfügen wollte... Mit der Read-Strategy alleine lässt sich der Windows Leistungs Index berechnen (allerdings wird der Datenträgerwert dadurch nicht beeinflusst); Mit der Write-Strategy geht das nicht, da kommt dann eine Fehlermeldung...
 
Danke für die nützlichen Infos.

Fazit für alle, die auf der sichersten Seite stehen wollen, dürfte demnach sein, nur den read-cache von fc zu nutzen.

Grundsätzlich ist ein read-cache (egal ob von Windows oder Zusatzsoftware) ja schon sinnvoll. Bei HDDs wegen der Performance, bei SSDs auch geringfügig wegen Performance und wegen der längeren Lebensdauer. Denn entgegen der landläufigen Meinung, nur Schreibzugriffe würde die Zellen einer SSD "abnutzen", tun dies auch Lesezugriffe, nur in einem völlig anderen Verhältnis. M.E. liegt die Lebensdauer bei den Lesezugriffen bei rund 100.000 Zugriffen, bitte aber ggf. um Korrektur.

Um wieder auf fc zurückzukommen...

Lohnen würde sich die "only-read-cache"-Strategie wohl nur, wenn der Cache effektiver als der hauseigene von Windows7 wäre. Gibt es hierfür Anhaltspunkte oder - noch besser - benches?
 
Ich hab jetzt keine direkten Benches bezüglich dem Windows-Cache und dem Read-Only-Cache von Fancycache. Allerdings hab ich vorhin mal rein Spaßeshalber nen 2 GB Ordner voller JPEGs von C: auf C: kopiert, mit Read Only. Beim ersten mal Kopieren hat das natürlich ziemlich gedauert... hab dann die kopie gelöscht, und nochmals hinkopiert. Ergebnis: das ging deutlich schneller...

Ich glaube, dass es bei eher kleinen Files und geringen File-Mengen keinen großen Unterschied macht, bei großen (und v.a. vielen Files) aber wohl, gerade bei einer HDD, durchaus.

Was ich mir gerade auch noch für HDD User wie mich beim Read-Only sinnvoll vorstellen könnte ist eine gute alte LAN; angenommen hat man einen 8 GB L1 Cache, und eine entsprechend große ISO (saen wir... 5-7 GB), die man für die LAN-Party vom einen Rechner auf viele andere kopieren muss. Natürlich ist man so modern und hat Gigabit-LAN, welches allerdings durch die HDD ausgebremst wird... von den etwa 100 MB bleiben nur noch vielleicht 50-60 übrig; aufgeteilt auf 6 Rechner leecht dann jeder nur noch mit 10 MB/s. Lässt man allerdings EINEN user etwas verfrüht anfangen, befindet sich die gesamte ISO nach kurzer Zeit komplett im L1 Cache - und schon kann das Gigabit-LAN komplett ausgenutzt... Auch für die, die geleecht haben, wäre fancycache dann interessant, ist doch die ISO dann auch schon komplett im Read-Cache (bei entsprechend viel RAM, versteht sich), und kann entsprechend flott installiert werden.

Da würde es dann sogar auch durchaus sinn machen, mal in die andere Richtung zu denken... fancycache nicht zur entlastung der SSD, sondern eine kleine (von mir aus 20 GB) SSD als reinen L2-Cache; als read/write könnte das dann ein komplettes HDD-System beschleunigen (es müsste nur noch so sein, dass zumindest die Read-Daten im L2 beim restart gespeichert werden... aber wer weiß, ist ja aktuell nur ne Beta).

Ich werd jedenfalls mal fleissig weitertesten, und hab an die lieben Herrn Hersteller geschrieben, dass ich mir einen Hotkey (oder zumindest tray-icon) wünsche, um den write-cache auf die HDD zu flushen...
 
Klingt alles gut und interessant, aber ungeklärt bleibt, ob das Win7 nicht schon automatisch cachen täte und möglicherweise genauso gut wie fc...
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh