Fancycache SSD cache tool

Und was ist damit ?

Wenn ich also BDs muxe und das Tool was bringen soll, muß der Timer für Defer Write mindestens so lange halten, bis der Muxvorgang fertig ist oder ? Wenn das Muxen also 10 Minuten dauert und der Timer auf 10 Sec steht, bringt das ja nichts, weil dann schon nach 10 Sec die Files auf die Platte geschrieben werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nach dem muxxen im Cache muss er die Daten ja trotzdem noch auf die SSD schreiben. Optimal wärs wohl, zu wissen, nach welcher zeit ungefähr die Daten so weit "final" sind, dass sie geschrieben werden können und die dann als defer einstellen. Oder hab ich nen Denkfehler drin?
 
nun du brauchst halt viel platz im cache.. wenn du 4gb cache mit ner 4gb m2ts voll machst passen die streams natürlich nichtmehr rein und die datei kann auch net im cache bleiben.. sie muss ja vorhanden sein um daraus die streams zu erstellen..

also im cache bleibt es nur wenn genug platz vorhanden ist.. nen 16gb stream teilweise im cache behalten geht nicht...


du kannst die defer time auch auf 2 tage stellen, wenn der cache voll ist wird auf die hdd geschrieben
wenn du natürlich auf 10 sekunden stellst und die m2ts aufem desktop speicherst wird sie nach den 10 sek auch dahin geschrieben..
ist die m2ts größer als der cache wird sie sobald der cache voll ist auch auf die hdd geschrieben
 
Zuletzt bearbeitet:
Also ich habe mal ein 1 GB WMV-File mit TMPGEnc XPress zu MPG encoded. 4GB Cache und 10 Sec Latenz - Dauer 13 Minuten CPU-Auslastung 35%

Dann das Ganze nochmal mit 1500 Sec (25Min) Dauer wieder 13 Min, CPU wieder 35%.

Der Theorie nach, sollten die Werte jedoch stark voneinander abweichen.

Was allerdings schonmal Fakt ist, daß die Wiedergabe mit VLC und auch die Bearbeitung mit TMPGEnc an sich wesentlich flüssiger laufen - Vorspulen ect.
 
Zuletzt bearbeitet:
wieso sollte ne cpu lastige aufgabe wegen ram schneller gehen?
daten laufen erst im cache wenn du lru wählst.. ansonsten bei lfu-r wählt das programm selbst was am meisten benutz wird und behält das im cache.

du kannst das ganze natürlich mal mit ner ramdisk vergleichen.. dann aber quel laufwerk ne ramdisk und ziellaufwerk ne ramdisk..

wenn der ganze vorgang 15 min geht limitiert da vllt auch das programm? wenn die cpu nur zu 35% ausgelastet wird.. der cache und ne SSD kann ja von der geschwindigkeit da auch nixmehr bringen..
 
Zuletzt bearbeitet:
Also lru hatte ich schon an. Das Programm hat limitiert, obwohl es ja angeblich auf 8 Threads ausgelegt ist. Ich hatte neulich mal ein Tool am Laufen das mir mitgeteilt hat, daß mein SSD der Flaschenhals bei diesem Vorgang wäre - deshalb überhaupt der Versuch. Ich habe die RamDisk von Superspeed da - so ist das nicht.

Edit: Speicherpreise steigen wieder - also schnellnochmal einkaufen !

http://www.computerbase.de/news/har...r/preise-fuer-arbeitsspeicher-steigen-wieder/

Edit: Habe jetzt 1GB für C: und 10GB für D: eingerichtet. Läuft bislang super.
 
Zuletzt bearbeitet:
neue version is schneller ;)
0.4.1
bqi5092eah0wf2awm.png


0.5.0
bqkzbi0nqisov6lrq.png
 
hm... bei mir war die vorherige Version nen tick schneller.
Denke aber das es bei dem speed nichtmehr wirklich auswirkt ob nun mit 5500 MB/s oder 5700 MB/s gelesen wird ;)
 
genau..
zieh mir die neue beta nacher auch mal ;) ma gucken was alles neu ist

ok da wurde wohl auch was mitm trim befehl noch optimiert.. sehr schön
 
Zuletzt bearbeitet:
Volume wird wohl für die Meisten sinnvoller sein, ja.

Was mich noch ein bisschen abhält - wie schaut es mit der Schreibstrategie aus...
Wird, sobald etwas im Cache landet, begonnen auch auf Datenträger zu schreiben oder erst wenn der Cache voll ist?
Im Endeffekt: Was beeinflusst "If Defer Write is enabled, program automatically flush deferred write data to volume/disk according to the latency and other algorithm. User can also manually flush write data to volume/disk if necessary."

Ein Praxisbeispiel, das vielleicht ja jemand testen kann:
Was passiert bei 10 Minuten deferred Write für ein HDD mit ~100MB/s seq. write, und 1 GB Schreibcache (anfangs leer) in den 700 MB von SSD in 3 Sekunden gedroppt werden (System ist danach idle, also keine Bearbeitung der Daten)?

Option A: HDD beginnt mit 100MB/s zu schreiben und hört nach ~7 Sekunden auf zu rattern
Option B: Programm wartet 10 Minuten ab und HDD rattert dann für 7 Sekunden los
Option C: Programm schreibt langsam (z.B. 10 MB/s) auf HDD - dieses rattert ab Beginn 70 Sekunden lang
Option D: Nach 10 Minuten wird der Cache langsam geflusht und die Daten sind nach ~10 Minuten+70Sekunden geschrieben

Dass die Datei im Cache verbleibt und schnell abgerufen/verändert werden kann ist klar - mich interessiert ab wann die Daten einigermaßen "ausfallsicher" auf HDD gelandet sind, besonders bei solch langen potentiellen write-defers.


Falls (was ich befürchte) erst am/gegen Ende dieser Zeitdauer geschrieben wird, sollte man sich gut überlegen, wie man das Programm bei SSDs/HDDs einsetzt. Für HDDs wäre es dann sinnvoll die Zeit eher kurz zu lassen, da die Verringerung der Schreiblast kaum Priorität haben wird, eher dass die Daten schnell "an ihrem Ziel angekommen" sind und noch im RAM für etwaigen Zugriff verbleiben. Für SSDs wäre (zumindest bei Laptops oder PCs mit USV) eine längere Zeit möglich um Schreibzugriffe im RAM zusammenzufassen und erst nach langer Zeit wirklich zu schreiben - allerdings sollte man dasnn unbedingt eine Backuplösung in Richtung "TimeMachine" zusätzlich einsetzen, die NICHT deferred (auf USB/NAS...) schreibt, um auch bei Abstürzen nicht allzuviele Daten zu verlieren.

Generell ist das Programm aber interessanter als RAM-Disks für mich, da es dynamischer arbeitet und von Anwendungsprogrammseite keine Anpassungen benötigt.
 
dachte das wäre klar

defer write 60 sekunden heisst.. daten werden 60 sekundenlang im write cache behalten, nach den 60 sekunden wird geschrieben was da ist.. zb die 700mb von den 1gb.
ist der cache aber bereits nach 20 sekunden voll wird auch geschrieben.

im read cache bleiben solang wie möglich die wichtigsten daten die oft benötigt wurden.
(siehst dann wenn ne hohe hit rate hast)

man kann aber den write cache nutzen und defer write niedrig setzen oder weg lassen. dann wird halt sofort geschrieben und der puffer fängt nur was ab wenn die platte net nachkommt mit schreiben.
 
Wofür nochmal soll das Tool genau gut sein?
 
lies doch einfach die letzten 6 seiten durch
 
ja, ja.. werd ich bestimmt nicht machen. :d
 
und wieso sollten wir dir hier nochmal erklärn was im ersten post schon steht?
 
Also sollte da Version B sein... Ok, mal schaun wie ich meinen Server sichere, dann kann ich das ja mal versuchen (gerade für WHS wäre es einerseits recht cool, weil miese SMB-Geschwindigkeit im LAN, andererseits riskant, weil seeehr seltsame Art, Volumes intern zu verwalten).

Interessant wäre es ja auch, so ein Programm OpenSource oder wenigstens gratis zu haben... aber wie schon bei andere guten Ideen muss sich eben wer finden, der das auch wirklich machen will und sich dahinterklemmt (siehe AS SSD Bench).

Edit: einfach als Spam melden und fertig, ich antworte auf solche Trolle schon gar nicht mehr...
 
ja, ja.. werd ich bestimmt nicht machen. :d
...genügt aber auch nur mal das Topic zu lesen. ;)

Also bei mir ist es nur bei Seq ein wenig schneller. :hmm:
attachment.php


Apropo Ramdisk bzw. Auslagerungsdatei. Wird diese denn nun auch in den Fcache geschrieben?

attachment.php

Muß die so groß sein, oder kann ich da ohne bedenken auch einen kleineren Wert nehmen? Würde max. 2048 MB genügen?
 

Anhänge

  • Zwischenablage01.jpg
    Zwischenablage01.jpg
    71,9 KB · Aufrufe: 215
  • Zwischenablage03.jpg
    Zwischenablage03.jpg
    27,8 KB · Aufrufe: 220
wird normalerweise wie alles andere auch in die ramdisk geschrieben..
2gb reichen hier. wenn sie ganz weg lässt machen sachen die google earth probleme.
 
Was ich gerne wissen würde, wie es ausschaut, wenn man Sachen abspeichert.
Mal angenommen ich arbeite gerade mit 3ds Max und das Programm schreibt alle Daten nach 10min auf die SSD. Jetzt speichere ich in 3ds Max nach 7 Minuten die Szene ab und fahr dann runter. D.h. da es nach 7 Minuten war hat er nichts auf die SSD geschrieben und die gespeicherte Szene ist weg?

@Spieluhr
Ich denke es ist dafür da, einer Festplatte oder eher einer SSD Schreibvorgänge zu ersparen. Außerdem kann man gewisse Sachen schneller bearbeiten, da sie im RAM liegen und nicht auf der SSD.
 
Ich vergaß noch eine Anmerkung.
und hört nach ~7 Sekunden auf zu rattern

und HDD rattert dann für 7 Sekunden los

dieses rattert ab Beginn 70 Sekunden lang
Nun kann man eine SSD leider (oder zum Glück) gar nicht mehr rattern hören. Man bekommt es also akustisch gar nicht mehr mit, wenn Windows wieder mal zugreift.
 
Was ich gerne wissen würde, wie es ausschaut, wenn man Sachen abspeichert.
Mal angenommen ich arbeite gerade mit 3ds Max und das Programm schreibt alle Daten nach 10min auf die SSD. Jetzt speichere ich in 3ds Max nach 7 Minuten die Szene ab und fahr dann runter. D.h. da es nach 7 Minuten war hat er nichts auf die SSD geschrieben und die gespeicherte Szene ist weg?

wenn du deinen pc herrunterfaehrst wird der cache natuerlich geflusht.
 
Ich denke es ist dafür da, einer Festplatte oder eher einer SSD Schreibvorgänge zu ersparen. Außerdem kann man gewisse Sachen schneller bearbeiten, da sie im RAM liegen und nicht auf der SSD.
Wie soll das denn gehen mit "Schreibvorgänge ersparen"? :d Wenn ich etwas schreiben/abspeichern möchte, dann doch auf das Medium welches diese Daten enthalten soll. Was nutzt es mir da, wenn diese -relativ unsicher- in einen "Cache" zwischen gespeichert werden? Auf das Zielmedium müssen die dennoch. ;)

..also, der Sinn dieses Tools, dessen Anwendung es in der Praxis erforderlich macht dieses bevorzugt einzusetzen, erklär mir das doch mal jemand.

edit: ..oder ist das wieder nur so ein gefaktes Benchfreak-Proggi ;)

edit2: Jetzt mal ein ganz "naives" und eher SSD_fernes Praxisbeispiel: Ich nehme eine DVD, encode die über SSD mit diesen Tool dazwischen geschaltet. Gut, daß encoden geht, bis der Cache voll ist ratzfatz. Dann aber, wenn der Cache voll ist, müssen die encodeten Daten aufs SSD. Gleichzeitig encodet das Programm aber weiter und schreibt, da ja der Cache eh schon voll ist, die Daten onthefly auf SSD - zu den Daten die aus den Cache auf SSD geschrieben werden um den programminternen Cache wieder zu leeren. Das heißt: Zu diesen Zeitpunkt doppelte Schreiblast! Wenn ich jetzt 1 & 1 zusammen zähle, dann habe ich zu diesen Zeitpunkt eher den Effekt eines Einbruchs. Das Ergebniss ist aber so oder so das gleiche -> die Daten müssen auf SSD! Gelle.
 
Zuletzt bearbeitet:
Welchen Teil des Threads? Die 90% wo unsinnige Fakewerte gebencht werden? Die 10% wo Einstellungen durchgegangen werden? Oder die 0% wo erklärt wird, für welche sinnvollen Aufgaben dieses Tool angewandt werden kann? ;)
 
na na ... es wurde oft genug erklärt welche vorteile das prog hat, so isses ja nun nicht.
zb weniger writes auf die SSD usw
 
es wurde zb anhand von einem spiel erklärt wie man unnötige savegames die nach mehreren stunden einige 100 MB ausmachen können nicht auf die hdd schreiben muss, oder wie man andere unnötige schreibvorgänge (mp3 rippen, dvd rippen) nicht auf die hdd schreiben muss weil sie im cache bleiben falls dieser groß genug ist.

selbe kann man auch auf virtuelle maschinen anwenden...

wurde hier aber mehrmals im thread besprochen, ausserdem ist im ersten post nen link zur hersteller seite wo sogar beispiele mit bildern sind was das tool genau wo und wann macht.

auch das daten beim herunterfahren auf die hdd geschrieben werden wurde erwähnt...
 
Na pinpi, ich will ja nicht stänkern. :)

..nur ein Praxisbeispiel - das reicht mir vollkommen. Weil das mit den "weniger" Writes leuchtet mir nicht ein. Wie will das Programm Writes komprimieren bzw. nach "Wichtigkeit" anhand einer Anwendundung selktieren?

@ Mavea: Siehste, so eine Antwort ist doch schonmal was! ..danke! :) ..also, daß heißt im Endeffekt, geschrieben werden muß so oder so. Ob erst "limitiert" über den Cache oder direkt aufs Medium. Also hat das doch nur einen temporären "Wow"-Effekt, daß Tool. Die Ernüchterung folgt dann nach Ablauf des, ich nenne es mal "Cache leeren"-Countdown. Dumm nur, wenn zeitgleich dann immer noch, bzw. wieder auf das gleiche Medium geschrieben oder gelesen wird wenn sich zeitgleich der Cache darauf entleert.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh