[Sammelthread] ZFS Stammtisch

Hat schon jemand das mit dem SSD-Caching getestet ?

Hab schon nach Benchmarks und Vergleichen gegoogelt, aber nicht wirklich Etwas gefunden.
Mich würde interessieren wie groß der Unterschied ist ...

Bringt die Funktion einen großen Performance-Schub & ist es sinnvoll mehrere SSDs zu verwenden ?

Eine gute SSD hat etwa die doppelte sequentielle Schreib/ Leseleistung wie
eine gute Festplatte aber eine um den Faktor 100 geringere Zugriffszeit.

Ein ZFS Raid übertrifft also eine Cache SSD sequentiell oft um ein Vielfaches
(ein ZFS Pool aus mehreren Platten hat schnell mehr als 500 MB/s), dennoch
verbessert sich dadurch nicht die I/O Leistung.)

Genau hier setzt der Vorteil des SSD Lesecaches an. Es hat erheblich geringere
Zugriffsgeschwindigkeiten und verbessert die Performance teilweise enorm.
Allein das Anzeigen des Inhaltsverzeichnisses unter Last kann um ein mehrfaches
schneller werden. Vor allem bei einem SMB Dateiserver mit langsamen Green-
Platten und nicht allzuviel RAM kann der Gewinn dramatisch spürbar sein.

Zwei langsamere SSD und eine doppelt so große doppelt schnellere dürften dabei ähnliche
Ergebnisse liefern.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also könnte ich mein geplantes ZFS ( Raid 5 ) aus vier Samsung EcoGreen F3 1TB durch eine oder zwei OCZ Vertex 2 ( 64GB ) ordentlich "aufbohren" ?!

Hört sich echt gut an ...
Kannst du mir ein Betriebssystem für dieses Vorhaben empfehlen ?
 
@Gea

Gehört in Deinem ersten Absatz SSD und Festplatte nicht vertauscht!?

Einzelne Festplatten haben sequentielle Leseraten von bestenfalls 200-300 MB/s,
eine SSD's kann über 500 MB/s erreichen.

Man muss aber immer sehen dass ein SSD Cache eine (langsame) Ergänzung des
Ram-Caches darstellt. Bei genügend RAM, einem Nutzer und kleineren Dateien
kann der Nutzen gleich Null sein.

Bei größeren Dateien und mehreren Usern kann der Nutzen erheblich sein.

zum Thema ZFS+OS
Die neuesten ZFS Versionen gibt es von Oracle (Solaris 11 bzw Solaris 11 Express)
Die sind aber nur Privat und zum Testen kostenlos

Die interessanteste freie Option ist OpenIndiana Release 151a basierend auf dem Illumos Kernel Projekt.
Aktuell würde ich keine Neuinstallation mit Nexenta machen da Nexenta demnächst genau wie
OpenIndiana den OS-Kern komplett von OpenSolaris 134 auf Illumos 151 ändert. (Nexenta ist der
Hauptsponsor von Illumos).

Ich würde auch immer die Live Version nehmen. Die ist einfacher im Handling und enthält die
TimeSlider - Funktion zum einfachen Zugriff auf Snapshots
 
ZFS/Napp-It/OI151 Probleme

System: VMWare ESX4.1 darunter ein OI151 als VM mit durchgereichtem SATA Controller an dem ein Z1 aus 6 x 2 TB hängt.

Ein Pool aus den 6 x 2 TB, zwei Dateisysteme, einmal Daten als SMB Freigabe und einmal NFS und SMB für die VMs des ESXi.

Das lief auch ok soweit ich das als OI/Napp-It/FS Laie erkennen konnte. Daher habe ich dann mein Produktiv System inkl. aller Daten auf diesen All-in-One umgezogen. Backup ist natürlich noch vorhanden.

Nun hatte ich in den letzten WOchen immer mal wieder kurze Aussetzer in denen die Freigaben (alle, also NFS UND SMB) nicht mehr erreichbar waren. Die virtuellen Maschinen liefen aber weiter auch wenn sie keine Kontakt mehr mit ihren Files hatten. Es war also kein ESXi Problem.

Erkennbar war das daran das ich die SMB Freigabe nicht mehr erreichen konnte, der ESXi Server im Errorlog meldetet das er die Verbindung zum NFS Server verloren hatte. Das dauerte so 5-30 Minuten und dann gings wieder von selber ohne das ich etwas gemacht hätte. Im Napp-It konnte ich nichts an Fehleranzeigen finden. Ich dachte schon ich habe ein Problem mit meinem Switch. Wobei da dagegen sprach das Internet, Ping, VICLient etc. alle ohne Probleme liefen.

Nun trat das Problem heute morgen wieder auf aber diesmal war es auch nach 2 Stunden nicht von selber wieder verschwunden. Ich habe dann mal die Napp-It Weboberfläche aufgerufen und dort war beim Pool bzw. den Platten nichts auffälliges zu sehen.

ABER wenn ich auf den MenuPuntk "ZFS-Folder" gegangen bin passierte nichts. Es wurde nichts angezeigt auch nach mehreren Minuten Wartezeit. Aber auch keine Fehlermeldung.

Also mußte ich letztendlich den OI151 neustarten. Danach lief auch wieder alles. Selbst die VMs die ja über 2 Stunden keinen Zugriff mehr auf ihre virtuellen HDDs hatten liefen inkl. Programmen wieder als wäre nichts gewesen.

Nun ist das ganze kein Zustand mit dem ich weiterleben möchte. Kann ich im OI/Napp-It irgendwo nachsehen was das Problem ist/war? Hatte jemand schonmal sowas und hat eine Idee was da schiefläuft?

Sollte ich meine OI151 gegen die neueste austauschen?

Hier mal das Log vom Napp-it vom heute: http://www.files.to/get/22810/xbxg753pcn

Auffällig oft : "openindiana smbd[1544]: [ID 702911 daemon.notice] smbd_dc_monitor: domain service not responding"
 
Zuletzt bearbeitet:
Ich frag mal in die Runde, gibt es schon eine vernünftige "Lösung" für "4k-Platten".
Bin hier gar nicht auf den aktuellsten Stand.

Sollte man eine bestimmte Anzahl an Festplatten pro Raidz2 einhalten oder ist es egal?

Hab nur mal gelesen, dass manche das "ashift" ändern bzw. eine modifizierte zpool-Version verwenden ... was mir aber nicht so geheuer ist.
 
System: VMWare ESX4.1 darunter ein OI151 als VM mit durchgereichtem SATA Controller an dem ein Z1 aus 6 x 2 TB hängt.

Ein Pool aus den 6 x 2 TB, zwei Dateisysteme, einmal Daten als SMB Freigabe und einmal NFS und SMB für die VMs des ESXi.

gut wäre noch die Info:
Mainboard
Sata-Controller
virtueller Netzadapter

Ich würde zunächst mal auf OI 151a updaten.
http://wiki.openindiana.org/oi/Upgrading+OpenIndiana
Da sind noch einige Fehler beseitigt.

Da NFS und SMB betroffen sind, würde ich den Sata Controller
oder den virtuellen Netzwerktreiber verdächtigen.

Im Log habe ich gesehen, dass es sich um den Vmware vmxnet3 Treiber handelt.
Der macht bei einigen Probleme. Den mal löschen und den e1000 Treiber
stattdessen benutzen

---------- Beitrag hinzugefügt um 15:03 ---------- Vorheriger Beitrag war um 14:55 ----------

Ich frag mal in die Runde, gibt es schon eine vernünftige "Lösung" für "4k-Platten".
Bin hier gar nicht auf den aktuellsten Stand.

Sollte man eine bestimmte Anzahl an Festplatten pro Raidz2 einhalten oder ist es egal?

Hab nur mal gelesen, dass manche das "ashift" ändern bzw. eine modifizierte zpool-Version verwenden ... was mir aber nicht so geheuer ist.

Meine Meinung zu den 3 Fragen:
egal, egal, egal

4k Platten sind etwas langsamer, sind meist ohnehin nicht die schnellsten.
In der Praxis relativ bedeutungslos, nicht neu kaufen ansonsten einfach nutzen.

Optimale Anzahl der Platten
Ist eigentlich egal. Die Performance steigt primär mit der Anzahl der vdevs, deren Performance ist von der Anzahl der Platten abhängig. Mehr ist also besser und es wird nicht langsamer, wenn die vdevs nicht perfekt gleichmäßig ausgelastet sind.

Daher auch 3. angepasstes zpool oder Pool anlegen mit BSD:
Würde ich nicht machen. Performance-Gewinn ist zu gering,
potentielle Probleme zu hoch.
 
Zuletzt bearbeitet:
gut wäre noch die Info:
Mainboard
Sata-Controller
virtueller Netzadapter
In der Signatur steht das Board

Ich würde zunächst mal auf OI 151a updaten.
Upgrading OpenIndiana - OpenIndiana - OpenIndiana Wiki
Da sind noch einige Fehler beseitigt.
Werd ich machen. Geht das one Reboot des OIs? Also ohne da sich die VMs stoppen muß die auf dem ZFS liegen?

Da NFS und SMB betroffen sind, würde ich den Sata Controller
oder den virtuellen Netzwerktreiber verdächtigen.

Im Log habe ich gesehen, dass es sich um den Vmware vmxnet3 Treiber handelt.
Der macht bei einigen Probleme. Den mal löschen und den e1000 Treiber
stattdessen benutzen

Dabei bin ich extra vom NexentaCore zum OI gewechselt da ich unbedingt den VMXNet3 Treiber benutzen wollte. Ich dachte immer Laienhaft das der VMXNet3 deutlich besser ist als der e1000. Hab ich mich da geirrt?
 
Geht das one Reboot des OIs? Also ohne da sich die VMs stoppen muß die auf dem ZFS liegen?

Ein reboot ist erforderlich

Dabei bin ich extra vom NexentaCore zum OI gewechselt da ich unbedingt den VMXNet3 Treiber benutzen wollte.
Ich dachte immer Laienhaft das der VMXNet3 deutlich besser ist als der e1000. Hab ich mich da geirrt?

Der vmxnet3 Treiber hat schon Vorteile. Er macht auch weniger Last und ist damit
schneller. Aber es gibt auch Rechner auf denen er Probleme machen soll.

Ohnehin wechselt Nexenta demnächst auch auf Illumos.
Es ist dann von der Grundlage identisch mit OI

Ansonsten.
Zur Hardware des Asus M4A89TD_PRO insbesondere ob IOMMU bzw der Onboard Controller
mit pass-through problemlos läuft, kann ich nichts sagen.
(Solaris ist zum Teil sehr heikel mit Hardware - genau wie ESXi)

Es ist auf jeden Fall nicht unbedingt die übliche Empfehlung, insbesondere der
Realtek Controller ist ein häufiger Problempunkt. Falls irgendwo vorhanden mal
eine Intel pci-e Karte probieren.
 
Zuletzt bearbeitet:
Zur Hardware des Asus M4A89TD_PRO insbesondere ob IOMMU bzw der Onboard Controller mit pass-through problemlos läuft, kann ich nichts sagen. (Solaris ist zum Teil sehr heikel mit Hardware - genau wie ESXi)
Das VMDirectPath läuft bisher gut. Eine ISDN PCI Karte arbeitet auch problemlos.
Es ist auf jeden Fall nicht unbedingt die übliche Empfehlung, insbesondere der Realtek Controller ist ein häufiger Problempunkt. Falls irgendwo vorhanden mal eine Intel pci-e Karte probieren.
Der onBoard LAN Controller ist deaktiviert. Es ist bereits eine Intel PCIe 1 GB Pro Karte drin. Daran liegt es wohl nicht.

Bin gerade bei der OI 151 A Installation. Leider hab ich schon wieder alles vergessen wie ich das damals gemacht habe. Wann werden die VMWaretools endlich so einfach wie unter Windows zu installieren sein.
 
Im Log habe ich gesehen, dass es sich um den Vmware vmxnet3 Treiber handelt.
Der macht bei einigen Probleme. Den mal löschen und den e1000 Treiber
stattdessen benutzen
Gehen denn auch mit den e1000 Treiber über den virtuellen VMWare Switch mehr als 1 GBit?

Ist der VMXnet3 Treiber denn für Windows 7, Windows 2008 R2 ausgereift? Den hab ich überall eingestellt....
Nur bei WinXP nicht :)
 
Gehen denn auch mit den e1000 Treiber über den virtuellen VMWare Switch mehr als 1 GBit?

ja.

Ist der VMXnet3 Treiber denn für Windows 7, Windows 2008 R2 ausgereift? Den hab ich überall eingestellt....
Nur bei WinXP nicht :)

Ich habe selber bisher kein Problem mit vmxnet3. Für OI gibt es aber einige, die damit Probleme hatten die nach Wechsel auf e1000 beseitigt waren. Über die mögliche Ursache habe ich noch nichts gelesen. Ein Versuch mit e1000 im Falle von Problemen halte ich auf jeden Fall für sinnvoll.
 
Hallo gea,

ich betriebe seit 3 Jahren eine Home Storage mit ZFS, zunächst Open Solaris dann Oracle Solaris Express. Da ich eine Mac Infrastruktur zu Hause habe (iMac, MacBook Pro, Apple TV2) habe ich auch AFP im Einsatz. Seit dem Update von Netatalk auf 2.2.x habe ich mit iTunes immer wieder Probleme. Manchmal findet iTunes eine Musik Datei nicht. (Ausrufezeichen in iTunes bei der Musikdatei). Dann beende ich iTunes, mache einen unmount auf den AFP Share und dann wieder einen mount und dann ist die Datei wieder da. Habe schon dbd — CNID database maintenance laufen lassen aber es wird nicht besser. Ich vermute es liegt an fehlerhaften .AppleDouble Files. Bevor ich nun meine riesige iTunes Bibliothek neu aufsetze und die Daten in einen neuen AFP-Share kopiere oder wieder auf iSCSI umstelle bitte ich um Tipps. Mir ist klar, dass diese Anfrage nicht so richtig in dieses Forum passt aber vielleicht kann jemand helfen.
 
napp-it: local smb group "administrators"

Ich würde einfach auf den letzen Systemsnapshot zurückgehen.
Selbst eine Neuinstallation ist meist schneller als Fehlersuche.

id-mappings im workgroup-mode machen Probleme beim ACL-setzen
Im aktuellen napp-it lösche ich daher alle mappings bei Betreten einer
Workgroup und empfehle sie nur im Domainmode (Domainadmin=root)


Ich habe das Verschwinden der Gruppe "administrators" insofern reproduzieren können, als das ich im workgroup mode lokal einen Benutzer "administrator" (kleinschreibweise) angelegt und der Gruppe hinzugefügt habe.
Hinter dem Benutzer "administrator" im napp-it fehlt dann die Gruppenzugehörigkeit, taucht aber unten bei Auswahl der Gruppe "administrators" als Gruppenmitglied (dann allerdings in Großschreibweise "Administrator" auf; läßt sich aber mit Fehlermeldung er sei nicht Mitglied der Gruppe nicht wieder löschen, auch auf der CLI nicht. Irgendwann, im wahrsten Sinne des Wortes, verschwindet die ganze Gruppe "administrators" wie bei meinem ersten Beitrag dazu beschrieben.

Es wurde aber, obwohl im workgroup mode, ein idmapping dieses users (wieder in Großschreibweise) auf root angelegt.
 
Zuletzt bearbeitet:
Hallo gea,

ich betriebe seit 3 Jahren eine Home Storage mit ZFS, zunächst Open Solaris dann Oracle Solaris Express. Da ich eine Mac Infrastruktur zu Hause habe (iMac, MacBook Pro, Apple TV2) habe ich auch AFP im Einsatz. Seit dem Update von Netatalk auf 2.2.x habe ich mit iTunes immer wieder Probleme. Manchmal findet iTunes eine Musik Datei nicht. (Ausrufezeichen in iTunes bei der Musikdatei). Dann beende ich iTunes, mache einen unmount auf den AFP Share und dann wieder einen mount und dann ist die Datei wieder da. Habe schon dbd — CNID database maintenance laufen lassen aber es wird nicht besser. Ich vermute es liegt an fehlerhaften .AppleDouble Files. Bevor ich nun meine riesige iTunes Bibliothek neu aufsetze und die Daten in einen neuen AFP-Share kopiere oder wieder auf iSCSI umstelle bitte ich um Tipps. Mir ist klar, dass diese Anfrage nicht so richtig in dieses Forum passt aber vielleicht kann jemand helfen.

Keine Erklärung aber ich würde netatalk weiter aktualisieren und hoffen
dass das Problem behoben wird. siehe Netatalk Release Notes

Ein Zurück geht leider nicht ohne dass OSX 10.7 nicht mehr geht.

---------- Beitrag hinzugefügt um 19:32 ---------- Vorheriger Beitrag war um 19:20 ----------

Ich habe das Verschwinden der Gruppe "administrators" insofern reproduzieren können, als das ich im workgroup mode lokal einen Benutzer "administrator" (kleinschreibweise) angelegt und der Gruppe hinzugefügt habe.
Hinter dem Benutzer "administrator" im napp-it fehlt dann die Gruppenzugehörigkeit, taucht aber unten bei Auswahl der Gruppe "administrators" als Gruppenmitglied (dann allerdings in Großschreibweise "Administrator" auf; läßt sich aber mit Fehlermeldung er sei nicht Mitglied der Gruppe nicht wieder löschen, auch auf der CLI nicht. Irgendwann, im wahrsten Sinne des Wortes, verschwindet die ganze Gruppe "administrators" wie bei meinem ersten Beitrag dazu beschrieben.

Es wurde aber, obwohl im workgroup mode, ein idmapping dieses users (wieder in Großschreibweise) auf root angelegt.

Napp-it legt in älteren Versionen dieses mapping automatisch an, wenn ein Benutzer zur SMB Gruppe administrators hinzugefügt wird. Ich lass das jetzt da es Probleme vor allem mit dem Gast-Zugriff gibt. In diesen Fällen das mapping manuell löschen.

Das andere Problem ist unabhängig davon und würde ich im Zweifel durch eine Neuinstallation beheben.
OI 151a/SE11 + napp-it sind in 30 min installiert (Falls nicht noch andere Programme installiert wurden).
Eventuell jobs neu anlegen. Anschliessend vor größeren Änderungen/ regelmäßig Systemsnaps machen.
 
Das andere Problem ist unabhängig davon und würde ich im Zweifel durch eine Neuinstallation beheben.
OI 151a/SE11 + napp-it sind in 30 min installiert (Falls nicht noch andere Programme installiert wurden).
Eventuell jobs neu anlegen. Anschliessend vor größeren Änderungen/ regelmäßig Systemsnaps machen.


Ist ja längst neu installiert und über beadm ausgetestet... ;-)
Benutzt habe ich immer die letzte stable, also 0500s.
 
Meine Meinung zu den 3 Fragen:
egal, egal, egal

4k Platten sind etwas langsamer, sind meist ohnehin nicht die schnellsten.
In der Praxis relativ bedeutungslos, nicht neu kaufen ansonsten einfach nutzen.

Optimale Anzahl der Platten
Ist eigentlich egal. Die Performance steigt primär mit der Anzahl der vdevs, deren Performance ist von der Anzahl der Platten abhängig. Mehr ist also besser und es wird nicht langsamer, wenn die vdevs nicht perfekt gleichmäßig ausgelastet sind.

Daher auch 3. angepasstes zpool oder Pool anlegen mit BSD:
Würde ich nicht machen. Performance-Gewinn ist zu gering,
potentielle Probleme zu hoch.

Schreibwerte bei nen Pool aus 3*5raidz1 (jeweils 5 wd2tb platten) von 60mb/s sind auch nicht berauschend :( Beim Benchmark ...
 

Schreibwerte bei nen Pool aus 3*5raidz1 (jeweils 5 wd2tb platten) von 60mb/s sind auch nicht berauschend :( Beim Benchmark ...

es ist halt wie beim Auto
Spoiler und Reifen machen schon ein bisschen was aus. In der Formel 1 sind sie sogar sehr wichtig.
Entscheidend ist aber nur pure Motorleistung (= CPU, RAM, Plattenperformance)
 
Zuletzt bearbeitet:
Hallo,

ich steh zur Zeit auf dem Schlauch und weiß nicht so recht wie ich 4 Festplatten am besten in zfs anlege für Sicherheit und Verfügbarkeit.
Zuerst dachte ich an ein RaidZ mit 3 Platten und einer Spare Platte.
Anderer Vorschlag war 2xMirror mit je 2 Platten.
Um die Möglichkeit zu haben Snapshots bzw. davon Klone wieder herzustellen ohne die aktuellen Daten zu überschreibe habe ich mir auch vorgestellt ein Mirror mit 2 Festplatten und eine Platte als Spare. Die 4 Platte als Speicher für Klone um neben dem aktuellen Datenbestand auch auf einen älterne zugreifen zu können.
Aber was würdet ihr empfehlen wie man die 4 Platten am besten aufteilt?
Das OS liegt auf einer extra Platte.
 
Hallo,

ich steh zur Zeit auf dem Schlauch und weiß nicht so recht wie ich 4 Festplatten am besten in zfs anlege für Sicherheit und Verfügbarkeit.
Zuerst dachte ich an ein RaidZ mit 3 Platten und einer Spare Platte.

1.
max Performance und beste Erweiterbarkeit: 2 x mirror=Raid-10
(zusätzliche Hotspare empfohlen)

2.
max Kapazität: Raid-Z1 aus 4 Platten
(zusätzliche Hotspare empfohlen)

3.
max Kapazität: Raid-Z1 aus 3 Platten + Hotspare
macht keinen Sinn, Raid-Z2 hat dann gleiche Kapazität
aber die hotspare ist quasi immer bereits online

4.
Raid-Z2 aus 4 Platten macht keinen Sinn, da es gleiche Kapazität
wir Raid 10 hat aber ansonst nur Nachteile

Bei vier Platten macht eigentlich nur 1 und 2 Sinn.

Raid-10: doppelte Kapazität der Einzelplatte
Raid-Z1: 50% mehr = dreifache Kapazät der Einzelplatte aber viel langsamer

In beiden Fällen darf eine Platte ausfallen. Bei Raid-10 zwei falls
diese nicht im gleichen Raid liegen. Bei den aktuellen HD-Preisen
würde ich aber bei Mirrors immer eine Hotfix verwenden, Raid-Z1
gar nicht und bei Raid Z2 und mehreren vdevs immer eine Hotfix.
Bei nur einem vdev ist dann bei mehr als ca 8 Platten und gewünschter
max Pool-Kapazität Raid-Z3 sinnvoll.

Da dürfen dann drei Platten gleichzeitig ausfallen.
Da es bei einem vdev mit sehr vielen Platten sehr lange rebuild
Zeiten geben kann ist das bei wichtigen Daten schon sehr angenehm.

(Eine Platte fällt aus, nach 30 Stunden rebuild mit sehr viel HD-Last,
fällt wie schon mehrfach gesehen eine zweite aus und ich komme
immer noch nicht ins Schwitzen, da dann immer noch eine in Reserve.
Bei Raid5/Z1 ist dann alles futsch, bei Raid6/Z2 bin ich schwer am Bangen)

Ich würde Raid-10 machen und noch eine Reserveplatte kaufen
Ein rebuild ist bei mirrors im Gegensatz zu großen Raid-Z sehr schnell.
 
Zuletzt bearbeitet:
hallo gea,

gibt es im aktuellen napp-it 0.500s eine option wo ich NFS auf ASYNC schalten kann oder doch nur kommandozeile?
(risiken und so sind mir bekannt)
 
hallo gea,

gibt es im aktuellen napp-it 0.500s eine option wo ich NFS auf ASYNC schalten kann oder doch nur kommandozeile?
(risiken und so sind mir bekannt)

Hi,

kann mir jemand den Unterschied zwischen dem "NFS ASYNC" und dem "ZFS SYNC disable" erklären?
Bei welchem der beiden Befehle geht mehr Datensicherheit flöten bzw., geht überhaupt eine flöten?

LG Ghandalf
 
Hi,

kann mir jemand den Unterschied zwischen dem "NFS ASYNC" und dem "ZFS SYNC disable" erklären?
Bei welchem der beiden Befehle geht mehr Datensicherheit flöten bzw., geht überhaupt eine flöten?

LG Ghandalf

man kann nur ZFS sync/async einstellen. NFS benutzt dann die gewählte Einstellung.

Es geht im Grunde um Sicherheit, dass etwas auf der Platte gespeichert
ist und nicht in irgendeinem RAM-Cache beim Stromausfall verlorengeht:

z.B. Eine Programm schreibt syncron mit sync=on, dass 1 Million Euro auf dein Konto
überwiesen wurde. Das OS bestätigt den Schreibvorgang und der Strom fällt aus:
-> Die Transaktion ist auf Platte gespeichert, du hast die Million.

Eine davon unabhängige Transaktion überweist daraufhin 800.000 Euro von deinem
Konto auf ein anderes Konto: du hast 200.000,-- Euro Gewinn aus diesem Geschäft.

Bei sync=disabled bestätigt das OS zwar die Schreibaktion, tatsächlich wird es aber
nur gesammelt und mit anderen Schreibaktionen unter Umständen erst 30s später
tatsächlich auf Platte geschrieben. Im Falle eines Stromausfalls meint das Programm
dass die Überweisung ausgeführt wurde (wg gewünschtem syncronen Schreiben),
dein Konto ist aber leer!

Die andere Transaktion überweist trotzdem die 800.000,-- Euro !!!

Dafür geht alles viel schneller, sofern nicht gerade im falschen Moment der Strom ausfällt.
(Bei all-in-one nicht ganz so dramatisch, da dann auch das schreibende Programm mit ausfällt)
Es kommt halt auf die Anwendung an ob schnell oder sicher gewünscht ist.

(Es geht beides bei ZFS mit genügend Geld, z.B. mit SSD oder einem Batterie gepuffertem RAM Schreib-Cache)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh