[Sammelthread] ZFS Stammtisch

Heißt das, man kann zukünftig ohne Problem die Pools von OminiOS/IO mit Napp-IT auch z.B. bei FreeBDS (TrueNAS) einsetzen, sobald die alle OpenZFS 2.x oder höher integriert haben ? Wie ist da der aktuelle Stand, wenn noch kein OZFS2.x zum Einsatz kommt?

ZFS Pools von Linux und Illumos/OmniOS/OI sind schon lange zueinander kompatibel da beide die gleichen Features unterstützen. Free-BSD (FreeNAS) war bisher dazu nicht kompatibel da deren ZFS Version etwa 1 Jahr zurück lag und z.B. Verschlüssellung, specal vdevs und Systemsnaps nicht kannte.

Was bei FreeNAS Pools teilweise Probleme bei anderen Systemen macht sind die swap-Partitionen die FreeNAS anlegen kann. Andere Systeme möchten meist die Platte komplett für ZFS haben. Solaris z.B. möchte das Swapfile nicht auf den Datenplatten sondern der Systemplatte.

Das gemeinsame OpenZFS 2.0 Repo sorgt künftig dafür dass Free-BSD und Linux die gleichen ZFS Features unterstützen. Illumos übernimmt die Features aus dem OpenZFS Repo recht zügig genau wie bisher die Illumos Erweiterungen in das OpenZFS Repository gegangen sind, pflegt aber weiter das eigene Repository. Grund ist die weitgehende Integration des eigenen SMB Servers in ZFS und damit die nfs4 ACL Unterstützung (ntfs artige ACL mit Unterstützung für Windows sid neben den Unix uid/gid) die über das reine Dateisystem hinausgeht und die halt nicht in dem OpenZFS Repository möglich sind da dies Solarish only ist.
Beitrag automatisch zusammengeführt:

Übersehe ich etwas, wie macht Ihr es/was würdet Ihr empfehlen?

Ich sehe keine grundsätzlichen Probleme, weder mit einem großen Dateisystem noch mit verschachtelten Dateisystemen und dem Schlüssel nur im Parent nutzen.

Was man bei verschachtelten Dateisystemen aber unterlassen sollte sind lock/unlock auf den einzelnen Dateisystemen sondern immer nur den Parent auf/abschließen. Per Vererbung geht das dann auf alle sofern man da eben keine individuellen locks macht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab mir gerade noch ein OminiOS von Hand aufgesetzt und dort Napp-IT installiert. Dort erscheint der oben genannte PERL-Fehler nicht. perl -v wirft aber auch nach einem update Version 5.32.0 aus.

Wie kann ich testhalber Perl unter Openindiana auf 5.32.0 updaten wenn pkg update nicht hilft um zu sehen, ob der Fehler damit behoben ist?

Was bei OmniOS wiederum nicht geht ist, dass ich das solaris.iso von VMWare nicht verbunden bekomme. Wenn ich das virtuelle Laufwerk mit der ISO verbinde, erscheint unter /media nur "hal-mtab-lock", aber nicht wie unter Openindiana der VMWare-Ordner mit den Tools darin.

Wie bekomme ich die VMWare-Tools eingebunden?
 
Zuletzt bearbeitet:
Napp-it unterstützt verschiedene Perl Versionen, siehe /var/web-gui/data/tools/omnios/
Wurde Openindiana per pkg update auf die aktuelle Version gebracht? Welches Perl is dann dabei?
Ich hab mir gerade noch ein OminiOS von Hand aufgesetzt und dort Napp-IT installiert. Dort erscheint der oben genannte PERL-Fehler nicht. perl -v wirft aber auch nach einem update Version 5.32.0 aus.

Wie kann ich testhalber Perl unter Openindiana auf 5.32.0 updaten wenn pkg update nicht hilft um zu sehen, ob der Fehler damit behoben ist?

OpenIndiana kommt mit einem System-Perl 5.22.4 Das sollte man nicht updaten (allenfalls ein "User" Perl in /opt installieren.). Ich habe aber gerade mein OpenIndiana (20.10) getestet. Das lief problemlos mit napp-it - auch nach einem pkg update auf die neueste OI Version von heute.

ps
Da OpenIndiana kein stable oder long term stable kennt, kann es durchaus von heute auf morgen Probleme wegen eines Updates mit neueren Programmversionen kommen. Für "Produktivsysteme" ist OpenIndiana daher weniger geeignet. Hier habe ich aber kein Problem gesehen. Napp-it unterstützt alle Perl Versionen von 5.22 - 5.32, siehe /var/web-gui/data/tools/omnios/


Was bei OmniOS wiederum nicht geht ist, dass ich das solaris.iso von VMWare nicht verbunden bekomme. Wenn ich das virtuelle Laufwerk mit der ISO verbinde, erscheint unter /media nur "hal-mtab-lock", aber nicht wie unter Openindiana der VMWare-Ordner mit den Tools darin.

Wie bekomme ich die VMWare-Tools eingebunden?

OmniOS/OI sollte man nicht mit den originalen VMware Tools für Solaris betreiben sondern mit den mitgelieferten Open-VM Tools. Die sind sowohl im OpenIndiana wie OmniOS Repo enthalten. Installiert werden die per "pkg install open-vm-tools"
 
Ja ich hatte Openindiana Release 2020.10 per pkg update aktualisiert. Es war dann 5.22.4. Wie gesagt, ich hatte OI Text und Gui runtergeladen (vor ein paar Tagen erst) und beide in ne eigene VM installiert. Soviel kann man da ja nicht falsch machen ... OS installieren, booten, CLI starten, root-Rechte holen, und letztendlich Napp-IT über dein Perl-Script installieren. Entweder es geht dann oder nicht - in meinem Fall kam halt jedes mal dieser Scriptfehler im Webinterface.

Danke für den Hinweis mit Open-VM-Tools. Ich hatte in einigen deiner PDFs und auf der HTML-Website gelesen, dass man das von Hand installieren muss. Sicher steht auch irgendwo dass Open-VM-Tools out of the box da sind, aber ich habs nicht gefunden.

Ich würde OI zwar bevorzugen, weil man in der GUI als Neuling doch besser zurecht kommt, aber ich hab jetzt nochmal OmniOS komplett frisch installiert, ein pkg update gemacht, MC und Napp-IT installiert und soweit funktioniert jetzt alles. Jetzt gehts ohne PERL-Fehlermeldung endlich mal an die Einrichtung von Napp-IT.



Als kleines Feedback (bitte nicht falsch verstehen, ich finde deine Hilfsbereitschaft und die Informationsfülle vorbildlich): Etwas unübersichtlich ist es auf der Website schon. ;-) Es gibt auch viel veraltete Informationen deren Aktualität als Neuling nicht einschätzen kann.
 
Gerne

Es gibt halt das Problem dass napp-it keine geschlossene Storageserver Lösung ist sondern eine offene webbasierte Managementlösung für eine ganze Palette von ZFS Betriebssystemen aus der Solaris Welt - die sich ihrerseits von Version zu Version ändern können. Der Verweis z.B. auf die solaris.iso bei der Installation der VMware Tools ist bei Oracle Solaris ja nach wie vor gültig weil der einzige Weg. Bei OmniOS gibt es seit Jahren die open-vm-tools, bei OI kam das erst später. In jedem Fall sind die Original Solaris VMware Tools nach wie vor eine Option - wenn auch nicht die empfohlene. Ich habe auch noch jede Menge kommerzieller Installationen die ungern updaten und daher auch noch "ältere" Infos brauchen - meist aber auch ein gewisses Know How haben.

Das ist ja auch mit der Grund warum ich eine aktuelles und gebrauchsfertiges Template für ESXi anbiete. Da hat man sofort einen ZFS Storageserver auf Solaris/Unix Basis mit Browser Management ohne dass man sich lange um die Installation oder Unterschiede zwischen den Betriebssystemen oder Versionen kümmern muss.
 
Kurze Frage in die Runde:

Ich werde in naher Zukunft einen 2. FreeNas Filer aufbauen auf einer Remote-Location.

Beide Locations werden durch VPN miteinander verbunden.

Es wird zukünftig auf Filer 'B' gearbeitet.
Kann ich nun einfach auf Filer 'A' einen Replication Task anlegen, dass er sämtliche Änderungen von Filer 'B' auf sich synchronisiert?

Hört sich irgendwie zu einfach an. Gibt es Fallstricke? Was muss ich beachten?
 
Hi Günther,
hast Du Richtlinien für Custom Extensions? Das eine oder andere Encryption-Item würde ich gerne etwas anders umsetzen und manches nach Möglichkeit etwas anders aufbauen.
Viele Grüße
Martin
 
Kurze Frage in die Runde:

Ich werde in naher Zukunft einen 2. FreeNas Filer aufbauen auf einer Remote-Location.

Beide Locations werden durch VPN miteinander verbunden.

Es wird zukünftig auf Filer 'B' gearbeitet.
Kann ich nun einfach auf Filer 'A' einen Replication Task anlegen, dass er sämtliche Änderungen von Filer 'B' auf sich synchronisiert?

Hört sich irgendwie zu einfach an. Gibt es Fallstricke? Was muss ich beachten?
Schau dich bei TrueNAS mal um. Das hat mittlerweile sogar einen Openvpn Client / Server eingebaut.

Sonst prinzipiell möglich, entweder per Rsync oder Replication Task.
Und da gibt's dann jede Menge Optionen, nach Zeit, Dateiänderungen etc.
 
Sonst prinzipiell möglich, entweder per Rsync oder Replication Task.
Und da gibt's dann jede Menge Optionen, nach Zeit, Dateiänderungen etc.
Statt rsync dann doch lieber zfs send/receive.

Dafür hilfreich: möglichst kein monolithische dataset, sondern derer viele. Dann kann man besser einstellen, was wie oft gesynced wird und wieviele snapshots man braucht.

Tools für zfs send/receive gibt's viele, zB
- zrep
- zrepl
- znapnzend
- syncoid/sanoid
- ....
 
Wie verhält es sich wenn ich sowohl auf Site 'A' als auch auf Site 'B' snapshots verwende?

Site 'A' macht kontiniuerlich snapshots nach policy, Site 'B', auf welcher zukuenftig gearbeitet wird bekommt ebenfalls ne policy.

Werden diese am Ende des Replikationstasks auf Site 'A' zusammengefuehrt ?
 
Hi Günther,
hast Du Richtlinien für Custom Extensions? Das eine oder andere Encryption-Item würde ich gerne etwas anders umsetzen und manches nach Möglichkeit etwas anders aufbauen.
Viele Grüße
Martin

Für ein privates Menü einfach im Ordner /var/web-gui/_my/zfsos/ einen Unterordner z.B. "Meins" anlegen und darin eine action.pl für die Menü-Aktionen platzieren. Eigene Bibliotheken landen dann z.B. in /var/web-gui/_my/zfsos/_lib/

Derartige Menüs sind unabhängig von napp-it oder napp-it Up/Downgrades und werden einfach ins normale Menü mit aufgenommen.
Beitrag automatisch zusammengeführt:

Wie verhält es sich wenn ich sowohl auf Site 'A' als auch auf Site 'B' snapshots verwende?

Site 'A' macht kontiniuerlich snapshots nach policy, Site 'B', auf welcher zukuenftig gearbeitet wird bekommt ebenfalls ne policy.

Werden diese am Ende des Replikationstasks auf Site 'A' zusammengefuehrt ?

Eine inkrementelle Replikation macht auf dem Zielsystem A ein Rollback auf den Stand des Quellsnaps von B. Eventuelle Snaps auf A die nach der letzten Replikation angelegt wurden sind dann weg.
 
Super, vielen Dank fuer deinen wertvollen Input, gea!
Klingt somit sehr straight forward!
 
Vor kurzem ging es ja hier um Performance von ZFS Verschlüssellung.

Ich habe jetzt mal eine erste Testreihe gemacht und dabei ein Xeon Silver System einem AMD System gegenübergestellt (SuperMicro H12SSL-C BTO System https://www.supermicro.com/en/products/motherboard/H12SSL-C mit Epyc 7302 16/32 Core mit 128GB RAM) das seit dieser Woche lieferbar ist. Wenn ich genügend NVMe hätte, könnte man mit dem Board auch locker 24 NVMe versorgen.

Ich habe auch ein virtualisiertes OmniOS ZFS System getestet.
Leider gibt es wieder NVMe pass-through Probleme (getestet mit ESXi 7.0U1).
12G SAS z.B. mit WD SS530 geht wie immer problemfrei und ist fast so schnell.

https://napp-it.org/doc/downloads/epyc_performance.pdf
 
Ich hatte mit dem Xeon System weniger Probleme. Liegt also aktuell auch an dem AMD System bzw. an der Treiberunterstützung dafür. Ich habe aber auch Solaris 11.4 versucht. Da lief die Optane M.2 problemlos im pass-through Modus die ich bei OmniOS nicht zum laufen brachte. Dafür wurden da die pci-e Versionen der Optane nicht erkannt.

Wie heißt es da so schön.
Der erste der etwas ausprobiert ist der erste der die Fehler findet.
Das SuperMicro Board ist ja ganz neu am Markt und auch ESXi 7.0U1 ist ganz neu.

Wenn jemand Erkenntnisse hat, gerne auch hier beteiligen

PS
Die wichtigste Erkenntnis
Bis auf sync write ist das Epyc System bei gleichem Pool bis zu 2x so schnell wie das fast gleichteure Xeon Silver System und das ist ja auch nicht gerade langsam! Was ganz deutlich zeigt dass rohe CPU Leistung auch bei einem Storage System Leistung bedeutet vor allem wenn Verschlüssellung dazu kommt - ein Muß in Zeiten in denen die DSGVO bestimmt, wie Storage auszusehen hat.
 
Zuletzt bearbeitet:
Ich spiele mit dem Gedanken, mir ne Napp-IT Home-Linzenz zu kaufen. Nun sind die Linzenzen an die Maschine gebunden über die Machine ID.

Was passiert, wenn ich die CPU wechsel (werden in nem halben Jahr von Zen 2 auf Zen 3 wechseln wenn die CPUs günstiger und überhaupt erstmal verfügbar sind) oder wenn das Mainboard oder ein HBA getauscht werden muss? Auf welcher Hardware bassiert die Machine ID?
Außerdem läuft Napp-IT in der VM (VMware), aktuell noch mit RDM. Gibts da irgendwas zu beachten?
 
Die Machine id basiert auf der Mac Adresse der Netzwerkarte. Ändert sich die, kann man den Key online tauschen. Läuft eine Pro Lizenz ab, kann man auf die ältere free oder kostenlose noncommercial home Version wechseln.

RDM ist kein Problem wenn man einen SAS HBA nutzt. Mit einem Sata Controller ist es auch möglich aber nicht offiziell unterstützt.
 
Mal ne Frage zur Performance:
Habe 4x WD 14TB im RaidZ2. Server ist ein HP ProLiant ML10 v2 G3240 (2x 3,1Ghz) mit 4GB Ram.

Mit Verschlüsselung 15MB/s, manchmal sekundenlang 0MB/s
Ohne Verschlüsselung 40MB/s

Ich finde das extrem langsam.
Mein Microserver ist teilweise (allerdings mit einem Mirror auf 2 SSDs) schneller auch mit Verschlüsselung und der hat nur 2x1,3Ghz.
In meinen Augen sollte der ML10 doch deutlich schneller sein oder nicht?
Bringt es etwas Intel Netzwerkkarten zu kaufen statt die eingebauten von Broadcom zu benutzen? Oder liegt das Problem woanders.
 
Kommt drauf an.
Der G3240 ist ziemlich lahm und hinzu kommt, dass er bspw. kein AES-NI unterstützt.

Wie bist du überhaupt mit dem Server verbunden? Direkt per LAN? Oder etwa per WLAN?
Würde erst einmal die Pool Performance an sich in der shell testen und dann schauen, ob es am Pool selbst oder dem Netzwerk liegt.

Desweiteren, welches Betriebssystem nutzt du für den ZFS Pool?
 
Sind die WD Platten CMR oder SMR (Archiv) Platten.
In letzterem Fall ist extrem schlechte Raid Performance beim Schreiben normal.

Oder ist sync aktiviert?
Da wären 30-50 MB/s ohne enc erwartbar. Sync + Encryption ist bei ZFS Verschlüssellung ohnehin sehr langsam siehe sync + enc Resultate, https://napp-it.org/doc/downloads/epyc_performance.pdf

Bevor man eine Netzwerkkarte kauft, die lokale Pool Performance testen.
 
Zuletzt bearbeitet:
@gea
Du vergleichst in deinem PDF ganze 8 Kerne mit HT bei 2.1GHz gegen 16 Kerne mit SMT bei 3.0GHz Basistakt. Allein schon aufgrund der höheren Basisfrequenz muß AMD performanter sein, falls es nicht die doppelte Kernanzahl schafft. Interessant wäre es jetzt zu sehen, was bei einer auf die Intel-Werte massakrierten AMD-CPU wirklich hinten rauskommt und wie sich dabei die Auslastung verhält.
 
Mir geht es nicht darum zu zeigen dass 16 Cores schneller sind als 8 - zumal bei höherem Basistakt und auch nicht darum zu zeigen dass AMD besser ist als Intel.

Wenn ich Server ersetze dann meist in der 3000 Euro Größenordnung ohne Platten. Da war das Xeon System meine Standardkonfiguration in den letzten beiden Jahren. Ich habe ein gutes halbes Dutzend davon hier. Ein ganz aktuelles Intel System mit mehr Cores würde den Xeon Server von letzem Jahr auch schlagen. Ich wollte aber wissen was der momentan schnellste Server in der Preisklasse kann und das ist wohl dieses AMD System das seit diesem Monat lieferbar ist. Dass der dann bis 2x so schnell bei gleichem Pool ist habe ich auch nicht erwartet. Meine nächsten Server die ich ersetze werden wohl diese sein.

Wichtig war mir das vor allem im Zusammenhang mit ZFS Verschlüssellung, eine Kernforderung an Storage wenn es um Stand der Technik nach DSGVO geht. Dass dabei herausgekommen ist dass ein 10G Filer mit Verschlüssellung gar kein Problem ist, Verschlüssellung + sync aber nicht so sinnvoll ist bzw massiv langsamer, hatte ich auch nicht so erwartet.
 
Sind die WD Platten CMR oder SMR (Archiv) Platten.
In letzterem Fall ist extrem schlechte Raid Performance beim Schreiben normal.
Sind WDC WD140EDFZ. Also CMR.
Der G3240 ist ziemlich lahm und hinzu kommt, dass er bspw. kein AES-NI unterstützt.

Unterstützt OmniOS überhaupt AES-NI ?
Naja "lahm" mag der G3240 ja sein, aber ist er wirklich so lahm dass er nichtmal Gbit Ethernet auslastet?

Bin über Gbit Ethernet verbunden also kein WLAN.
 
Wie ist denn die lokale Pool Performance mit und ohne sync?

Testen z.B. per dd oder bei napp-it mit dem Menü Pool > Benchmark.
Wenn der Rechner sehr langsam ist die read-tests deaktivieren.

Ansonsten auch Test mit Verschlüssellung laufen lassen.

Während dem Test eventuell iostat beobachten ob alle Platten gleiche Last/wait/busy zeigen.

Gibt es die Option den RAM zu erweitern?
Mit 4GB ist OmniOS zwar absolut zufrieden, mehr würde aber Performance bringen.
 
Zuletzt bearbeitet:
Habe mal einen Test des Pools mit dd gemacht.
iostat: read/write per/s zeigt beim lesen eine sehr gleichmäßige Auslastung der Platten. Beim Schreiben allerdings nicht. Besonders die ersten beiden Platten haben höhere Werte. Ich muss dazu sagen dass beim ml10 v2 nur die ersten beiden Sata Ports Sata3 sind, die restlichen Sata2. Also laufen meine ersten beiden Platten mit Sata3 und die anderen beiden mit Sata2.
Aber sollte für eine HDD in meinen Augen immer noch schnell genug sein eigentlich. In Windows kam ich bei der sequentiellen Schreibperformance allerdings auf Werte von bis zu 220MB/s pro HDD.
Wenn man sich den Bench anschaut ist die Schreib und Leseperformance etwa auf dem Level einer einzelnen Platte.
Ich könnte auch alle Platten als Sata2 betreiben. Aber würde es etwas bringen?

alle Platten gleiche Last/wait/busy zeigen.

Teilweise um bis zu 20% unterschied. In der Regel zwischen den Platten welche in Sata2 und Sata3 laufen.

Memory size: 4062 Megabytes

write 20.48 GB via dd, please wait...
time dd if=/dev/zero of=/tank/dd.tst bs=2048000 count=10000

10000+0 records in
10000+0 records out
20480000000 bytes transferred in 99.985736 secs (195MB/sec)

real 1:40.0
user 0.1
sys 17.6

20.48 GB in 100s = 204.80 MB/s Write

wait 40 s


read 20.48 GB via dd, please wait...
time dd if=/tank/dd.tst of=/dev/null bs=2048000

10000+0 records in
10000+0 records out
20480000000 bytes transferred in 87.969819 secs (222MB/sec)

real 1:28.0
user 0.1
sys 41.0

20.48 GB in 88s = 232.73 MB/s Read
 
Zuletzt bearbeitet:
Die Performance ist wie erwartet bei zwei Datenplatten Platten im Raid-Zn. Ein Unterschied in der Auslastung von 20% ist ok. Sata2 oder Sata3 ist nicht erheblich da die Platten eh nicht mehr als 3G können. Prinzipiell sollte man damit zumindest bei sequentiellen Workloads ohne sync und enc 1G auslasten können. Wenn man da nur 40MB/s übers Netz hat, kommen andere Effekte dazu. Erwarten würde ich mit Solarish SMB eher 80MB/s+. Kann aber sein dass sowenig RAM hier etwas bremst.

Wie ist denn das Ergebnis aus dem Menü Pool > Benchmark?
Da werden mehrere Filebench Tests zusammen (write, read, sequentiell, random mit und ohne sync, optional mit enc) auf einmal ausgeführt.

Enc wird aber wohl problematisch sein. Auch sync write wird sehr langsam sein. Da bräuchte man bei ZFS Verschlüssellung tatsächlich AES-NI und zusätzlich eine halbwegs potente CPU.

Sync + enc, da wird garnichts gehen.

Mehr RAM wäre sicher performancefördernd. Wenn man nur 4 GB RAM hat und davon 2GB für das 64 bit OS abzieht, bleiben 2 GB. 10% davon sind Schreibcache, also magere 200 MB, ca 70% vom Rest sind Lesecache als ca nur gut 1 GB Lesecache. Wenn andere Dienste RAM brauchen wie Serverdienste geht das noch vorab davon ab. Bei einem Pool mit einer Nutzkapazität von 28TB ist das nicht mal ein Tropfen auf einen heißen Stein.
 
hallo zusammen,

kurze Frage.Ziehe gerade von meinen alten Platten auf neue Platten um auf dem selben System.
Ich hätte mir jetzt der einfachhalber den Befehl ZFS SEND genommen....versende ich dann die Snapshots oder die Pools an sich?
Kann ich den ganzen Pool kopieren oder geht das dann nur mit den einzelnen Datasets?
Wie sieht dazu der Befehl aus?
 
Siehe oben für tools, die das einfacher machen, ansonsten gibt's tausend Anleitungen/Blogs über Google zu finden.
Du kannst sowohl den Pool als ganzes als auch einzelne datasets senden.
 
@gea

Benchmark: Write: filebench_sequential, Read: filebench, date: 12.12.2020

pool: tank

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c3t0d0 ONLINE 0 0 0
c3t1d0 ONLINE 0 0 0
c3t2d0 ONLINE 0 0 0
c3t3d0 ONLINE 0 0 0

host backup
pool tank
(recsize=128K, ssb=-, compr=off, readcache=all)
slog -
encryption -
remark



Fb3 sync=always sync=disabled

Fb4 singlestreamwrite.f sync=always sync=disabled

176 ops 934 ops
35.197 ops/s 184.583 ops/s
299805us cpu/op 107691us cpu/op
28.2ms latency 5.2ms latency
35.0 MB/s 184.4 MB/s
________________________________________________________________________________________
randomread.f randomrw.f singlestreamr
pri/sec cache=all 0.4 MB/s 1.6 MB/s 194.7 MB/s
________________________________________________________________________________________


Benchmark: Write: filebench_sequential, Read: filebench, date: 12.12.2020

pool: tank

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c3t0d0 ONLINE 0 0 0
c3t1d0 ONLINE 0 0 0
c3t2d0 ONLINE 0 0 0
c3t3d0 ONLINE 0 0 0

host backup
pool tank
(recsize=128K, ssb=-, compr=off, readcache=all)
slog -
encryption aes-256-ccm
remark


Enter passphrase:11111111 cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist Could not write to the shared memory file: No space left on device cannot open 'tank/_Pool_Benchmark': dataset does not exist cannot open 'tank/_Pool_Benchmark': dataset does not exist
Fb3 sync=always sync=disabled

Fb4 singlestreamwrite.f sync=always sync=disabled

1283 ops 1050 ops
256.188 ops/s 194.648 ops/s
77362us cpu/op 101152us cpu/op
3.7ms latency 5.0ms latency
256.0 MB/s 194.5 MB/s
________________________________________________________________________________________
randomread.f randomrw.f singlestreamr
pri/sec cache=all no data 0.6 MB/s 244.1 MB/s
Scheint nicht so wirklich zu funktioneren
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh