Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Andy Fiddaman @citrus-it Nov 06 2019 10:50
@gmavrikas TRIM is available in r151032, but it is disabled by default at the moment.
When it was integrated into illumos, early testing found a bug that caused some pool corruption
That bug is fixed, but the last status I heard is that Jerry from Joyent is still going through and double checking everything
This message was deleted
You can enable it by putting:
set zfs:zfs_no_trim = 0
into a file under /etc/system.d/, and rebooting
Benchmark: Write: filebench_sequential, Read: filebench, date: 01.15.2020
pool: hddtank
NAME STATE READ WRITE CKSUM
hddtank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t5000C500B2BE98F5d0 ONLINE 0 0 0
c0t5000C500B2C203F5d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c0t5000C500B0BFE30Bd0 ONLINE 0 0 0
c0t5000C500B2C23A91d0 ONLINE 0 0 0
host omnios
pool hddtank (recsize=128K, ssb=-, compr=off, readcache=all)
slog -
remark
Fb3 sync=always sync=disabled
Fb4 singlestreamwrite.f sync=always sync=disabled
207 ops 4065 ops
41.397 ops/s 812.959 ops/s
432884us cpu/op 22689us cpu/op
24.0ms latency 1.2ms latency
41.2 MB/s 812.8 MB/s
________________________________________________________________________________________
randomread.f randomrw.f singlestreamr
pri/sec cache=all 129.6 MB/s 62.6 MB/s 1.5 GB/s
________________________________________________________________________________________
Wie kann ich denn herausfinden ob meine OmniOS VM korrekt auf den AES-NI Befehlssatz der Host CPU zugreift?
Folgend der Filebench zu meinem HDD Pool hddtank
Anhang anzeigen 486567
Results for fileserver.f, please wait 30 s until restarting tests..
start filebench..
Filebench Version 1.4.9.1
13796: 0.000: Allocated 126MB of shared memory
13796: 0.011: File-server Version 3.0 personality successfully loaded
13796: 0.012: Creating/pre-allocating files and filesets
13796: 0.024: Fileset bigfileset: 10000 files, 0 leafdirs, avg dir width = 20, avg dir depth = 3.1, 1254.784MB
13796: 0.026: Removed any existing fileset bigfileset in 1 seconds
13796: 0.026: making tree for filset /saspool/filebench.tst/bigfileset
13796: 0.045: Creating fileset bigfileset...
13796: 3.709: Preallocated 8015 of 10000 of fileset bigfileset in 4 seconds
13796: 3.709: waiting for fileset pre-allocation to finish
13796: 3.709: Starting 1 filereader instances
13874: 3.723: Starting 50 filereaderthread threads
13796: 4.755: Running...
13796: 34.814: Run took 30 seconds...
13796: 34.818: Per-Operation Breakdown
statfile1 253340ops 8428ops/s 0.0mb/s 0.1ms/op 15us/op-cpu [0ms - 431ms]
deletefile1 253021ops 8418ops/s 0.0mb/s 0.9ms/op 74us/op-cpu [0ms - 389ms]
closefile3 253351ops 8429ops/s 0.0mb/s 0.3ms/op 11us/op-cpu [0ms - 294ms]
readfile1 253351ops 8429ops/s 1121.4mb/s 0.1ms/op 31us/op-cpu [0ms - 352ms]
openfile2 253358ops 8429ops/s 0.0mb/s 0.3ms/op 30us/op-cpu [0ms - 502ms]
closefile2 253364ops 8429ops/s 0.0mb/s 0.0ms/op 5us/op-cpu [0ms - 239ms]
appendfilerand1 253365ops 8429ops/s 65.9mb/s 0.3ms/op 43us/op-cpu [0ms - 559ms]
openfile1 253376ops 8430ops/s 0.0mb/s 0.3ms/op 32us/op-cpu [0ms - 516ms]
closefile1 253382ops 8430ops/s 0.0mb/s 0.0ms/op 6us/op-cpu [0ms - 173ms]
wrtfile1 253385ops 8430ops/s 1057.5mb/s 0.5ms/op 78us/op-cpu [0ms - 316ms]
createfile1 253389ops 8430ops/s 0.0mb/s 0.8ms/op 146us/op-cpu [0ms - 670ms]
13796: 34.818:
IO Summary:
2786682 ops, 92711.133 ops/s, (8429/16859 r/w), 2244.9mb/s, 219us cpu/op, 1.3ms latency
13796: 34.818: Shutting down processes
ok.
Benchmark: Write: filebench_sequential, Read: filebench, date: 01.16.2020
pool: saspool
NAME STATE READ WRITE CKSUM
saspool ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c17t5000CCA24314E7A1d0 ONLINE 0 0 0
c12t5000CCA243104A89d0 ONLINE 0 0 0
c19t5000CCA2440AD795d0 ONLINE 0 0 0
c14t5000CCA24314DFE9d0 ONLINE 0 0 0
c15t5000CCA244097FB1d0 ONLINE 0 0 0
c16t5000CCA24314E7B1d0 ONLINE 0 0 0
c13t5000CCA24314E081d0 ONLINE 0 0 0
c18t5000CCA2440CC019d0 ONLINE 0 0 0
logs
c1t1d0 ONLINE 0 0 0
cache
c1t2d0 ONLINE 0 0 0
host nas
pool saspool (recsize=128k, compr=off, readcache=all)
slog Virtual disk 42.9 GB
remark
begin test 4 ..singlestreamwrite.f ..
begin test 4sync ..singlestreamwrite.f ..
set sync=disabled
begin test 7 randomread.f ..
begin test 8 randomrw.f ..
begin test 9 singlestreamread.f ..
Fb3 sync=always sync=disabled
Fb4 singlestreamwrite.f sync=always sync=disabled
2924 ops 6588 ops
584.780 ops/s 1317.471 ops/s
3024us cpu/op 1834us cpu/op
1.7ms latency 0.7ms latency
584.6 MB/s 1317.3 MB/s
________________________________________________________________________________________
read fb 7-9 + dd (opt) randomread.f randomrw.f singlestreamr
pri/sec cache=all 780.7 MB/s 1.1 GB/s 8.8 GB/s
________________________________________________________________________________________
@gea : im aktuellen napp-it dev vom 20. Dezember kann ich keine verschlüsselten Datasets erzeugen unter Solaris 11.4. Es wird einfach kein Dateisystem angelegt, die GUI meldet es aber.
Mit der 19.06h pro funktioniert es.
Prinzipiell ist eine hohe CPU Last nichts problematisches. Es bedeutet ja eh nur dass der Server so schnell wie möglich arbeitet weil alle Komponenten so schnell Daten liefern, dass die CPU an den Anschlag geht. Niederige CPU Last weil das Storage Daten nicht schnell genug liefert wäre viel unangenehmer.
Zum Benchmark (Tabelle bitte als Code einfügen, dann bleibt es lesbarer)
Sequentiell Schreiben (ohne sync): 812 MB/s ist perfekt, bei Platten aber jenseits des physikalisch möglichen (Ein Raid-10 aus Platten kann maximal ca 400 MB/s). Da schönt der Cache.
Sequentiell Schreiben (mit Sync): 42 MB/s ist so schlecht wie erwartet. Ein gutes Slog (Optane ab 800P, WD SS530) kann da viel helfen und den Wert um den Faktor 10 verbessern.
Readwerte/RW sind für einen Platten Raid-10 auch gut.
Verstehe ich das richtig das die Benchmarks Pool basierend sind, und nicht auf ZFS Dateisystem Ebene sind? Es gibt auf jeden fall einen extremen unterschied zwischen Crypted und non Crypted ZFS Dateisystemen.
Sollte es auf Pool Ebene sein, wie kann man es auf Dateisystem Ebene testen?
OK Slog wäre eine idee, aber was wäre im Fall, dass das Slog Device defekt geht? Wäre dann der gesamte Pool defekt? Ist dann noch ein Zugriff möglich?
Momentan könnte ja in jedem Mirror eine Platte ausfallen, also ohne Slog..
Im Menü Pools > Benchmark wird unter dem Pool ein Dateisystem "_Pool_Benchmark"
angelegt um darin die Tests mit unterschiedlichen ZFS Einstellungen zu fahren. Nach den Tests wird das Dateisystem wieder gelöscht. Um ein verschlüsseltes Dateisystem zu testen, kann man manuell ein verschlüsseltes Dateisystem mit dem Namen anlegen und die Benchmarks laufen lassen. Dieses zfs create/ zfs destroy könnte man im Script /var/web-gui/data/napp-it/zfsos/06_Pools/20_Benchmark=-lin/action.pl auch auskommentieren.
Benchmark: Write: filebench_sequential, Read: filebench, date: 01.18.2020
pool: hddtank
NAME STATE READ WRITE CKSUM
hddtank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t5000C500B2BE98F5d0 ONLINE 0 0 0
c0t5000C500B2C203F5d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c0t5000C500B0BFE30Bd0 ONLINE 0 0 0
c0t5000C500B2C23A91d0 ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
c0t5000C500C3AAD8F0d0 ONLINE 0 0 0
c0t5000C500C3FDEF04d0 ONLINE 0 0 0
host omnios
pool hddtank (recsize=128K, ssb=-, compr=off, readcache=all)
slog -
remark
Fb3 sync=always sync=disabled
Fb4 singlestreamwrite.f sync=always sync=disabled
230 ops 4887 ops
45.996 ops/s 977.354 ops/s
211204us cpu/op 27313us cpu/op
21.7ms latency 1.0ms latency
45.8 MB/s 977.2 MB/s
________________________________________________________________________________________
randomread.f randomrw.f singlestreamr
pri/sec cache=all 112.6 MB/s 197.4 MB/s 1.4 GB/s
________________________________________________________________________________________
Benchmark: Write: filebench_sequential, Read: filebench, date: 01.18.2020
pool: hddtank
NAME STATE READ WRITE CKSUM
hddtank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t5000C500B2BE98F5d0 ONLINE 0 0 0
c0t5000C500B2C203F5d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c0t5000C500B0BFE30Bd0 ONLINE 0 0 0
c0t5000C500B2C23A91d0 ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
c0t5000C500C3AAD8F0d0 ONLINE 0 0 0
c0t5000C500C3FDEF04d0 ONLINE 0 0 0
host omnios
pool hddtank (recsize=128K, ssb=-, compr=off, readcache=all)
slog -
remark
Fb3 sync=always sync=disabled
Fb4 singlestreamwrite.f sync=always sync=disabled
168 ops 3138 ops
33.598 ops/s 627.461 ops/s
919207us cpu/op 203943us cpu/op
29.6ms latency 1.6ms latency
33.4 MB/s 627.3 MB/s
________________________________________________________________________________________
randomread.f randomrw.f singlestreamr
pri/sec cache=all 7.0 MB/s 11.6 MB/s 78.2 MB/s
________________________________________________________________________________________
Die Intel DC 4801X M.2 ist schlicht die absolut beste Slog Option. Ist unschlagbar schnell hinsichtlich Latenz und iops, hat garantierte Powerloss Protection, Write Endurance jenseits von Gut und Böse und gibts eben in M.2. Die Performance skaliert zwar auch bei Optane mit der Kapazität, die 100 GB ist aber bis auf ganz hohe Anforderungen perfekt (da noch relativ günstig). Man könnte übrigens auch ein U.2 Laufwerk an den M.2 Anschluss anschließen. Bei meiner Optane 900P war das Kabel sogar dabei.
- Verschlüssellung kostet Performance. Vermutlich wird das bei einem Barebone Setup mit guter CPU geringer ausfallen. 620 MB/s Schreiben und 80 MB/s lesen reicht aber oft schon. Man könnte jetzt noch schauen ob eine schwächere Verschlüssellung deutlich bessere Werte liefert.
Ich werde die Verschlüssellungs Option auf jeden Fall in das Menü einbauen.
Kann man die Verschlüsselungs stärke herabsetzen ohne den Pool neu zu erstellen/befüllen?
ZFS Verschlüssellung (keine Eigenschaft des Pools sondern eines Dateisystems) kann man nur beim Anlegen des Dateisystems festlegen.
Warum nimmst du den restlichen Speicher nicht als L2ARC ? ESXi da drauf ist echt Perlen vor die Säue, den hab ich auf ner microSD.Abend zusammen,
würde eigentlich etwas dagegen sprechen den ESXi auf der Intel DC 4801X M.2 installieren, den Rest als Datastore bereistellen und darauf eine bzw mehr (Je nach Bedarf/Platz) VMDK die jeweils als SLOG für Filesysteme in Solaris dienen ?
Klar mag das "Perlen vor die Säue sein" aber abgesehen von den Slog FS hätte ich nichts darauf und der restliche Speicher wäre ungenutzt - der bei der 100 GB Version auch nicht mehr als zu viel ist um damit noch groß was anzufangen.
Und da ESXi auf einem internen Storage läuft, würde es sich nichts mehr vom RAM für seine Scratch Partition klauen - sollte es noch so sein.
Gruß
Lucky
Ich hab da mal wieder ein Problem, bei dem ich nicht weiterkomme und ehrlich gesagt nichts probieren möchte, wenn ich nicht genau weiß was da so passieren kann
In meiner napp-it Pool Ansicht, sehe ich einen degraded Pool. Vermutlich hat sich hier beim Umbau des Servers ein Kabel gelöst und daher ist eine Platte nicht verfügbar. Das werde ich heute Abend mal überprüfen.
Wo ich allerdings keine Idee habe, ist die Meldung:
cannot open 'TEMP': pool I/O is currently suspended
Hier mal der Screenshot dazu:
Anhang anzeigen 487275
Kann es dieselbe Ursache sein? D.h. dass ich aus Versehen ein Kabel gezogen habe? Der TEMP Pool ist nämlich nur ein Stripe von 2 SSDs, d.h. wenn eine weg ist, ist auch der Pool weg. Wäre die obige Fehlermeldung die richtige zu dieser Situation? Falls ja, dann werde ich erstmal heute Abend die Verkabelung prüfen, denn es ist ein wenig eng im Gehäuse mit 8 SSDs und 4 HDDs.