Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Erklärt aber nicht wieso es nicht geht weil da steht Folder und hab einen angelegt. Was funktioniert denn jetzt und was nicht?
-disk errors:
pool: rpool
state: ONLINE
scan: scrub repaired 0 in 1m12s with 0 errors on Sun Jan 31 22:01:14 2021
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c3t0d0 ONLINE 0 0 0
errors: No known data errors
pool: storage
state: OFFLINE
scan: scrub repaired 0 in 10h19m with 0 errors on Tue Feb 2 13:20:42 2021
config:
NAME STATE READ WRITE CKSUM
storage OFFLINE 0 0 0
mirror-0 OFFLINE 0 0 0
c0t5000CCA291E18BABd0 ONLINE 0 0 0
c0t5000CCA291E15EC2d0 ONLINE 0 0 0
logs
c3t1d0 ONLINE 0 0 0
errors: No known data errors
Die Pool Werte sind ja genial. 360 MB/s sync und 1200 MB/s ohne sync bei dreifach Platten-Mirror. Auch die read Werte sind extrem gut.
Solaris mit Original ZFS ist oft der schnelleste ZFS Server, 1200 MB/s bedeutet aber dass die schwächste aller Platten 400 MB/s schreibend kann. Da hilft der ZFS RAM Schreibcache sicher mit, so schnell ist keine Ironwolf Platte.
Wichtiger ist aber: Die Änderung ist Clientseitig. Da kann man serverseits nichts optimieren. Eventuell nach einem neueren Windows Treiber suchen oder an den Treiber Einstellungen drehen. Int Throttelling=0ff ist z.B. bei Intel nics eine besonders wichtige Einstellung für high Performance.
Für den Fall das es errforderlich wird, wie kann man am leichtesten das SLOG Device entfernen? Bzw. was wäre zu bedenken? So kann ich mir das schon mal dokumentieren.
Naja wenn du Performance brauchst (4k Videoschnitt, Bildbearbeitung) hat man die Daten gerne auf einer nvme liegenLokal braucht man [...] keine Daten.
Naja wenn du Performance brauchst (4k Videoschnitt, Bildbearbeitung) hat man die Daten gerne auf einer nvme liegen
Muss dazu gestehen das ich kein ZFS nutze, dachte nur ihr habt hier gute Ideen dazu.
Dann nehm ich mal mein Anliegen und ziehe davon
SATA SSDs, OmniOS r36, windows 10, intel NIC: Kopieren mit Windows Explorer zeigt 110-115MB/s, das dürfte nahe an GBit liegen?Selbst bei SSDs habe ich Gbit noch nie ausgelastet gesehen im Zusammenhang mit ZFS.
Ich habe mal einen anderen Client genommen. Dort scheint es jetzt zu klappen, schließe den Fehler auf Serverseite dann mal aus.
Kopiere grade von einem Dataset daten in ein anderes vom selben Pool 4x 14TB RaidZ2 *kein SMR, beide verschlüsselt.
Geschwindigkeit ist 30-40MB/s, wobei eher 30, mit 16GB Ram und QuadCore 4x3,4Ghz und AES-NI. Kommt mir irgendwie etwas sehr langsam vor, auch wenn er Lesen und Schreiben von den selben Platten muss.
Beim reinen Lesen auf einen Client lande ich auch maximal so um die 60-80MB/s, trotz dieser Hardware. Dachte mit dieser Hardware wäre es endlich mal möglich einen Gbit Link auszulasten...
Selbst bei SSDs habe ich Gbit noch nie ausgelastet gesehen im Zusammenhang mit ZFS. Ich weiß nicht ob ich da einfach "Pech" habe? Fragmentierung des Pools steht auch bei 0%
Ein Scrub liefert aber zumindest "gescheite" Readwerte. iperf kommt auf 800-900mbit. Eine direkt Verbindung zwischen Client und Server ändert auch nichts am Ergebnis.
Disk IO zeigt bei den einzelnen Festplatten auch %b unter 20 an.
Werde ich mal machen. Allerdings hab ich schon wieder ein weiteres Problem. Nach einem längeren Kopiervorgang berühigt sich der Pool gar nicht mehr, auch wenn dieser schon seit Stunden abgeschlossen ist. Die Platten rattern weiterhin vor sich hin wie bei irgendwelchen Random Zugriffen. Hab selbst SMB deaktiviert und sogar das Netzwerkkabel getrennt, aber der Pool ist weiterhin busy.20% busy zeigt an dass der Pool nicht ausgelastet ist und mehr könnte.
Ob das Problem eher clientseitig (Windows, Lan) oder serverseits (Verschlüssellung) liegt, kann man mit zwei Test ermitteln
1. Pool > Benchmark laufen lassen, mit und ohne Verschlüssellung
Der Test läuft mit und ohne sync. Sync Werte zeigen gut die io Leistung, sequentiell Schreiben die allgemeine Leistung
2. Lokal Midnight Commander starten und ein großes File z.B. video oder OmniOS iso von einem (verschlüsselten) Verzeichnis in ein anderes kopieren. Dabei wird die Performance beim lokalen Kopieren gezeigt. Will man Cache Effekte ausschließen, vor dem Test rebooten.
Die Fragmentierung ist bei 1% laut properties. Da ich aber im Grunde nur große Files rüber kopiert habe und 1M recordsize fällt es mir schwer hier die Fragmentierung als Ursache zu sehen. Obendrein sind die Schreibwerte ja weiterhin hoch. Es ist auch nicht so dass der pool "alt" ist.Ein Füllstand von 89% erklärt eine niedrigere Performance da dann die Fragmentierung stark zunimmt.
Ich beantworte meine Frage mal selbst, habe es doch gefunden:Moin, es gab hier doch mal eine Diskussion um die optimale Anzahl an HDD im Raidz2. Finde ich nicht mehr. Überlege gerade ob 6x12 TB im Raidz2 ok ist, oder ob 7x12TB Vorteile bringt.
Ich beantworte meine Frage mal selbst, habe es doch gefunden:
4, 6,10 sind wohl die optimalen Anzahlen an HDD für Raidz2
Und bei kleineren Blöcken müssen sie mitunter aber häufiger springen. So oder so würde das maximal wenn überhaupt niedrigere Leistung erklären, aber nicht wieso ich random Zugriffe im völligen Idle habe... Es gibt auch nicht einen Job, da ist einfach nichts. Nur omnios installiert plus nappit und user angelegt und daten rüber kopiert..
Und wie gesagt der Pool wurde quasi in eins mit großen Dateien gefüllt. Wo soll die fragmentierung herkommen wenn zfs die Daten nicht absichtlich grad so verteilt dass hohe fragmentierung entsteht. Wie gesagt das ist kein Pool der jetzt 5Jahre alt ist und wo zig Dinge im Verlauf der Zeit gelöscht, neuerstellt oder verändert wurden.
So oder so war die Performance bei 50% jetzt auch einfach nicht besser.
Unter iostat habe ich über pool2 ein Gerät mit dem Namen ".FDF5d0" weiß aber nichts damit anzufangen.
Mit einer Auslastung von 61% ist von den Zugriffen nun nichts mehr zu hören. Die Fragmentierung steht jetzt übrigens wieder auf 0%. Der Zusammenhang ist mir aber weiterhin unklar. Also wird der Pool mit höherem Füllstand auch LAUTER ?
An der Performance hat sich allerdings nicht geändert, die Lesewerte sind immer noch unter den Schreibwerten.
Ramcache: Ich habe 16GB Ram. Wenn dies die Ursache für hohe Schreibwerte ist könnte ich auch einfach mal eine 50 oder 90GB Datei übertragen. Die Geschwindigkeit müsste dann ja wenn der Ram voll ist einbrechen...
Hake hier mal kurz ein:Ist eigentlich überholt. Wenn man was man häufig macht LZ4 aktiviert dann gilt das gar nicht mehr weil die Blockgröße nach Komprimierung variabel ist. Ohne compress hat man etwas mehr "Datenverschnitt" wenn die Anzahl der Datenplatten nicht im Raster 2,4,816 liegt.
Hake hier mal kurz ein:
Also würdest du empfehlen lz4 zu aktivieren? Wird dies dann auch auf bereits geschriebene Daten angewandt oder nur auf neu geschriebene?