[Sammelthread] ZFS Stammtisch

Hier sind ja einige ZFS-Nutzer. Kennt jemand ein bzw. kann ein USB2/3 Gehäuse empfehlen wo man 2x2,5" HDDs einbauen kann, welche einzelnt ansteuerbar sind sodass man sie als Mirror Pool konfigurieren kann? Hätte so ein Teil gerne als Backupmedium.
Die "flachen" 9mm HDDs sind vollkommen ausreichend wenn die reingehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kenne nur sowas wie Raidon ST2760-2S-S2 . Müsste man dann in ein externes Gehäuse pflanzen.

EDIT: Problem sind dann die zwei SATA Anschlüsse auf USB zu bekommen.
 
Zuletzt bearbeitet:
Wo hab ich was von 2mal USB geschrieben? 2mal Sata schrieb ich und einzelnt ansteuerbar
 
Zuletzt bearbeitet:
Was du dir vorstellst, habe ich noch nie gesehen..Ein USB extern und zwei SATA intern gibst meist nur als RAID in 3,5 da kann man dann als Single JBOD auch konfigurieren. Aber sowas wirst du sicherlich nicht wollen...

- - - Updated - - -

Oha ich bin doch fündig geworden: RAIDON:SafeTANK-GR2660-B3

Ob das Single kann, keine Ahnung....

- - - Updated - - -

Scheint genau das zu sein, was du suchst:

"In this mode, you can install two disks that have different volumes and use them independently.There is no RAID configuration and without special safety or speed differences. You can also use this mode in apply with other RAIDON modules."
 
Ich kenne zwar solche Dinger, aber die sind weder klein noch machen sie einen guten Eindruck. Das Gerät von automatenraum gefällt mir richtig richtig gut. Hätte ich auch nur den kleinsten Anwendungsfall dafür, hätte ich das sofort bestellt :)
 
Es stellt sich die Frage, ob es gut wäre, den guest User standardmäßig mit napp-it anzulegen um zukünftige Verwirrung anderer zu vermeiden. Mit Shell auf /bin/false und ungültigem Passwort sollte das ja kein Problem sein.

Danke für die Rückmeldungen
Ich werde den wget installer anpassen.
 
Habe einen Microserver G7. Alle Festplatten laufen im AHCI Mode.

Habe in OmniOS per CLI auch schon "set sata:sata_auto_online=1" gesetzt (+reboot) allerdings taucht eine über den esata Anschluss angeschlossene Festplatte nicht auf, die ich im hochgefahrenden Zustand angesteckt habe.
Weiß jemand woran es liegt?
 
Zuletzt bearbeitet:
Wurde set sata:sata_auto_online=1
in der /etc/system eingetragen?
 
Mit dem Eintrag in der /etc/system funktioniert es. Danke

ssdpool/zones/jdownloader ssdpool/zones/jdownloader@2018.03.05.17.58.50_fresh Mon Mar 05 17:58 2018 81K - 228M delete
ssdpool/zones/jdownloader ssdpool/zones/jdownloader@final Tue Feb 14 17:15 2017 78K - 228M delete
ssdpool/zones/pyload-0.49 ssdpool/zones/pyload-0.49@2018.01.19.11.59.56_preinstall Fri Jan 19 11:59 2018 80.5K - 228M delete
ssdpool/zones/pyload-0.49 ssdpool/zones/pyload-0.49@final Tue Feb 14 17:15 2017 77K - 228M delete

Woher kommen die Snapshots mit dem Namen "final"? bzw. warum ist das Datum falsch? Das Datum würde genau passen zum Datum des lx image/container. Ist das so gewollt?

Mediatomb befindet sich bei mir auch im Menü unter LXZones. Gehört doch da nich hin oder?;)
 
Zuletzt bearbeitet:
Ist hier vielleicht besser aufgehoben als im Gen8 Thread.

ich würde an meinem Gen8 gerne 4 x 3TB WD RED an eine Openmediavault VM durchreichen mittels RDM. Passthrough unterstützt meine CPU nicht.

Gibt es Erfahrungswerte für ESX 6.5 + RDM + ZFS (über Openmediavault)?
 
Seite 11 - best stability with napp-it and realtime html-5 graphs gives a Chrome browser. Evtl ändern in chromium based Browser ?

Seite 8 - Bei 3. ZFS datapools fehlt noch ein Leerschritt vom letzen vorrangegangenen Satz.
 
Zuletzt bearbeitet:
Da doch immer wieder die gleichen ZFS Fragen kommen, habe ich meine Meinung dazu mal zusammengefasst in
http://napp-it.org/doc/downloads/zfs_design_principles.pdf

Anregungen, Typofehler und Ergänzungen nehme ich gerne entgegen.
(Ist in Englisch, hoffentlich verständlich genug geschrieben)

Das Rechte bearbeiten über Windows per SMB als root funktioniert meine ich nicht wenn man SMB1 deaktiviert hat in Windows (wird ja oft zu geraten). Gibt dann ne Fehlermeldung falls man Rechte für einen neuen Benutzer setzen möchte, sprich neuen ACL Eintrag machen will. Bestehende ACLs verändern geht hingegen meine ich.

In einer anderen PDF auf deiner Seite hatte ich mal was von ssd und overprovisioning gelesen. Ist das nicht mittlerweile hinfällig wenn man Trim hat weitesgehend? Unter Windows hat man es "früher" ja auch mal empfohlen, heute heißt es ist überflüssig seit Trim.
 
Zuletzt bearbeitet:
Rechte setzen als root ist das einfachste Verfahren.
Wenn das nicht geht z.B. auch wegen Windows Home gibts ja andere Optionen (CLI, ACL Ext)

Overprovisioning hilft der internen Garbage Collection die Dauer-Schreibraten hoch zu halten.
Trim bremst unter Dauerlast eher. Insgesamt ist das aber tatsächlich obsolet. Brauchen tut man
das primär für ein Slog und da gibts jetzt Optane. Das braucht kein Trim oder Garbage Collection
und bricht unter Dauer-Schreiblast auch nicht ein.
 
Gibt es beim Arbeitsspeicher für den SMB-Transfer zu/von Solaris+nappit eine Art "magische Grenze"? Ich habe Dedup nicht aktiviert.
Zuerst hatte ich durchgängig ca 920MBit/s.
Gestern ständig Einbrüche und gemittelt eher um die 400MBit/s. Ging immer wieder auf 0 runter, dann wieder hoch usw.
Dachte erst, die Platte wird voll und die inneren Sektoren sind ja etwas langsamer. Test auf SSD war aber ähnlich.

Dann über weitere Änderungen nachgedacht und dran erinnert, dass ich den unter ESXi zugewiesenen Speicher von 6144MB auf 4096MB reduziert hatte. Also angehalten, wieder auf 6144MB erhöht.
Seitdem rennt der Transfer auf HDD wieder wie er soll mit ca 920Mbit/s. Und das auch dauerhaft bei einem großen Testfile mit 30GB.
 
Hier kommt vermutlich der Solaris RAM-Schreibcache ins Spiel.
Der lädt bis zu 5s (wenn genug RAM da) alles ins Cache und schreibt es dann als ein großes sequentielles Commit (OmniOS macht das anders, da ist der Cache nicht zeitbegrenzt sondern Größenbegrenzt, z.B. 10%/ max 4GB RAM). Weniger RAM kann da einen deutlchen Unterschied machen.

Das "Pumpen"" der Schreibraten ist das Ergebnis des Cachings.
Unter optimalen Bedingungen ist die Netzrate kleiner als das was der Cache aufnimmt und wegschreibt. Dann erhält man konstante Netzraten und vermeidet langsame kleine Schreib-Aktionen.
 
Wie kann OmniOS eigentlich unterscheiden ob ein Datenträger entfernt wurde oder ob er wegen einem Hardwarefehler nicht erreichbar ist?

Normalerweise steht bei einem Ausfall dort immer "unavaible", habe jetzt aber mal von Hand während des Betriebs eine SSD entfernt aus einem Mirror pool, und es steht dass es vom Admin entfernt wurde.
Durch die unterschiedlich langen Kontakte der SATA Connectoren oder wie wird der unterschied erkannt.
Wenn man mit entfernten Platte bootet steht dort auch unavaible und nicht "removed".
 
Vermutlich wird der Treiber einfach ein mechanisches komplettes disconnect erkennen können.
 
Sync ist eine Eigenschaft eines ZFS Dateisystems (ein zvol ist auch ein Dateisystem. Nutzt man das für iSCSI kann man sync entweder als Dateisystemeigenschaft oder per writebackcache=disabled setzen sofern sync=default ist)

Ob Dateisysteme geschachtelt sind oder nicht ist unabhängig davon. Bei geschachtelten kann man lediglich via Vererbung etwas vorgeben und dann das optional in einem Kind-Dateisystem überschreiben.
 
Zuletzt bearbeitet:
Ich habe ein Problem mit napp-it:

wollte mir mal die ACL Extensions zum testen anschauen also den 2 Tage eval Key angefordert aber napp-it sagt mit beim klick auf add user - das mir die Lizenz dafür fehlt und ich doch die 2 Tage eval Version beantragen soll. Dachte ich mir okay alte installation vielleicht ist da was verstellt also ich habe ich eine neue vm appliance aufgesetzt. die ist ja die ersten 30 Tage eine Pro Version.

Gleiches Problem auch hier:

Change property RaidZ3Pool-16x-2TB-Drives/kodi/: acl_add_local_user

You can set this via CLI or in single cases you can request a two day evalkey
to enable this function or request a quotation for a Pro license

You need the ACL extensions to use this function.
Reset ACL to everyone@ is a free option from this extension

Also auch unter der neuen Appliance nochmal den eval key beantragt - aktiviert aber nein gleiches Spiel. Ist die Extension kaputt oder kann man die einfach nicht testen ?


Gruß
Majere
 
Okay Problem gelöst:

Scheint ein Bug in der 1801 zu sein. Die 1712 läuft problemlos.
 
Ja, kann sein. Mir ist auch aufgefallen, dass nach Neuinstallation ein Valid Date von 2012 drin stand. Schob das aber auf meine Solarisexperimente.
Welches Betriebssystem nutzt du?
 
Moinsens,

ich habe seit einigen Tagen das Problem das Gigabit Netzwerk nicht mehr ausgelastet wird, es hat vorher immer 110 MB/s auf meine Windoof PCs geliefert, jetzt sind es gemittelt 20MB/s oder auch mal knapp 40MB/s und das kommt wie eine Sägezahn, 2s Verkehr, 2s Pause.

Zuerst dachte ich das vielleicht Kaspersky Free amok läuft und hab das mal runtergeworfen, ebenso Acronis (sehr unwahrscheinlich, aber egal), es gab aber keine Verbesserung. Die Jumbo-Option geht Problemlos, mit ping getestet, keine Fragmentierung bei 9016 vom Windoof PC aus.
Letzte Woche eine Festplatte gewechselt, resilver lief mit bis zu 1.6G/s

Dann hab ich jetzt mal iperf probiert:

Connecting to host 192.168.178.2, port 5201
[ 4] local 192.168.178.4 port 36019 connected to 192.168.178.2 port 5201
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-1.00 sec 38.9 MBytes 326 Mbits/sec
[ 4] 1.00-2.00 sec 80.4 MBytes 675 Mbits/sec
[ 4] 2.00-3.00 sec 0.00 Bytes 0.00 bits/sec
[ 4] 3.00-4.00 sec 34.4 MBytes 288 Mbits/sec
[ 4] 4.00-5.00 sec 80.0 MBytes 671 Mbits/sec
[ 4] 5.00-6.00 sec 0.00 Bytes 0.00 bits/sec
[ 4] 6.00-7.00 sec 32.5 MBytes 272 Mbits/sec
[ 4] 7.00-8.00 sec 79.2 MBytes 665 Mbits/sec
[ 4] 8.00-9.00 sec 0.00 Bytes 0.00 bits/sec
[ 4] 9.00-10.00 sec 34.4 MBytes 288 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-10.00 sec 380 MBytes 319 Mbits/sec sender
[ 4] 0.00-10.00 sec 380 MBytes 319 Mbits/sec receiver

iperf Done.

number of streams: 1

System ist ein Supermicro X11SSH-CTF (mit 10G NICs) mit 64GB ECC und einem Avago SAS 9305-16i HBA in einem SAS 12G Gehäuse mit 24x 4TB NAS SATA Platten, OmniOS v11 r151024, 18.03 Pro.

Wie gesagt, lief mit voller Geschwindigkeit bis vor kurzem ... die einzige Änderung am NAS war das ich nach Ablauf des Testkeys meine alten gewechselten Keys (mit der Machine-ID) eingetragen habe und der Wechsel auf die 18.03 Pro.
 
Zuletzt bearbeitet:
Die Performance schwankt extrem.

Ich würde als erstes mal die Kabel tauschen.
Am besten per cross-over testweise direkt verbinden

Dann Jumbo überall mal deaktivieren
und bei Windows in den Nic Einstellungen Int throttelling auch deaktivieren.

Der napp-it Key ändert nichts am System
 
Ich habe zwei 8TB Platten, die würde ich gerne als Mirror konfigurieren.
Nun habe ich aber einen 8TB Basic Pool mit einer Platte angelegt, die Daten von der anderen 8TB Platte drauf kopiert und nun soll diese zweite Platte ein Mirror der ersten werden.
Hat jemand einen Tipp, wie ich das bewerkstellige? Über die Web GUI scheint es nicht zu funktionieren, oder? Wenn ich Extend Pool wähle, dann die neue Platte auswähle und auf Mirror schalte, beschwert er sich, dass ein Mirror mindestens zwei Platten benötigt.
 
Hab das mal mit meinem rpool gemacht, der Befehl den du suchst ist: zpool attach POOLNAME DISK1 DISK2

Was hab ich damals gemacht:
1. Im laufenden system rausfinden, welche die aktuelle rpool-disk ist: zpool status rpool
Bei mir war c2t1d0 die alte, c2t0d0 die neue Disk. Dann herunterfahren.
2. freie Disk in freien SATA-Anschluss stöpseln und normal booten.
3. zpool attach rpool c2t1d0 c2t0d0
warten bis Resilver durch ist (prüfen zpool status rpool)
4. zpool detach rpool c2t1d0, Herunterfahren.
(4a. auf Wunsch, wenn die neue Disk größer ist ggf. noch: zpool set autoexpand=on rpool (hab ich aber nicht))
5. Alte Disk rausnehmen, neue Disk am physischen Platz der alten anstöpseln.
6. Bootet automatisch von neuer Disk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh