[Sammelthread] ZFS Stammtisch

Hallo,

ich teste gerade das neue FreeNas RC1
ich bin hier aber auf ein Problem gestoßen und komme irgendwie nicht weiter...
Ich möchte meine User anlegen und die dafür vorgesehenen Passwörter sind länger als 9 Zeichen.
Leider kann ich dort aber nichts anderes eingeben...
Kann ich diese Einstellung irgendwo anpassen?

FreeNas.jpg

Vielen Dank Gruß

Rocker
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich möchte gerne von meinem Proxmox-Server auf meinen Fileserver zugreifen. der Fileserver hat ZFS. Da würde sich ja zfs-nfs share anbieten. Kann Proxmox dann auch Snapshots nutzen, oder geht das nur auf dem Fileserver selbst? Oder sollte ich es über ISCSI machen? Es sollen aber auch andere Server/PCs auf ZFS zugreifen (hier klassisch über Samba oder NFS) und hier programme installieren oder Daten ablegen etc pp, somit ist der ZFS-Pool nicht exklusiv für den Proxmox-Server.

Achja, noch eine Frage:
Ich habe hier zwei SMR-Festplatten. Diese sollen eigentlich nur als Datengrab im Mirror dienen. Ist es sinnvoll hier auch ZFS einzusetzen? Wie gesagt, hier greift kaum etwas großartig schreibend zu. hier sollen primär ISO-Dateien und Mediendateien liegen.
 
Zuletzt bearbeitet:
Gibt es eigentlich eine Möglichkeit eine externe Platte mit USB3.0 per ESXi an einen napp-it mit OmniOS weiterzureichen. Ich würde die Platte gerne als ZFS Backup Device verwenden.

Wenn ich einen USB3 Controller in ESXi hiinzufüge, dann kommt eine Warnung, dass das OS dies nicht unterstützt. Aber es wird offenbar doch ein xhci Controller in OmniOS gefunden, allerdings erzeugt dann die in ESXi zugeordnete USB3 Platte einen Fehler im Boot-Screen. (siehe Screenshots)

Gibt es eine andere Lösung? Oder macht das gar keinen Sinn?

Screenshot from 2018-10-23 19-13-15.png

Screenshot from 2018-10-23 19-14-11.png
 
Ich hab das mit einer durchgereichten USB3-PCIe-Karte "gelöst". Funzt unter Solaris 1A: Platte anstöpseln, Pool importieren, Replikation laufen lassen, Pool exportieren, Platte abstöpseln.
 
Prinzipiell funktionieren Pools auf USB Platten. Die Meldung "nicht unterstützt" ist egal, da ESXi hier den Type Solaris 11 (11.2 oder 11.3) auswertet und da gabs noch kein USB3.

Ideal ist natürlich pass-through mit direktem Zugriff. Alternativ USB 2 versuchen oder ein neueres OmniOS (151028 stable steht vor der Tür)
 
Die Meldung "nicht unterstützt" ist egal, da ESXi hier den Type Solaris 11 (11.2 oder 11.3) auswertet und da gabs noch kein USB3.

Gilt das auch für die Meldung in OmniOS: Connecting device on port 1 failed? (siehe Screenshot im letzten Post) Bei USB2 taucht in OmniOS dieselbe Warning auf. Lediglich die in ESXi erscheint nicht.

Vielleicht funktioniert es ja und ich erkenne es nur nicht. Die Platte hat derzeit noch ext4, aber ich hatte erwartet, dass sie, wenn sie als USB3 Disk erkannt wurde, im Napp-It Disks Menü auftauchen sollte. Liege ich da falsch?


Ideal ist natürlich pass-through mit direktem Zugriff. Alternativ USB 2 versuchen oder ein neueres OmniOS (151028 stable steht vor der Tür)

Geht leider nicht, da ein anderern USB Port schon an eine andere VM durchgereicht ist und eine separate USB3 Karte auch schon an meine TVHeadend VM durchgereicht ist. Somit sind die Ressourcen meines Servers so langsam erschöpft.
 
"nicht unterstützt" bezieht sich auf die Fähigkeiten die ESXi von Solaris 11 erwartet.
Die Meldung in OmniOS wohl ist auf eine Inkompatibilität mit dem virtuellen Treiber von ESXi zurückzuführen. Eventuell geht das mit einem neueren ESXi/OmniOS.

Gibt es noch freie Plätze an dem Sata/SAS Kontroller auf den OmniOS zugreifen kann?
Dann könnte man einen einfachen Wechselrahmen für eine Sata Platte nehmen.
 
Die Meldung in OmniOS wohl ist auf eine Inkompatibilität mit dem virtuellen Treiber von ESXi zurückzuführen. Eventuell geht das mit einem neueren ESXi/OmniOS.

Bei ESXi bin ich auf der aktuellsten Version 6.7U1. Bei OmniOS bin ich auf der Version, die mit napp-it AiO kommt. Kann ich die Treiber hier irgendwie updaten?

Gibt es noch freie Plätze an dem Sata/SAS Kontroller auf den OmniOS zugreifen kann?
Dann könnte man einen einfachen Wechselrahmen für eine Sata Platte nehmen.

Ja, es gibt noch einen freien Platz am Broadcom 3008 und zwei freie Plätze am SATA Controller.
Das wäre definitiv eine Option. Vermutlich dann auch deutlich stabiler und performanter, oder?
 
Update von OmniOS auf 151026, siehe
http://www.napp-it.org/doc/downloads/setup_napp-it_os.pdf

Von OmniOS 151026 ist aber bekannt dass es etwas langsamer bei NFS sein soll als 151024
In den nächsten Tagen kommt 151028 stable, ich würde etwas warten (Dann koomt auch ein neues Template)

Sata ist definitiv besser/ stabiler als USB (vor allem am SAS Controller ist Hotplug völlig problemfrei)
 
"nicht unterstützt" bezieht sich auf die Fähigkeiten die ESXi von Solaris 11 erwartet.
Die Meldung in OmniOS wohl ist auf eine Inkompatibilität mit dem virtuellen Treiber von ESXi zurückzuführen. Eventuell geht das mit einem neueren ESXi/OmniOS.

Noch eine kurze Nachfrage hierzu: Ich habe gesehen, das bei meiner napp-it VM die VM Compatibility auf ESXi 5.0 (VM version 8) steht. Hat dies einen Einfluss auf die USB3.0 Unterstützung?
Kann/Soll ich das (gefahrlos) auf 6.5 oder 6.7 updaten?
 
Compatibilität mit neueren ESXi bringt neuere Features. Wenn man die VMs nicht mehr mit einem alten ESXi starten muss, würde ich updaten. Für das konkrete USB Problem erwarte ich aber keinen Unterschied.
 
Warum nutzen eigentlich so viele ESXi und ne VM für ZFS?
Linux KVM und ZoL macht doch weniger Probleme?
 
Kann als ZFS-Einsteiger nur für mich sprechen (und hoffe, nichts falsches von mir zu geben): ESXi ist für mich relativ simpel "klicki-bunti", sofern man keine "Sonderwünsche" hat, auch finde ich es bei ESXi praktisch, wenn man von der banalen Desktop-Virtualisierung kommt (VMware Workstation/Fusion), kann man am PC VMs vorbereiten und testen und diese einfach über LAN auf den ESXi schieben.

(Hier am Ende stand Halbgares, besser löschen, als Fehlinformationen stehen zu lassen)
 
Zuletzt bearbeitet:
Hallo ZFS Profis!

Im Aufbau ist folgender FreeNAS Server mit 10G Anbindung (Hardware Guide von der FreeNAS Seite):

* Supermicro X10SRA mit Xeon E5-2620 v4, 32 MB ECC, in Thermaltake V71 mit Gold 550W Bequiet
* LSI 9207-8i und Chelsio T520-CR
* SAS2 Platten im ZFS und Intel Optane als Cache

Ich habe folgende Frage zum ZFS: Wie leistungsfähig wird das ZFS Raid werden mit dem 6Gb SAS2 Controller? Ich denke für die 10G Netzwerkanbindung sollte es in jedem Fall ausreichen. Der Server wird jetzt mindestens mal 1 oder 2 Jahre mit 10G laufen, aber wie stehts mit dieser Hardware mit 40G oder 100G Anbindung? Hat das jemand am laufen? Was braucht man da im ZFS für Hardware damit es die Netzwerkverbindung nicht ausbremst? Würde das noch ausreichen für 40G?

Der Server ist primär als Storage und Media Server mit NFS gedacht, ich habe nur Linux Maschinen.

Was kann ich für einen Stromverbrauch im Idle erwarten mit z.B. 5 Platten? Soll ich 15K Platten nehmen oder reichen mit dem Cache 7K?

Vielen Dank Euch! Und beste Grüße aus Würzburg!

Daniel
 
Wenn ich es richtig gesehen habe, gibt es mehrere Varianten von ZFS, Oracles ZFS, das nicht mehr weiterentwickelt wird und OpenZFS (FreeNAS & Co.), das gerade im Fokus der Entwicklung steht und gegenüber Oracles ZFS aufholt. ZoL ist dabei eine Variante von OpenZFS (?), das aber Feature-seitig etwas hinterherhinkt (?).

Original ZFS von Solaris wird sehr wohl noch weiterentwickelt und ist aktuell mit Solaris 11.4 seit diesem Sommer bei v.44.
Oracle Solaris ist nach wie vor der schnellste ZFS Server mit bei weitem den meisten Features (u.a. ZFS Verschlüssellung, sequentielles Resilvering, dedup2, vdev remove für alle vdevs, kernelbasiertes SMB3.1 und NFS 3.1) - Ist halt keine freie Software und Oracle, naja.

Gottseidank hatte Sun ZFS und OpenSolaris als OpenSource bereitgestellt. Als Oracle OpenSolaris beendete kam mit Illumos ein freier Solaris Fork mit z.B. OmniOS, OpenIndiana, Nexentastor oder SmartOS als Distributionen.

Da ZFS zwischenzeitlich auf nach Free-BSD und später nach Linux portiert wurde entstand die Open-ZFS Initiative um die ZFS Entwicklung von Illumos, BSD und Linux soweit zu koordinieren dass ZFS Pools austauschbar sind, sofern jeweils die eingesetzte Features unterstützt werden.

- - - Updated - - -

Warum nutzen eigentlich so viele ESXi und ne VM für ZFS?
Linux KVM und ZoL macht doch weniger Probleme?

Am wenigsten Probleme macht ZFS bei Solarish (dafür wurds entwickelt). BSD kommt recht nahe. Da fehlt nur die perfekte Integration von SMB in ZFS mit ntfs artigen ACL und weiterer Dienste wie Comstar oder Crossbow. Bei Linux wirkt ZFS manchmal wie das 5. Rad am Wagen bei dem ein einfaches Update alles abschießen kann und es eh auf jeder Distribution anders ist.

Ansonsten ist ein Full-Feature Storagserver wie FreeNAS (Free-BSD) oder mein napp-it auf Solarish komfortechnisch was ganz anderes als nacktes ZFS. Und einen vergleichbares Produkt für Linux kenne ich nicht.

ESXi + Storage-VM kombiniert dabei das Beste beider Anwendungen
 
Als jemand der mit Linux und ZoL angefangen hat: kein Vergleich zu dem Komfort, Featureset und „Problemlosigkeit“ von Solarish (in meinem Fall Solaris 11.3).

ESXi weil es der m.E. unkomplizierteste Hypervisor für Solaris-Gäste ist, unter den üblichen Rahmenbedingungen nichtmal einen Griff zur Konsole bedarf und beides Enterprise Grade fürs traute Heim bietet. :)
 
Soll ich 15K Platten nehmen oder reichen mit dem Cache 7K?

Kriegst du die 15K geschenkt, oder wie kommt man Ende 2018 auf die Idee?

10GbE tut hervorragend mit schwächerer Hardware, siehe 10G-Thread. Oder 100G, je nach Budget und/oder haben-will-Level. Bei Optane-Cache für nen Medienserver dürfte das ja erheblichen Umfang haben.
 
Das Setup ist Hobby, Learing by Doing und Spass an hohen Bandbreiten. Es ist mein erster Rechner mit einem SAS Setup deshalb frage ich wahrscheinlich so blöd.... :)
Also in Kürze: Bekomme ich die 10Gb Netzwerkverbindung nach allem Tuning mit diesem Setup und 5 7K Platten und Cache im RaidZ ausgelastet, oder brauche ich dafür einen SAS3 Controller?

Die Write Speeds der Optanes im PCI3 sind halt extrem geil, deshalb würde ich die gerne als Cache nehmen, um die 10Gb Verbindung auszulasten.

Könnt iht mir noch kurz was zu SAS erklären... Mein LSI hat jetzt 8 Channel, also 8 Platten. Für die nächsten 8 benutzt man einen zweiten Controller? oder kann man mehr als 8 an einen LSI anschließen?

Vielen Dank für die Hilfe weiterhin!
 
Zuletzt bearbeitet:
Jetzt mag ich nicht unfreundlicher als üblich sein, aber da sitzt wohl mehr Geld als Ahnung. Überschlag das doch mal: Lockere 1000MB/s über 4 Platten (oder wirds ein Z2? Wär empfehlenswert...aber nicht bei der Menge) macht 250 MB/s pro Einheit. Das macht deine Platte mit Glück auf der alleräußersten Spur mit, und danach fällts in sich zusammen. SATA1-2-3 liegt bei 150-300-600 MB/s, SAS bei Dualports bei dem Doppelten. Frage in die Runde, ob wir da überhaupt ein SAS2-Interface brauchen...
Caching schön und gut, aber wenn voll (weils nicht auf Disk weiter geht), dann voll. Zumal du beim Medienserver kaum auf Sync Writes bestehen wirst. Für alle anderen Späße gibts RAM, und der ist trotz aller Rufe immer noch spottbillig. In der umgekehrten Richtung, also von Disk zum Client, nützt dir alles Gecache nur überschaubar viel, weils halt einfach nicht schneller von Platte nach kommt.

Dein Problem heißt nicht "hat mein dicker Xeon genug Power" (ja, hatter, siehe mein System), dein Problem sind enorm glatte Teller mit Flugrost, von denen du entweder nicht genug hast um 10GbE dicht zu machen, oder die du halt (aus Kapazitäts- und daher Kostengründen?) nicht gegen vielfach schnellere SSDs tauschen willst. Aber fang halt mal mit dem System an und taste dich an das Wunschlevel an Performance ran. Auch sagen wir 600MB/s, d.h. SATA3-Speed übers Netzwerk, sind schonmal ne feine Sache. Wenn dann tatsächlich ZFS die Bremse sein sollte, gehts gern hier weiter.

Expander würd ich übrigens nur für ein reines SAS-System empfehlen (und auch nur, wenn das Board nicht mehr PCIe hergibt). Da du SAS-Platten haben willst wär das okay, zieht aber alle angeschlossenen Platten zusammen auf die Linkgeschwindigkeit zwischen HBA und Expander runter, für 10GbE also u.U. dämlich. Zweiter Controller wär die Wahl.
 
Man kann die 8 Slots z.B. mittels sogenannter „Expander“ erweitern. Diese Expander gibt es in unterschiedlichen Formen, z.B. als Steckkarten für den PCIe-Slot, Stand-alone Platine (wie beim Mainserver in meiner Signatur) oder auch als „Expanderbackplane“, wo alles nötige direkt auf der Platine enthalten ist, die die Laufwerksschächte eines Gehäuses versorgt (z.B. bei Supermicro Rack-Gehäusen). Diese kann man sogar „stapeln“ so dass theoretisch bisweilen über 1000 HDDs an einem popeligen Controller betrieben werden könnten. Ob das noch Sinn macht, steht aber auf einem anderen Blatt... ;)

Normalerweise und wenn man den PCIe-Slot noch hat, ist es aber günstiger und unkomplizierter, einfach einen zweiten Controller dazu zu stecken.
 
Die Raidlevel kosten kaum Performance, also einfach rechnen. Als ganz groben Ansatz: Controller 2x 4 SAS2 = 48GBit/s = 6000MB/s. Eine Moderne 7,2K Platte ~220MB/s, 10K ~200~250MB/s, 15K ~280MB/s. Gehen dir am Controller die Ports aus hängst du einen Expander dran, der macht aus den 4 dann z.b. 24
Demgegenüber steht dann das Netzwerk, 100G = 12.500MB/s, 40G = 5000MB/s und 10G = 1250MB/s. Macht verdammt viele Platten für 100G/40G, 10G dagegen soweit keine all zu große Hürde.
 
Zuletzt bearbeitet:
Ok, vielen Dank Männer, jetzt komm ich langsam auf den Trichter... Deshalb bin ich ja auch im ZFS Thread. Also der SAS2 Controller reicht bis zum 50Gb Netzwerk. Das Problem sind die Platten und da zaubert dann Das ZFS die Bandbreite. Kurz zum Abschluß, wie viele Platten brauche ich um das 10Gb Netzwerk auszulasten und im Vergleich wie viele SSDs? Der Kollege calomel.org gibt bei einem RaidZ1 800MB/s w und 1800MB/s r an, also mit 3 oder 5 SSDs, das reicht also um das 10Gb Netzwerk auszulasten.

Bei den spinning Drives braucht er, um annähernd an diese Leistung zu kommen mind. ein striped RaidZ1, also 6 oder 10 Platten. Wären dann nach seinen Angaben 675MB/s w und 1000MB/s r.

Richtig gerechnet?

Der Rest ist jetzt eine Kosten Frage... Welches Setup habt ihr mit dem ihr eine 10Gb Netzwerkverbindung auslasten könnt?

Vielleicht wäre es sinnvoll im ersten Ausbauschritt des Servers 3x SAS SSD im RaidZ und 5x SAS 7K im RaidZ zu nehmen und die Pools je nach Verwendung zu nutzen. Dann kann man im nächsten Schritt mit einem zweiten Controller das SSD RaidZ vergrößern und das spinning Drive RaidZ stripen. Gute Idee? :)

@besterino: Bekommst du mit deinem Spinning Drive Setup die 10Gb Verbindung ausgelastet oder nur mit den SSDs? Wie ist dein ZFS Setup?

Vielen Dank!!! (Und ja, ich hab noch nicht so viel Ahnung von ZFS und SAS... aber es wird, es wird...)

PS: Hier noch zur allgemeinen Erheiterung zwei Bilder vom Shopping heute in Guangzhou... hoffentlich laufen die Dinger... :)))

ownCloud
ownCloud
 
Zuletzt bearbeitet:
@daniel712 mach dafür besser einen separaten Thread auf und überleg dir mal wieviel Speicherplatz du nachher Netto haben willst, wieviel Geld du dafür bereit bist zu zahlen usw.
10G voll kriegen ist auch erstmal zu pauschal gesagt ohne dein ungefähres IO-Pattern zu wissen, was läuft da drauf ? Datenbanken mit vielen Random I/Os oder nur "stupider" Filer mit SMB/NFS, bisschen VM Storage per iSCSI etc. ?
Bevor ich da groß in Allflash investieren würde, pack das Geld erstmal in mehr RAM, das bringt ZFS mehr.
 
Das ist ein Storage Server (NFS), mein bisheriges NAS hat 5x4TB. Neubau Thread kommt... danke für den RAM Tipp!
 
Ich nutze ZoL und hatte noch nie Probleme. Mit Proxmox auch schon in der gui einrichtbar.
 
Die ZFS Gui ersetzt gerade mal mit Müh und Not den Befehl "zpool create poolname disks"
Proxmox ZFS Pool GUI | ServeTheHome and ServeThe.Biz Forums

Das ist viel weniger als 1% des Funktionsumfangs den eine ausgewachsene Storage Appliance bietet. Es ist zwar schon so dass vollwertiges Storage nicht der Einsatzzweck von Proxmox ist (genausowenig wie der von ESXi). Mit ESXi läßt sich High-End Virtualisierer und High-End Storage Appliance aber sehr gut kombinieren da ESXi deutlich besseren Support für Unix (Free-BSD, OSX, Solarish) anbietet.

Eine Storage Appliance wie FreeNAS/FreeBSD oder napp-it/Solarish unter Proxmox ist derzeit keine Alternative.
 
Eine Storage Appliance wie FreeNAS/FreeBSD oder napp-it/Solarish unter Proxmox ist derzeit keine Alternative.
Inwiefern bietet ESXi besseren Support für Unix als es ein qemuKVM kann?
Und naja, Enterprise Storage und alles über die Klickie-Buntie GUI? Ist nicht wirklich komfortabler, als über ein CLI, ist aber nur meine Meinung.
Und ich mein, nappit läuft doch auch unter Linux mit ZoL, dann braucht man keine Virtualisierung des Storageservices.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh