[Sammelthread] ZFS Stammtisch

zfs-fuse? die performance dürfte eher schlecht sein. da alle operationen durch den user space müssen. dann doch lieber nexenta nehmen. solaris kernel mit ubuntu userland
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also das was ich gehört hab, ist schonmal sehr interessant.
Ich würde aber gerne wissen ob ZFS auch verschlüsselung alá AES und FTP unterstützt, da ich hier einen server stehen hab der vorwiegig für diese sachen genutzt werden soll
 
zfs-fuse? die performance dürfte eher schlecht sein. da alle operationen durch den user space müssen. dann doch lieber nexenta nehmen. solaris kernel mit ubuntu userland

HeY ,
das Klingt Interessant , haste dazu ne Anleitung wies geht oder wie ich den Kernel änder ? Man könnte doch auch eine Install Version davon bauen oder ?

Denn mit APT kenn ich mich ganz gut aus und so lassen sich einfach Programme installieren ohne suchen usw ;)
 
HeY ,
das Klingt Interessant , haste dazu ne Anleitung wies geht oder wie ich den Kernel änder ? Man könnte doch auch eine Install Version davon bauen oder ?

Denn mit APT kenn ich mich ganz gut aus und so lassen sich einfach Programme installieren ohne suchen usw ;)
nexenta findest du unter : http://www.nexenta.org/os
ein laufendes ubuntu auf nexenta umstellen, dürfte eher nicht gehen
 
ZFS ist aber mehr für serverseitige Lösungen gedacht nicht?

Wenn nicht, dann würde ich es, sobald Kunbuntu das Filesystem besitzt, ebenfalls installieren. :)

MFG
 
ubuntu, wird es default nie anbieten, solange sun die lizenz von zfs beibehält. wovon ich derzeit ausgehen würde.
 
Da wär ich mir net so sicher, denn ZFS würd ich als "Killerapplikation" für solaris ansehen.
 
Kann man hier über ZFS (opensolaris) als Storage Server weiterplaudern oder gibts dafür ein eigenes Thema?

Mein eigentlicher Plan oder besser gesagt Versuch ist ja eventuell mein openfiler ISCSI Storage gegen ein Opensolaris ZFS ISCSI Storage auszutauschen.
 
Kann man hier über ZFS (opensolaris) als Storage Server weiterplaudern oder gibts dafür ein eigenes Thema?

Mein eigentlicher Plan oder besser gesagt Versuch ist ja eventuell mein openfiler ISCSI Storage gegen ein Opensolaris ZFS ISCSI Storage auszutauschen.

Ich denke mal, das ist hier der richtige Thread. in diesem Forum werden 99% der User vermutlich nicht einmal Wissen was hinter ZFS steckt.

Zu deiner Frage:

Ja ist mit Solaris 10 und openSolaris ziemlich einfach möglich.
Wenn du bereits eine Solaris Installation mit ZFS pool usw. hast brauchst du nur diese Schritte ausführen:

http://docs.sun.com/app/docs/doc/819-5461/gechv?a=view

Und schon haste dein ZFS als iSCSI Target. Funktioniert auch um z.B. einen ESX Server Storage per iSCSI zur Verfügung zu stellen.
 
Beruflich nutze ich ZFS im Storagebereich mit Solaris 10.
u.a. beim Disk to Disk Backup in einer EMC NetWorker Umgebung, wo TB an Daten gelagert werden.
Natürlich äußerst platzsparend durch compression=gzip.

Angebunden ist der Storage per Fibre Channel.
Die Unixclients kommen per NFS, VMWare per iSCSI und Windows Clients per SMB rein.

Zuhause läuft es dann als "mini" Storage im VMware Server. :bigok:
 
Zuletzt bearbeitet:
Beruflich nutze ich ZFS im Storagebereich mit OpenSolaris ein.
u.a. beim Disk to Disk Backup in einer EMC NetWorker Umgebung, wo TB an Daten gelagert werden.
Natürlich äußerst platzsparend durch compression=gzip.

Angebunden ist der Storage per Fibre Channel.
Die Unixclients kommen per NFS, VMWare per iSCSI und Windows Clients per SMB rein.

Zuhause läuft es dann als "mini" Storage im VMware Server. :bigok:

Setzt ihr "opensolaris" die free Variante auf euren Produktivservern ein???

Sehr interessant. Wie macht ihr das mit den Security Updates usw.?
 
Setzt ihr "opensolaris" die free Variante auf euren Produktivservern ein???

Sehr interessant. Wie macht ihr das mit den Security Updates usw.?

In der Produktivumgebung ist Solaris 10 im einsatz, hätte das vielleicht etwas anders schreiben sollen.

Also, OpenSolaris zuhause und Solaris 10 im Beruf. ;)
 
Mal den Thread aus der Versenkung holen.
Wer setzt jetzt noch ZFS ein?

Ich bin heute über NexentaStor gestolpert und überlege wie ich mir eine vernünfutige Storage damit basteln könnte.

Wie sieht die Kombi NexentaStor/Dell Perc aus? Macht das Sinn?

LG
 
Werde mir mein NAS damit aufbauen, leider hab ich noch keine Platten...
 
Zotac H55, i3 530 und aktuell leider zum testen nur 2GB Ram. Geplant ist aber ein günstiges 8GB Kit (für Write Precaching).

System sollte eig ne 30er SSD sein (OS+ZIL?). Bin mir da noch unschlüssig ob 8GB Ram nicht für meine Bedürfnisse super ausreicht. (Und im Hintergrund noch eine VirtualBox o.ä. für Spielereien)

Anbindungsmäßig will ich eig ein Raid-Z1 auf 3x1,5TB Platten machen... Aber Plattenmäßig bin ich da noch auf keinem grünen Pfad angekommen. (Hatte 3x1,5TB F2 Eco bei hwv geordert und mussten Retoure wegen OEM Ware :( )
 
Ich werde für mein neues Storage Projekt auch ZFS einsetzen.
Bisher will ich auf Solaris 11 Express warten.
Bin aber noch am überlegen vielleicht doch auf BSD zu setzen.
(Aber die performance von BSD 8.1 soll im Vergleich zu Solaris Unterirdisch sein.
Hardware wird nen Phenom X6 + 8-12Gb Ram sein.
 
Hatte auch schon überlegt auf OpenSolaris als letzte Developerbuild zu setzen. Oder gleich auf Illumos, aber da will ich erstmal die Wogen geglättet sehen ;)
 
Yup, genau meine Denke!
Da mein Projekt sowieso erst Anfang 2011 starten soll...
Bis dahin Warte ich und beobachte.
(aber Solaris 11 wird nativen Crypto support auf Volume Basis haben *Rrrrrrrr*)

Ps Hier mal nen Blog mit ner Menge Benchmarks zum Thema
 
Zuletzt bearbeitet:
So lange kann ich leider net warten.
Brauch unbedingt was für meine ESX Maschinen. :(

Werde dann jetzt mal Nexentastor ausprobieren.
 
währe schön wenn du hier dann hier von
deinen Erfahrungen berichten könntest.

Was nexentastor angeht solltest du Napp-It probieren.
 
Zuletzt bearbeitet:
Wer hat Nexenta denn effektiv im Einsatz? Leider ist die Hilfe im Netz eher rar gesäht.

Hab mich jetzt in nem Tag mal damit gespielt. Bin aktuell noch am abwägen ob NFS, CIFS oder iSCSI. Hab alles drei recht gut ans laufen gekriegt, iSCSI Einbindung (erstmal ohne AUTH) ging im Windows 7 super easy.

Hatte erst etwas Probleme mit dem Powermanagement, aber denke das geht jetzt. Nur leider schaff ich es nicht die Platten in den Standby zu schicken. Auch würden mich Temperaturen der CPU/NB interessieren (da das Q08B doch etwas eng ist ;) ). Hat da einer Rat?
Leider hab ich auch noch keine Lösung für Standby/Suspend/Hibernate gefunden. :(

@ SNUK: Hab leider grad nur nen 100MBit Switch da, hole morgen meinen 24er HP Gigabit - dann mach ich mal paar Kopiertests und schau wieviel Leistung die CPU dabei braucht... (Ist halt ein i3... Hab aber glaub ich keine Lust das System auf meim Atom hier aufzusetzen, da bereits alles im Case ist :-/ )
 
Schade, dass es bisher keine brauchbaren, auf ARM basierende NAS Lösungen mit >2 S-ATA Ports gibt. Wäre ideal für ein kleines, hochkompaktes ZFS Storage für daheim - ebenfalls schade, dass es keine OS Portierungen (brauchbaren!) auf ARM in der Hinsicht gibt.
 
Zuletzt bearbeitet:
Hallo Zusammen,

schön mal ein deutschsprachiges "Zuhause" für ZFS Home NAS gefunden zu haben :-)

April 2008 hat es bei mit mit einer ZFS Home NAS auf NCP (nexenta core plattform) Basis begonnen.
- Gigabyte GA-EP35-DS3R
- Intel Core 2 Duo E8200
- 4096MB-Kit PC2-6400 DDR2-800 CL4
- 6 x Samsung HD753LJ 750GB

das lief unter NCP 2Beta für ein raidz2. Das Ganze hat mich mit der Zeit so überzeugt, dass ich zu einem ZFS fanboy geworden bin.

Aug. 2009 wurde etwas eng und ich habe den zpool mit
- 6 x Samsung HD154UI F2 1.5TB
- einem 4 port SATA auf SIl34 basis
erweitert, das lief sehr geschmeidig. Nach dem H/W Einbau genügte ein
> zpool add tank raidz2 c8t0d0 c8t1d0 c9d0 c9d1 c10d0 c10d1
und die bereits existierenden filesysteme (die kurz zuvor noch am Anschlag waren)
hatten plötzlich wieder 6TB freien Speicherplatz zu Verfügung.

Irgendwann verabschiedete sich das Mainboard, günstigerweise hatte ich einen prototypen meines storage appliance projektes zur hand und innerhalb von ca 2 stunden waren die 12 platten aus dem einen Gehäuse aus und in das andere eingebaut. Ein
> zpool import -f tank
erledigte den Rest und der "popcorn hour" konnte dann auch wieder auf die multimedia shares zugreifen. Was mir Pluspunkte bei Kindern und Ehefrau einbrachten.
 
Zuletzt bearbeitet:
Wo wir nun schon ein paar Experten zusammenhaben:

Bringt ein ZIL / Logzilla etwas bei Multiplen [4-8] Streamenden schreib-zugriffen über CIFS?
Grosse dateien im 100mb-1GB bereich.
Bzw. Ist sowas ist ein Synchronous Write?

[Wer nicht weiss was das ist: ZIL ist eine Seperater SSD-Schreib-Cache für Metadaten des Dateisystems]

In den Selben bereich fällt Frage 2:
Bringen 15k SAS Platten als L2ARC für 7200er SATA platten vorteile?
(Selbe belastung durch Multiple Streams mit hoher Datenrate)

[L2ARC ist ein Lese-Cache für den eigentlich auch SSDs vorgesehen sind]

ps. eigentlich sollten wir mal einen Richtigen Sammelthread eröffnen...
 
Zuletzt bearbeitet:
Schreibende Streams über CIFS sollten asynchron sein. Zumindest sehe ich bei Kopiervorgängen immer erst Bursts auf die Platten, wenn der reservierte Speicher voll ist und die Transaction Group geflusht wird.
L2ARC sollte für sequentielle Workloads keine Rolle spielen, da er für Random-Read konzipiert ist. Wie eine sehr hohe Zahl an gleichzeitigen Streams interpretiert wird weiss ich allerdings nicht.
 
Vielen dank für die Infos.
Dann also versuche ich es erstmal ohne Caches.
Die Kiste wird mit 10 Gigabit angebunden werden.
Dann poste dann auf jeden fall Benchmarks.

Weitere Erkentnisse:
Bei RaidZ ist eine Ungerade anzahl Disks grünstiger, Bei RaidZ2 eine gerade.
(Auf die Schreibleistung achten)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh