[Sammelthread] ZFS Stammtisch

Hey danke, gibt es da "Richtwerte" an denen du dich orientiert, oder hast du das jetzt Prozentual von deiner Config angepasst ?

Neuer Ram ist schon bestellt :)


*edit*

mit den settings bootet er nicht mehr und schmeißt folgende Meldung:

panic: kmem_suballoc : bad status return of 3
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann zuerst sich den FreeBSD ZFS Guide ansehen, aber da hab ich nicht alles übernommen. Allgemein hab ich durch experimentieren für mich diese Werte herraus gefunden. Dann noch diverese andere Guides zu ZFS (die meisten beziehen sich aber auf Solaris) eingelesen, aber das meiste verschlechtert die Leistung, anstatt es besser zu machen. Und bei der Geschichte hab ich einfach das ganze runtergerechnet und nur vfs.zfs.txg.write_limit_override von 1 GB (ab 8 GB RAM) auf 256 MB reduziert (Empfehlung aus dem FreeBSD Handbuch).
 
Zuletzt bearbeitet:
also, ich hab mal etwas rum probiert - alles über 1500 MB als mem_size geht net. Da scheint noch was faul zu sein ...
 
Es hängt nur am vm.kmem_size ? Welche Version mit Buildversion von NAS4Free nutzt du? Die auf FreeBSD 9.0 basiert, oder die auf FreeBSD 9.1?
 
jap, sobald ich das z.b. 2G eintippe gehts nicht mehr. 1500M ist das Maximum - ich hab 9.1 Build 531


kann ich irgendwo auslesen, ob ich x86 oder 64 bit installiert hab ? hab da so ne blöde Vermutung ...
 
Zuletzt bearbeitet:
Gut ich werde das mal mit FreeBSD 9.1 versuchen nachzustellen, sehr seltsam, die x64 Version hast du ja genommen und sonst ist eine /boot/loder.conf mit Defaultwerten versehen?
 
die loader.conf sieht so aus :

kernel="kernel"
bootfile="kernel"
kernel_options=""
kern.hz="100"
hw.est.msr_info="0"
hw.hptrr.attach_generic="0"
kern.maxfiles="65536"
kern.maxfilesperproc="50000"
kern.cam.boot_delay="8000"
autoboot_delay="5"
isboot_load="YES"
zfs_load="YES"

ich bekomme in der nas4free übersicht auch nur 3531 MB Ram angezeigt ...


alles klar - ich hab ne x86 Version installiert gehabt ... Jetzt muss ich schon wieder neu installieren :d So nen mist ^^
 
Zuletzt bearbeitet:
Ok kann passieren. :) Dein ZFS Pool ist ja safe, vorher fein zpool export deinpool und dann wieder nach der Neuinstallation mit zpool import deinpool laden.
 
M1015 - staggered spin-up ohne OptionROM?

Wenn ich
1) ein IBM ServeRAID M1015 mit ner LSI9211-IT Firmware flashe
UND
2) das OptionROM weglasse, also keine Boot-Optionen mehr habe,
in denen ich z.B. die spin-up-Einstellungen vornehmen kann...
hab ich dann trotzdem noch staggered spin-up in irgendner
Standard-Einstellung?
 
Eine sehr interessante Frage, danach habe ich schon mal recherchiert und auf die schnelle nichts gefunden und dann einfach das OptionROM mit geflasht weil ich den Server sowieso im Dauerbetrieb habe und vielleicht nur alle paar Monate mal ausschalte mich die ca. 20 Sekunden mehr Bootzeit nicht stören.
Ich würde sagen Versuch macht klug? Man hört ja sofort beim Einschalten ob Staggered Spin-up aktiv ist oder nicht.
 
Zuletzt bearbeitet:
Danke.
Naja, wenn's nur 20 Sekunden Bootzeit sind, nehm ich das OptionROM vielleicht auch mit... schau mer mal, aktuell liegt hier erstmal nur ein M1015 rum, die gab's grade günstig in der Bucht und da wollte ich einfach zuschlagen, weil der Counter der verkauften Stücke recht schnell inkrementiert wurde... keine Ahnung was wohl die anderen Käufer damit vorhaben :d
 
schau mer mal, aktuell liegt hier erstmal nur ein M1015 rum, die gab's grade günstig in der Bucht und da wollte ich einfach zuschlagen, weil der Counter der verkauften Stücke recht schnell inkrementiert wurde... keine Ahnung was wohl die anderen Käufer damit vorhaben :d
Gabs oder gibts? :)
 
äääh... gab's.
Naja, so einzelne Stücke könnte man da wohl auch immer noch von privat beziehen, ich bin da aber eher skeptisch...
das war aber ein Händler, der wohl mehrere 10 auf einmal loswerden wollte... 82,90 mit Versand...
 
So Jungs (und Mädels?), ich hab euren schönen Stammtischthread jetzt fertig durchgelesen :fresse2:

Ganz spaßeshalber hab ich das natürlich nicht gemacht, ich sondiere seit einiger Zeit, wie ich meine paar Daten künftig unterbringen könnte. Manchen Wortmeldungen nach hab ich ja eh nur Peanuts, und mein Budget ist in der gleichen Größenordnung.

Hab die letzten paar Tage Nexenta ausprobiert. Alles jeweils in ner VM (vmplayer 5.0.1), Hostsystem ist ein 12.10er Kubuntu mit 3.5er Kernel, C2D mit 6GB RAM (davon 2GB für die VM), dazu neben der virtuellen Systemplatte spaßeshalber 4x 256MB an Disks. Für das 3.15er Nexenta bin ich offensichtlich zu blöd. Install und alles super, auch als absoluter Neuling in der Solaris-/ZFS-Welt, aber ich habs einfach nicht hinbekommen, die Netzwerkfreigabe schreibend hinzukriegen. Ich geh da mit Dolphin drauf (smb://IP), kanns angemeldet oder auch anonym versuchen, aber da wollte einfach nix drauf gehen.
Plattgemacht, 4er-Preview drauf. Katastrophe :rofl: Fängt mit Netzwerkproblemen an und hört damit auf, dass man Pools nicht erstellen kann (I/O-Errors), die trotz toller Fehlermeldungen dann doch da sind, aber direkt degraded oder tot oder wer-weiß-was. Destroyen geht nicht, weil sie ja gar nicht existieren, neu anlegen unter gleichem Namen geht auch nicht, weils die ja doch schon gibt, bzw. unter neuem Namen fängt das Spiel von vorne an. Plattgemacht.
Momentan läuft OI 151a (der ISO nach zu urteilen). Mit napp-it gehts einigermaßen, Nexenta hat ja ne eigene Weboberfläche. In der VM startende GUI hab ich bisher bei keiner Distri gesehen, weiß auch gar nicht, ob das gewollt ist. Dazu n paar Fragen und Anmerkungen, inbesondere auch @gea:

* Performance ist dürftig, werds aber vor Einsatz auch sicherlich nochmal auf echter Hardware ausprobieren. RaidZ1, Mirror und Basic bringen alle etwa das gleiche, nämlich 10-15 MB/s via smb-Transfer. Normal? NIC ist in vmplayer nicht limitiert, draufgeschobene Daten kommen allerdings von ner echten Partition und nicht aus /dev/zero oder so. Einzig bei Z1 geht die CPU-Last auf 100%, ansonsten gammelt ein halber bis ganzer Kern so vor sich hin. Muss dazu sagen, dass das Hostsystem verschlüsselt ist (dmcrypt), bei 15 MB/s lesen und demnach 20 MB/s schreiben sollte sich die CPU aber langweiligen, laut truecrypt-Bench sind etwa 160 MB/s mit AES drin. Dazu die Paritätsberechnung und lustiger VM-Overhead. Aber ein bissi enttäuschend isses schon. Die napp-it-Benches attestieren für ein Stripe auch bis 30 MB/s (...auch nicht berauschend). Benutzte disks sind jeweils pre-allocated auf ner Samsung 830 256GB.

* Pools createn und destroyen: Warum sind einmal genutzte Poolnamen künftig tabu? Man kann die Dinger destroyen, aber beim nächsten Create mit einem beliebigen schon benutzten Poolnamen gibts Fehlermeldungen.

* Monitoring bei napp-it: Gibts keine Möglichkeit, den Status zu speichern? Es nervt, dass es spätestens nach jedem Neustart wieder aktiv ist. Ich hätte es gerne aus, weil ich beim Herumwurschteln parallel die Befehle und Rückmeldungen auch im VM-Fenster verfolgen möchte. Das wird durchs Monitoring aber zugemüllt.

* vmplayer-spezifischer: Kann man an den Disk-Files herummanipulieren, ohne gleich in der Maschine ein not accessible zu bekommen? Ich würd gern mal hier und da ein Bit flippen und dann nen Scrub starten. Mach ich das online, gibts keinerlei Fehlermeldung, die Veränderung wird also entweder gar nicht erkannt oder irgendwie nicht an die VM durchgegeben. Mach ichs offline, ist die ganze Disk mehr oder minder weg. Dann kann ich replacen und das Ding resilvert sofort, ist aber nicht ganz das, was ich ausprobieren möchte.


Zu vorhandener/geplanter Hardware und der Größe des eigentlichen Vorhabens werd ich mich später nochmal auslassen ;)
 
Du findest die Performance dürftig? Das liegt wohl hauptsächlich daran dass du eine Dualcore CPU aus dem Jahre 2006 verwendest und der VM nur 2GB Ram zugewiesen hast was für ZFS eigentlich viel zu wenig ist. Zusätzlich liegen deine virtuellen Festplatten wahrscheinlich auf einem einzeln Laufwerk an, selbst wenn du das auf ein virtuelles Z1 auf einer aktuellen SAS-Festplatte oder SSD anlegst und auch sonst sehr schnelle Hardware hast wäre der Test absolut wertfrei weil so etwas total praxisfern ist.
Bitte verwende einen aktuellen Quadcore und mindestens 8GB Ram, ansonsten sind sämtlich Tests in Richtung Performance völlig wertlos. ;)
 
Zuletzt bearbeitet:
Du übersiehst dabei, dass sich meine Poolgröße auf 1GB beläuft. Selbst mit 2GB RAM könnte OI alle Datenpools auch bei kompletter Füllung im RAM halten...

Ich hab grade mal mit 3,5 GB Max-RAM gestartet, gibt sich nix. top (in OI) sagt 3500M phys mem, 2697M free mem, 1024M total swap, 1024M free swap. Mehrnutzung der zusätzlichen 1,5GB -> 0. htop auf dem Hostsystem erzählt mir was von 905M SHR der vmware-vmx, passt also gut dazu. Stieg während des Transfer des ersten Files auch deutlich an, direkt nach dem Start sinds ja nur um die 500 MB. Bleibt allerdings auf dem Level. Zeug wieder auf den Host zu ziehen geht mit <10 MB/s, falls da also was im RAM hängen sollte, bringts dennoch nix.

Sync hab ich grade auch mal von standard abgeändert. always halbiert die Transferraten, disabled bringt gegenüber standard nichts. Dedup und compression ist ohnehin aus.

Was die Praxisferne angeht: Ich sitz hier im tiefsten Allgäu in ner seit Monaten bestehenden 3-Messies-ziehen-zusammen-Umzugshalde, hab für meine Hausaufgaben nichtmal nen Schreibtisch zur Verfügung (von Ruhe mal gar nicht zu reden). Meinst du, ich kann hier mehr ausm Ärmel schütteln als ich bei mir zuhause stehen hab? :fresse: Über Hardware wollt ich ja noch was schreiben. Der derzeitige Stand ist aber links im Systeminfo vermerkt ;) Jedenfalls brauch ich auf realer Hardware gar nicht anzufangen, wenn mir das System in ner VM grundsätzlich nicht gefällt. Daher probier ich momentan ja noch durch, und was auf weltweit identischer VM-"Hardware" nicht anständig läuft, das fliegt eben aus der engeren Wahl. Da ich von Ubuntu (Produktivsystem) bzw. W2k3 (ehemaliges Backupsystem, derzeit ne shared Win7-Install) her komme ist Solaris, OI, Nexenta, FreeNAS und wie sie alle heißen eh alles ziemlich Neuland. Wenn man schon frei entscheiden kann, mit was man sich beschäftigen wird, dann sollte man da auch eine sinnvolle Entscheidung treffen. Oder ich wurschtel mit ZFS on Linux auf nem Server-Ubuntu weiter, steht auch noch zur Diskussion. Genau wie ne herkömmliche Lösung mit extY auf nem LVM.
 
Auch wenn du es nicht gerne hören willst, dein voll verschlüsseltest HDD Setup und die zusätzliche Virtualisierungsumgebung ist mit Schuld an deinen schlechten Datenraten.
ZFS ist ne gute Ecke langsamer als z.B. XFS unter Linux.
Da du den ganzen Thread durchgelesen hast, weiß du ja auch über die Problematik mit non ECC RAM bescheid. Also außer zum rumspielen taugt dein System so leider eh nicht.
 
@gea:

* Performance ist dürftig, werds aber vor Einsatz auch sicherlich nochmal auf echter Hardware ausprobieren. RaidZ1, Mirror und Basic bringen alle etwa das gleiche, nämlich 10-15 MB/s via smb-Transfer. Normal? NIC ist in vmplayer nicht limitiert, draufgeschobene Daten kommen allerdings von ner echten Partition und nicht aus /dev/zero oder so. Einzig bei Z1 geht die CPU-Last auf 100%, ansonsten gammelt ein halber bis ganzer Kern so vor sich hin. Muss dazu sagen, dass das Hostsystem verschlüsselt ist (dmcrypt), bei 15 MB/s lesen und demnach 20 MB/s schreiben sollte sich die CPU aber langweiligen, laut truecrypt-Bench sind etwa 160 MB/s mit AES drin. Dazu die Paritätsberechnung und lustiger VM-Overhead. Aber ein bissi enttäuschend isses schon. Die napp-it-Benches attestieren für ein Stripe auch bis 30 MB/s (...auch nicht berauschend). Benutzte disks sind jeweils pre-allocated auf ner Samsung 830 256GB.

* Pools createn und destroyen: Warum sind einmal genutzte Poolnamen künftig tabu? Man kann die Dinger destroyen, aber beim nächsten Create mit einem beliebigen schon benutzten Poolnamen gibts Fehlermeldungen.

* Monitoring bei napp-it: Gibts keine Möglichkeit, den Status zu speichern? Es nervt, dass es spätestens nach jedem Neustart wieder aktiv ist. Ich hätte es gerne aus, weil ich beim Herumwurschteln parallel die Befehle und Rückmeldungen auch im VM-Fenster verfolgen möchte. Das wird durchs Monitoring aber zugemüllt.

* vmplayer-spezifischer: Kann man an den Disk-Files herummanipulieren, ohne gleich in der Maschine ein not accessible zu bekommen? Ich würd gern mal hier und da ein Bit flippen und dann nen Scrub starten. Mach ich das online, gibts keinerlei Fehlermeldung, die Veränderung wird also entweder gar nicht erkannt oder irgendwie nicht an die VM durchgegeben. Mach ichs offline, ist die ganze Disk mehr oder minder weg. Dann kann ich replacen und das Ding resilvert sofort, ist aber nicht ganz das, was ich ausprobieren möchte.


Zu vorhandener/geplanter Hardware und der Größe des eigentlichen Vorhabens werd ich mich später nochmal auslassen ;)

Performancetest: Würde ich auf Hardware machen wenn man wissen will wie schnell Solaris ist und nicht wie langsam unter VMplayer,
lediglich ESXi + passthrough bringt virtuell fast volle Performance.
Pool create mit altem Namen: liegt meist daran, dass es noch einen Ordner /alterpoolname gibt. Der sollte leer sein. Weglöschen und alter Poolname geht
Monitoring aus: ist ein Klick (Topmenü Monitor)
 
Lediglich ESXi + passthrough bringt virtuell fast volle Performance.

Das wiederum hab ich nicht vor. Die Kiste wird nichts anderes tun als gelegentlich hochzulaufen, meinem Schlepptop ein paar Daten abzunehmen und/oder zu liefern, und dann wieder runterfahren. Jegliche VM, die ich gelegentlich brauche, läuft aufm Schlepptop, und dort nichtmal von SSD, sondern von nem ebenfalls verschlüsselten LVM über zwei 32er Class10 MicroSD-Karten, das ansonsten für Backups herhält. Das sind so meine Performancebedürfnisse. Zusätzliche Probleme beim Durchreichen von Hardware kann ich mir komplett sparen.

Pool create mit altem Namen: liegt meist daran, dass es noch einen Ordner /alterpoolname gibt. Der sollte leer sein. Weglöschen und alter Poolname geht
Schau ich mal. Was ähnliches hab ich allerdings auch bei Freigabeordnern, also leg ich unter ZFS Folders einen SMB-Share an, ist der nicht unbedingt sofort erreichbar. Schalt ich nen vorhandenen aus und bin schon drauf, kann ich da lustig weiter Sachen draufziehen, anschauen usw. Und ändere ich den Namen nach dem Ausschalten auf was vorher benutztes, hab ich gestern ne Fehlermeldung bekommen, grade eben konnt ichs aber nicht reproduzieren. Jedenfalls steigt auch da meine Nummerierung so langsam an.

Monitoring aus: ist ein Klick (Topmenü Monitor)
Ja, aber eben jedes Mal, für ne Funktion die ich nie haben will ;)
 
Moin,
Ich bin gerade dabei meine Backup- und Storagelösungen in meinem trauten Heim und angeschlossenen Büro neu und 'richtig' (?) zu strukturieren. Will sagen, eine Snology DS411+ (Live Backups der Produktiv-Maschinen) und die am Haupt-HTPC angeschlossene Raid5 Gehäuse (digitalisierte Videothek) sollen zusammengeführt und zentralisiert werden. Hardware ist bereits auf dem Weg und trudelt (leider) 'plätschernd' ein und wird im Ideal Anfang kommender Woche zusammengesetzt werden. Der Fileserver soll später virtualisiert auf einem vSphere 5.1 ESXi laufen, da ich aufgrund von übermäßigem Geiz die Anzahl der dauerhaft laufenden Geräte minimieren, sprich Strom sparen möchte. Neben dem Fileserver wird noch min. eine Windows Instanz mit einem DVB (TV) Server laufen, die das TV Signal im Haus verteilt und Aufnahmen / Timer zentral verwaltet (Soll hier kein Thema sein - nur der Vollständigkeit halber ...)
Da ich noch ein Frischling bin was das Thema ZFS angeht, lese ich mir z.Z. die Augen wund und versuche die eigentlich (bis hier hin) sehr einfache Logik, aber doch teilweise verwirrende Vielfältigkeit hinter ZFS zu verstehen. Und zum Schluss der Einleitung muss ich noch beschämt eingestehen, dass ich leider bis dato noch kein Testsystem aufgesetzt habe, da ich mit dem Anlesen nebem dem täglichen Geschäft (zu-) sehr beschäftigt war ...
Nun, trotz recht intensiver Theorie kommen immer wieder Fragen auf die sich teils hinter dem nächsten Link erklären und teils überflogen wurden - also bitte entschuldigt evtl. folgende 'silly questions' :stupid:

Frage 1: (Direkt zu Anfang erstmal besagte 'silly question')
Welche auf Solaris basierende Lösung würdet Ihr bevorzugen (OpenIndiana, OmniOS, Nexenta, Solaris 11, ...) oder lieber direkt mit ZFSonLinux arbeiten?
Ich weiß, dass es wohl eher auf individuelle Ansprüche ankommt bzw. mit einem 'Wohlfühlfaktor' einhergeht, aber ich musste bei meinen Recherchen immer wieder Aussagen wie
OI bekommt selten Sicherheits Updates
A. Lumsden steps down, will OI vanish?
For what it is worth, I strongly suggest you do not use Solaris 11 unless you are willing to pay for support.
(sind jetzt nur ein paar Beispiele ...) gestoßen und bin überfordert.
Ein weiterer Punkt ist, dass ZFSonLinux recht schnell auf die Solaris Lösungen aufzuholen scheint, ist aber mit dem (in meiner Erfahrung) widerspenstigem SAMBA ausgestattet (Frage des 'Wohlfühlfaktors'...)
Bin jetzt verunsichert ob der Interoperabilität der ganzen verfügbaren Lösungen und der Zukunftssicherheit der einzelnen ... bitte beruhigt mich! :grrr:

Frage 2:
Pool-Versions ... Ja leck mich fett!! :hmm: Gibt's irgendwo ne Auflistung der Features und sind die sog. 'Feature-Flags' von OI und Omni kompatibel zu z.B. ZFSonLinux?
Ich konnte bis dato noch nix übersichtliches finden, immer nur Fragmente die ich noch zu keinem Gesamtbild habe zusammenfügen können ... Was ist überhaupt die z.Z. aktuelle frei Nutzbare Version? - 31 scheint ja closed Source zu sein und mit Oracles kommerziellen Zielen eng Verknüpft zu sein.

Frage 3:
L2ARC - Secondary Cache (SSD) Ist das in meinem Falle Sinnvoll?
Ein Großteil meiner Daten (~80%) Sind *.iso / *.mkv Dateien meiner in den Keller verbannten Videothek, die ich über Jahrzehnte angesammelt habe und werden ab und an von den Clients gestreamt. Die restlichen 20% sind hauptsächlich Renderings bzw. CAD Pläne, die hauptsächlich gespeichert werden, mittels Snapshots versioniert und nur in 'Notfällen' abgerufen werden ...
Wenn ich L2ARC richtig verstanden habe, dann wird dieser nur benötigt, wenn der RAM voll ist und mit dem Cache der am häufigst abgerufenen Daten gefüllt wird ... Ich sehe jetzt keinen Nutzen für mich, bin mir aber auch nicht sicher ob ich das Konzept richtig Verstanden habe ...

Frage 4:
Welche Festplatten sind kompatibel?
Auch ne schöne Frage, ... Es scheint ja eine bunte Mischung aus Meinungen zu geben, aber was ist richtig? Welche 4K Festplatten erkennt ZFS als solche bzw. welche sollte man nicht nutzen? Sind meine Toshiba DT10ACA300 (3TB) kompatibel oder sollte ich mich nach einem anderen Modell umschauen (Wenn ja, welches?)
ZFS has absolutely no problem with a 4 KB sector size on a disk if, and only if, it knows about it!

Frage 5:
Welche Nachteile entstehen, wenn man mehrere vdevs mit jeweils anderen Festplatten mischt?
Ich hatte mir z.B. anfangs gedacht ich fasse folgende 'Arrays' zu einem ZPool zusammen:
11 x WD30EZRX als RaidZ3 (sind bereits vorhanden)
06 x DT01ACA300 als RaidZ2 (werden nachgekauft)
06 x DT01ACA300 als RaidZ2
Der Grund warum ich nicht zwei 11 x RaidZ3 machen möchte ist der, dass ich das zweite Set erst kaufen möchte, wenn der Bedarf gekommen ist.

Frage 6:
Kann ich HotSpares einzelnen vdevs zuweisen oder geht das immer nur auf den gesamten Pool?

Es werden sicherlich noch weitere Fragen aufkommen, aber ich Verspreche euch, ich werde mir alle Mühe geben mir diese selbst zu beantworten und seid mir nicht böse, wenn mir das nicht gelingt :heul:

Ich danke euch jetzt schon für eure Zeit und die hoffentlich kommenden und aufschlussreichen Antworten :)

LG
Banane :banana:
 
Zuletzt bearbeitet:
Moin,
Ich bin gerade dabei meine Backup- und Storagelösungen in meinem trauten Heim und angeschlossenen Büro neu und 'richtig' (?) zu strukturieren. Will sagen, eine Snology DS411+ (Live Backups der Produktiv-Maschinen) und die am Haupt-HTPC angeschlossene Raid5 Gehäuse (digitalisierte Videothek) sollen zusammengeführt und zentralisiert werden. Der Fileserver soll später virtualisiert auf einem vSphere 5.1 ESXi laufen, da ich aufgrund von übermäßigem Geiz die Anzahl der dauerhaft laufenden Geräte minimieren, sprich Strom sparen möchte. Neben dem Fileserver wird noch min. eine Windows Instanz mit einem DVB (TV) Server laufen, die das TV Signal im Haus verteilt und Aufnahmen / Timer zentral verwaltet (Soll hier kein Thema sein - nur der Vollständigkeit halber ...)
Warum du bei einem zentralen VDR-Server auf Windows setzt erschließt sich mir jetzt zwar nicht, aber ich würde es vor allem wegen eher theoretischen Bedenken bezüglich der Sicherheit vor Überspannungen trennen. Du hast ja dann ansonsten bis zu 24? HDDs an deinem Rechner dran hängen.
Sprich einen Rechner mit vier DVB-S2 Tunern (analog dazu DVB-C oder was auch immer du verwendest) und diesen mit einer einfachen PCI(-X) Netzwerkkarte (gibt es gebraucht recht günstig) über ein LWL-Kabel mit deinem zukünftigen Homeserver verbinden.
Beide Rechner an eine eigene USV-Anlage welche von einer unterschiedlichen Phase (L1, L2, L3 stehen zur Auswahl) gespeist wird.
Dürfte ggf. nicht ohne einen Elektriker machbar sein. Es sind selten mehr als eine Phase in einem Zimmer.

Frage 1: (Direkt zu Anfang erstmal besagte 'silly question')
Welche auf Solaris basierende Lösung würdet Ihr bevorzugen (OpenIndiana, OmniOS, Nexenta, Solaris 11, ...) oder lieber direkt mit ZFSonLinux arbeiten?
Ich weiß, dass es wohl eher auf individuelle Ansprüche ankommt bzw. mit einem 'Wohlfühlfaktor' einhergeht, aber ich musste bei meinen Recherchen immer wieder Aussagen wie (sind jetzt nur ein paar Beispiele ...) gestoßen und bin überfordert.
Ein weiterer Punkt ist, dass ZFSonLinux recht schnell auf die Solaris Lösungen aufzuholen scheint, ist aber mit dem (in meiner Erfahrung) widerspenstigem SAMBA ausgestattet (Frage des 'Wohlfühlfaktors'...)
Bin jetzt verunsichert ob der Interoperabilität der ganzen verfügbaren Lösungen und der Zukunftssicherheit der einzelnen ... bitte beruhigt mich! :grrr:
Zukunftssicherheit? In 2-3 Jahren darfst du ggf. eh wieder alles neu aufsetzten, also Träume nicht davon. ;p
Für einen VDR (auch unter Windows) würde sich ggf. auch iSCSI als Protokoll anbieten. Ansonsten wenn du etwas anderes noch im Hause als Windows hast, kann man NFSv4 sehr empfehlen.
Für die Einbindung auch unter Windows und OS X gäbe es sogar noch WebDAV.
Zu deiner Frage: Ich verwende FreeBSD.
Frage 2:
Pool-Versions ... Ja leck mich fett!! :hmm: Gibt's irgendwo ne Auflistung der Features und sind die sog. 'Feature-Flags' von OI und Omni kompatibel zu z.B. ZFSonLinux?
Ich konnte bis dato noch nix übersichtliches finden, immer nur Fragmente die ich noch zu keinem Gesamtbild habe zusammenfügen können ... Was ist überhaupt die z.Z. aktuelle frei Nutzbare Version? - 31 scheint ja closed Source zu sein und mit Oracles kommerziellen Zielen eng Verknüpft zu sein.
Aktuelles FreeNAS, FreeBSD seit Version 9.0 und die meisten freien Solarisversionen haben die Poolversion v28. Welche mit ihren Features in der Regel auch mehr als ausreichend ist für die private Nutzung. Microsoft dürfte dafür noch ein paar Windowsversionen für benötigen.
Frage 3:
L2ARC - Secondary Cache (SSD) Ist das in meinem Falle Sinnvoll?
Richtig erkannt, ist bei dir nicht sinnvoll bzw. nur unnötig ausgegebenes Geld.
Frage 4:
Welche Festplatten sind kompatibel?
Auch ne schöne Frage, ... Es scheint ja eine bunte Mischung aus Meinungen zu geben, aber was ist richtig? Welche 4K Festplatten erkennt ZFS als solche bzw. welche sollte man nicht nutzen?
ashift=12 wurde hier im Thread ein paar mal genannt. Setze es per Hand und verifiziere es.
Frage 5:
Welche Nachteile entstehen, wenn man mehrere vdevs mit jeweils anderen Festplatten mischt?
Ich hatte mir z.B. anfangs gedacht ich fasse folgende 'Arrays' zu einem ZPool zusammen:

Der Grund warum ich nicht zwei 11 x RaidZ3 machen möchte ist der, dass ich das zweite Set erst kaufen möchte, wenn der Bedarf gekommen ist.
Mach das nicht. Bei einem einzigen Zpool wird ein Raid0 über alle Arrays gelegt.
-> höhere Ausfallwahrscheinlichkeit!
Da du eher ein Archiv hast wird sich ZFS auch nicht all zu sehr neu balancieren durch die CoW-Strategie des Dateisystems.
-> Du hast trotz des Raid0 also auch keine Geschwindigkeitsvorteile, wenn du ein neues Array erst hinzufügst wenn schon alles voll belegt ist.

Frage 6:
Kann ich HotSpares einzelnen vdevs zuweisen oder geht das immer nur auf den gesamten Pool?
Afaik ist beides möglich. Habe es aber noch nicht ausprobiert bzw. konfiguriert.
 
Ach, der Kampf gegen Windmühlen. ;)
Boah, dieses Thema schon wieder. :fresse:
SMB funktioniert auch unter FreeBSD problemfrei und performant. Bitte nicht immer die Einzelschicksale von Leuten die unfähig sind Samba zu konfigurieren oder andere Probleme zu beheben als allgemein gültigen Fakt zu sehen.
Ab Post #119 lesen, da hatten wir das Thema schon: http://www.hardwareluxx.de/communit...vs-freenas-mit-zfs-918728-3.html#post19841387

Wenn du verschiedene Festplatten-Typen mischst hast du Performance-Einbußen weil die langsameren Platten die schnelleren behindern und sie so nicht "syncron" arbeiten können sondern des Öfteren auf einander warten.

Das Thema Überspannung und DVB ist natürlich wichtig, dass hatte ich bei deinem Thread völlig vergessen zu erwähnen.
Allerdings sollte man dann wie schon gesagt auch auf jeden Fall eine USV haben, ansonsten ist das recht inkonsequent. Optimierungen der Stromversorgung wären auch nett, aber dazu ist in der Regel ein wesentlich höheres Budget erforderlich, mit der Geräte-Trennung via LWL und einer hochwertigen USV sollten Überspannungsschäden wirklich sehr sehr unwahrscheinlich werden, das ist quasi der "Einstieg".
Ich habe zu Hause eine 19" APC USV und meine DVB-Karte in einem HTPC. Die Netzwerkabel am Server hängen in einer Überspannungsschutz-Steckerleiste von APC, da verliert man etwas Signalqualität, aber die 5% gehen in Ordnung. Gab dazu auch in einer der letzten c'ts ein Review zu.
 
Zuletzt bearbeitet:
Danke für die Ausführliche Antwort!

Warum du bei einem zentralen VDR-Server auf Windows setzt erschließt sich mir jetzt zwar nicht
Einfach aus Gewohnheit ... ich löse das z.Z. mit dem Recording Service von DVB Viewer und bin absolut zufrieden. Was nicht heiß, dass ich bessere (?) Alternativen ausschließe - ich kenne sie nur nicht ...

ich würde es vor allem wegen eher theoretischen Bedenken bezüglich der Sicherheit vor Überspannungen trennen. Du hast ja dann ansonsten bis zu 24? HDDs an deinem Rechner dran hängen.
Du beziehst dich auf die Möglichkeit des Blitzeinschlags in eine Satschüssel, oder was meinst du mit Überspannung?

Zu deiner Frage: Ich verwende FreeBSD.
Gibt es dafür einen Grund?

Aktuelles FreeNAS, FreeBSD seit Version 9.0 und die meisten freien Solarisversionen haben die Poolversion v28. Welche mit ihren Features in der Regel auch mehr als ausreichend ist für die private Nutzung. Microsoft dürfte dafür noch ein paar Windowsversionen für benötigen.
Was ist mit den sog. Feature-Flags von Illumos, etc. (z.Z. 5000)? sind die bei einer evtl. Migration der ZPools zu z.B. FreeBSD kompatibel? - Laut meinem derzeitigen Kenntnisstand ist die Pool Version nur aufwärts Kompatibel, ein Downgrade ist nicht möglich ...

Richtig erkannt, ist bei dir nicht sinnvoll bzw. nur unnötig ausgegebenes Geld.
Danke, dann kann ich das schonmal abharken!

ashift=12 wurde hier im Thread ein paar mal genannt. Setze es per Hand und verifiziere es.
Ein Beispiel für gelesen, aber nicht behalten. Ich hab mir nochmal ne Notiz angelegt, damit ich des nicht wieder vergesse - Danke.

Mach das nicht. Bei einem einzigen Zpool wird ein Raid0 über alle Arrays gelegt.
-> höhere Ausfallwahrscheinlichkeit!
Da du eher ein Archiv hast wird sich ZFS auch nicht all zu sehr neu balancieren durch die CoW-Strategie des Dateisystems.
-> Du hast trotz des Raid0 also auch keine Geschwindigkeitsvorteile, wenn du ein neues Array erst hinzufügst wenn schon alles voll belegt ist.
Danke für das verifizieren meiner Befürchtung.

Afaik ist beides möglich. Habe es aber noch nicht ausprobiert bzw. konfiguriert.
Mit der obrigen Antwort hat sich das sowieso erledigt, jetzt muss ich mir aber überlegen, ob es einen automatisches oder manuelles HotSwap für jeden ZPool geben soll, ... gefühlt eher letzteres :grr:

---------- Post added at 02:24 ---------- Previous post was at 02:18 ----------

Ach, der Kampf gegen Windmühlen. ;)
Ich weiß und ich habe den zitierten Beitrag von dir auch gelesen. Ich wollte in diesem Bezug nur auf meine stümperhaften Fähigkeiten diesbezüglich hinweisen :)

Wenn du verschiedene Festplatten-Typen mischst hast du Performance-Einbußen weil die langsameren Platten die schnelleren behindern und sie so nicht "syncron" arbeiten können sondern des Öfteren auf einander warten.
Danke für die Ausführung!

Das Thema Überspannung und DVB ist natürlich wichtig, dass hatte ich bei deinem Thread völlig vergessen zu erwähnen.
Allerdings sollte man dann wie schon gesagt auch auf jeden Fall eine USV haben, ansonsten ist das recht inkonsequent. Optimierungen der Stromversorgung wären auch nett, aber dazu ist in der Regel ein wesentlich höheres Budget erforderlich, mit der Geräte-Trennung via LWL und einer hochwertigen USV sollten Überspannungsschäden wirklich sehr sehr unwahrscheinlich werden, das ist quasi der "Einstieg".
Ich habe zu Hause eine 19" APC USV und meine DVB-Karte in einem HTPC. Die Netzwerkabel am Server hängen in einer Überspannungsschutz-Steckerleiste von APC, da verliert man etwas Signalqualität, aber die 5% gehen in Ordnung. Gab dazu auch in einer der letzten c'ts ein Review zu.
Kannst du ein paar Vorschläge machen (am besten nicht hier, da des selbst im weitesten Sinne nicht wirklich mit dem Thema ZFS einhergeht :)
 
Zuletzt bearbeitet:
Einfach aus Gewohnheit ... ich löse das z.Z. mit dem Recording Service von DVB Viewer und bin absolut zufrieden. Was nicht heiß, dass ich bessere (?) Alternativen ausschließe - ich kenne sie nur nicht ...
Du kannst ja z.B. einmal easyvdr in der Version 1.0 ausprobieren.
Es gibt für den VDR halt auch einige Weboberflächen bei denen du anhand des EPG z.B. auch vom Tablet aus schnell Timer anlegen kannst.
Insgesamt ist es ein sehr umfangreiches Thema, welche wir hier nicht ausführlicher Diskutieren/Erläutern können.
Du beziehst dich auf die Möglichkeit des Blitzeinschlags in eine Satschüssel, oder was meinst du mit Überspannung?
Genau, aber auch für deine "Backupstrategie" für den Fall das der Rechner mit den DVB-Karten mal nicht mehr funktionieren sollte. Das du auch über einen herkömmlichen Empfänger (ggf. im TV integriert) fernsehen kannst.
Wenn du also andere Empfänger oder einen Multiswitch extra hast, kannst du dir eine Überspannung auch über diese Geräte und das normale Stromnetz einfangen.
Gibt es dafür einen Grund?
FreeBSD 9.0 hatte vor genau einem Jahr schon die Poolversion v28. Und mit angepasstem Treiber lief auch der M1015 SAS-Controller im Storagerechner.
Was ist mit den sog. Feature-Flags von Illumos, etc. (z.Z. 5000)? sind die bei einer evtl. Migration der ZPools zu z.B. FreeBSD kompatibel? - Laut meinem derzeitigen Kenntnisstand ist die Pool Version nur aufwärts Kompatibel, ein Downgrade ist nicht möglich ...
Deswegen vorerst nur v28. Damit bist du eher am flexibelsten. Wobei ich mal behaupte, wenn es richtig umgesetzt wird sollte man unter keinen Umständen Daten verlieren können wenn man zur Not einen Pool importiert welcher bestimmte Featureflags verwendet.
Als extra Sicherung gibt es hier noch Dateisysteme wie XFS und JFS.

@ Moderatoren, ggf. wird die Frage von banane22 hier in einen extra Thread aufgesplittet.
 
Ich schlag mich gerade mit den ACLs in OI_151a7 rum und weis nicht mehr weiter.

Folgende User sind angelegt:
User1, smb-Group: administrators
User2, smb-Group: kids
User3, smb-Group: kids
User4, smb-Group: ---
Die smb-Group "kids" hat die SID "S-1-5-21-3016023276-4008856090-2345057018-2147483748"

Bei mir gibt es einen pool namens "bigpool". In Diesem ein filesystem "digi_cam" (folder-acl=special)---> "drwx------+ 18 root root 23 Jan 3 00:07 (700)"
Für "digi-cam" und alle darunter liegende Verzeichnisse haben jetzt
root, User1 und User4 ein acl-set von full_set
User 2,3 ein acl-set von readx_set

Wenn ich jetzt als User1 ein neues Verzeichnis "weihnachten" anlege, hat zeigt Dieses "drwx------+ 2 User1 staff 4 Jan 1 18:37 (700)"
und
User1 ein acl-set von full_set
group:2147483648 auch ein full_set (entspricht den letzten 10 Ziffern der smb-Group "kids")
root und User4 kommen aber nicht vor und User4 kann auch nicht darauf zugreifen.

Wieder pool "bigpool" und filesystem "bilder" (folder-acl=default acl) hier: "drwx------+362 root root 368 Jan 4 20:45 (700362)" --> anstatt (700)
Wenn ich hier ein neues Verzeichnis "test" ---> "drwx------+ 2 User1 staff 2 Jan 5 00:12 (700)"
anlege, hat dieses alle richtigen User drinne und alles passt.

Ich kann jetzt ein reset ACLs, mit current-folder, so oft machen wie ich will, der User4 und root wird nicht angefügt.
Was läuft hier falsch bei mir? Wie kann ich es reparieren?
 
Problem: Solaris 11.1 und netatalk 3.0.1: Benutzer können sich am Mac nicht anmelden

Ich habe von Cong/UK die Lösung erhalten:
cp /etc/pam.d/other /etc/pam.d/netatalk

Ich habe den Bugfix in den aktuellen afp installer (Omni bloody, OI und Solaris 11.1) eingearbeitet:
wget -O - www.napp-it.org/afp | perl

---------- Post added at 12:13 ---------- Previous post was at 12:07 ----------

Ich kann jetzt ein reset ACLs, mit current-folder, so oft machen wie ich will, der User4 und root wird nicht angefügt.
Was läuft hier falsch bei mir? Wie kann ich es reparieren?

ACL reset:
Wenn der user im aktuellen folder nicht enthalten ist, wird er (in den darunterliegenden) Ordnern nach ACL reset -> Folder auch nicht sein.
Es wird nicht "von oben geerbt" sondern nur nach unten weitervererbt.

Man muss also für einen Ordener nicht ACL reset durchführen, sondern eventuell everyone löschen und die User/ Gruppen mit den gewünschten Rechten angeben.
(Nicht auf die Unix Permissions schauen, nur die ACL sind relevant)

Übrigens:
Wenn ZFS property aclinherit auf pass-through steht, kann man mit inherit (files, folders) angeben, ob neu erstellte Dateien und Ordner die Rechte erben.
 
Zuletzt bearbeitet:
ACL reset:
Wenn der user im aktuellen folder nicht enthalten ist, wird er (in den darunterliegenden) Ordnern nach ACL reset -> Folder auch nicht sein.
Es wird nicht "von oben geerbt" sondern nur nach unten weitervererbt.

Man muss also für einen Ordener nicht ACL reset durchführen, sondern eventuell everyone löschen und die User/ Gruppen mit den gewünschten Rechten angeben.
(Nicht auf die Unix Permissions schauen, nur die ACL sind relevant)

Übrigens:
Wenn ZFS property aclinherit auf pass-through steht, kann man mit inherit (files, folders) angeben, ob neu erstellte Dateien und Ordner die Rechte erben.

Hm, hab ich mich so missverständlich ausgedrückt?

Ich hatte doch oben beschrieben, wie die Userrechte im obersten Verzeichnis gesetzt sind. Also bin ich davon ausgegangen, dass die Darunterliegenden die gleichen Userrechte vererbt bekommen.
Beim Filesystem "bilder" funktioniert ja auch alles richtig, nur nicht bei "digi-cam".
In den Filesystemen gibts keine trivial User, auch schon gar nicht everyone@. aclinherit und aclmode stehen beide auf passthrough. Inheritance auf file,dir.

Macht es Sinn und geht es überhaupt alle ACLs zu löschen und dann komplett neu zu machen??
 
Heute neues System aufgesetzt mit OI 151a7 und Napp-it 0.9 und bekomme folgende Fehlermeldung in orangenem Bereich unter Settings:
"oops...
This key is only valid on host xxxxxx
back/ return to former menu"

Liegt das vielleicht daran das ich die IP des Rechners nachträglich geändert habe?

Ähnliche Fehlermeldung beim email test:
"oops...
send error to xxxx.xxxx@xxxxxxx.de
back/ return to former menu"

Ich kann man mir beide Fehler nicht erklären, denn beides funktioniert mit OI 151a7 und 0.8er napp-it auf dem gleichen Rechner ohne Probleme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh