[Sammelthread] ZFS Stammtisch

Moin,

keiner eine Meinung oder gar Erfahrung zu meiner obigen L2ARC-Frage?? :confused:

Ich würde ESX nie auf so ne gute SSD installieren, das ist reine Verschwendung. Sowas gehört auf einen Stick und fertig, dann kannst du auch die SSD identisch partitionieren.
Was willst du denn eigentlich für VMs darauf fahren? Schon mal über KVM/Qemu unter Omnios nachgedacht? Also ESX einfach weglassen, direkt Omnios booten und hurra!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab folgende Einträge in hosts:
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio
192.168.1.10	aio
192.168.1.11	aio

Habe mir das mal auf die schnelle angesehen mit meiner alten OmniOS VM. Was ich feststellen konnte, ist, dass meine VM den selben Fehler produziert und meine hosts Datei ähnlich wie deine aussieht.
Wenn ich in jede Zeile, in der aio steht, ein aio.local davor schreibe, ist der Fehler bei mir verschwunden.
Leider schreibt mir dann ein Programm bei einem Reboot eine weitere Zeile in meine hosts Datei, natürlich ohne dem aio.local Eintrag davor.
So wie es scheint, fehlt dem smbd Dienst der FQDN.

Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio.local aio
192.168.1.10	aio.local aio
192.168.1.11	aio.local aio

Versuche doch mal, ob so ein Eintrag bei dir den Fehler beheben würde.

LG
 
Wie wärs, einfach einen passenden DNS-Server zu betreiben, der die Namen und lokalen Domains auch kennt, die ihr so verwendet? Das ist der grundlegendste Urschleim, den ein richtiges Netz haben sollte.
 
Weiß jemand ob die 10 GbE Karte IBM 49Y4201/49Y4202 (Emulex One Connect OCe10102) unter OmniOS ohne Probleme läuft?
 
Wie wärs, einfach einen passenden DNS-Server zu betreiben, der die Namen und lokalen Domains auch kennt, die ihr so verwendet? Das ist der grundlegendste Urschleim, den ein richtiges Netz haben sollte.

Meist ist es bei den entsprechenden Konzepten ja so, dass der DNS Server eine VM ist und nach dem ESXi und dem AllInOne startet, das ist das typische Ei Henne Problem...
 
Meist ist es bei den entsprechenden Konzepten ja so, dass der DNS Server eine VM ist und nach dem ESXi und dem AllInOne startet, das ist das typische Ei Henne Problem...

Es bietet sich an, eine kleine 4W-Kiste wie ein ALIX als DNS zu betreiben. Wenn man dem ESXi keinen direkten Internetzugriff gewährt, hat man das gleiche Problem übrigens auch mit NTP. DHCP kann dann auch noch mit drauf.
 
Ich hab folgende Einträge in hosts:
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio
192.168.1.10	aio
192.168.1.11	aio

Habe mir das mal auf die schnelle angesehen mit meiner alten OmniOS VM. Was ich feststellen konnte, ist, dass meine VM den selben Fehler produziert und meine hosts Datei ähnlich wie deine aussieht.
Wenn ich in jede Zeile, in der aio steht, ein aio.local davor schreibe, ist der Fehler bei mir verschwunden.
Leider schreibt mir dann ein Programm bei einem Reboot eine weitere Zeile in meine hosts Datei, natürlich ohne dem aio.local Eintrag davor.
So wie es scheint, fehlt dem smbd Dienst der FQDN.

Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio.local aio
192.168.1.10	aio.local aio
192.168.1.11	aio.local aio

Versuche doch mal, ob so ein Eintrag bei dir den Fehler beheben würde.

Ich glaube ich hab jetzt das Problem gelöst.
In /etc/hosts muss folgendes eingetragen werden:
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	hostname.meineDomäne.local hostname
192.168.1.10	hostname.meineDomäne.local hostname
[STRIKE]192.168.1.11	hostname. meineDomäne.local hostname[/STRIKE]
192.168.1.11	hostname.meineDomäne.local hostname
und in /etc/resolv.conf noch die Einträge:
Code:
nameserver 192.168.1.1
domain meineDomäne.local
search meineDomäne.local

Jetzt kommt der Hinweis 'smbd[560]: [ID 413393 daemon.error] dyndns: failed to get domainname' nicht mehr.

Danke an Alle, die mir Hilfestellung gegeben haben.
 
Zuletzt bearbeitet:
"hostname." ist aber was ganz anderes als "hostname"

Damit definierst du für alle Programme, die Namen über /etc/hosts auflösen, mal eben eine TLD, die dem Hostnamen entspricht. Eine "Lösung" ist das beim besten Willen nicht.
 
Ich glaube ich hab jetzt das Problem gelöst.
In /etc/hosts muss folgendes eingetragen werden:
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	hostname.meineDomäne.local hostname
192.168.1.10	hostname.meineDomäne.local hostname
192.168.1.11	hostname. meineDomäne.local hostname
und in /etc/resolv.conf noch die Einträge:
Code:
nameserver 192.168.1.1
domain meineDomäne.local
search meineDomäne.local

Jetzt kommt der Hinweis 'smbd[560]: [ID 413393 daemon.error] dyndns: failed to get domainname' nicht mehr.

Danke an Alle, die mir Hilfestellung gegeben haben.

Hallo,

wenns funktioniert ok. Ohne auf das Problem ansich zu antworten:

/etc/hosts

* IP_address canonical_hostname [aliases...]
* one line per IP address
* Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")

Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	hostname.meineDomäne.local hostname << Fehler one line per IP address + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.10	hostname.meineDomäne.local hostname << Fehler canonical_hostname + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.11	hostname. meineDomäne.local hostname << Hinweis hier wird "hostname." , "meineDomäne.local" und "localhost" zu IP 192.168.1.11 aufgelöst

drei Zeilen mit hostname(alias) auch nicht richtig(glaub ich)

The domain and search keywords are mutually exclusive. If more than one instance of these keywords is present, the last instance wins.

Code:
nameserver 192.168.1.1
domain meineDomäne.local
search meineDomäne.local

Quellen: Linux man resolv.conf, man hosts. Solaris sollte aber ähnlich sein.

DNS resolver
Das Programm dig benutzt die entsprechenden clib Funktionen um einen "hostname" zur IP aufzulösen
1. Schritt: welche Resourcen stehene zur Verfügung
/etc/nsswitch.conf:
hosts: files dns
in dieser Reihenfolge

files = /etc/hosts
dns = /etc/resolv.conf

2. Schritt die Auflösung
Treffer in /etc/hosts -> erledigt
ansonsten den/die nameserver kontaktieren, wenn nötig einen fqdn(hostname + "search meineDomäne.local") bilden, auf antwort warten und je nach Antwort weiter verfahren:
leere Antwort ist kein Fehler -> der fqdn ist nicht auflösbar ist eine richtige Antwort

3. Schritt mit der Antwort was machen
Programmlogik: bei dig Ausgabe

Wenn ich einen "Nameserver als Service" betreibe muss der Rechner selber diesen "eigenen Service" nicht benutzen:
* er geht auch immer den eben beschriebenen Weg

um Ihn zu benutzen muss er in die Kette aufgenommen werden:
/etc/resolv.conf
nameserver die-ip-des-rechners
nameserver dns-proveider-ip
...
...

sobald ein Nameserver eine Antwort liefert -> das fragende Programm macht weiter.
hier ist also auch die Reihenfolge wichtig.

Wenn ich den z.B. bind nameserver konfiguriere kann ich mit:
/etc/bind.conf:
...
options {
forwarders {
192.168.1.100;
192.168.2.100;
192.168.3.100;
};
...

definieren: kann der "eigene DNS Server" nur eine leere Antwort liefern fragt bind(die DNS Software) die forwarder und liefert die Antwort.

DNS Abfragen gehen schnell.
Timeouts treten auf wenn ein nameserver nicht kontaktiert werden kann. DNS benutzt UDP. Anders als bei TCP wird der Packet-empfang nicht bestätigt vobn der Gegenseite.
Der Timeout wird abgewartet und dann der nächste in der Liste probiert ... der nächste in der Liste probiert... der nächste in der Liste.

zur Fehlermeldung:
Glaube der cifs server braucht einen nameserver welcher ein update der zonen durch den klient dynamisch zulässt (hat nichts mit dem dyndns/no-ip InternetService zu tun). Der Klient hier (omnios cifs service) möchte records dynamisch der zone hinzufügen. Windows DNS kann das.
 
Sorry, ich hab von diesem Urschleim keine Ahnung. :hail:

Dies
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio.local aio
192.168.1.10	aio.local aio
192.168.1.11	aio.local aio
hab ich aus einem obigen Vorschlag mal einfach so übernommen und

über die Ergänzung in /etc/resolv.conf bin ich im Netz 2 oder 3 Mal gestolpert und habs dann einfach mal probiert.
Code:
nameserver 192.168.1.1
domain meineDomäne.local
search meineDomäne.local

Diese Quelle hab ich noch als offenen Tab OpenIndiana: Statische Netzwerkkonfiguration | Hirnablage, die Anderen nicht mehr
Auch er setzt, wie die zwei Anderen auch, in /etc/hosts den hostname so ein:
# echo "192.168.0.11 cartman.mydom.local cartman" >> /etc/hosts[/CODE]
Deshalb hab ich Ghandalfs Vorschlag auch weiter so übernommen.

@startplus, danke für deine Erklärungen.

Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	hostname.meineDomäne.local hostname << Fehler one line per IP address + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.10	hostname.meineDomäne.local hostname << Fehler canonical_hostname + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.11	hostname. meineDomäne.local hostname << Hinweis hier wird "hostname." , "meineDomäne.local" und "localhost" zu IP 192.168.1.11 aufgelöst

Ist die Beschreibung hinter << von dir?
Denn bei der IP 192.168.1.11 ist von mir ein Schreibfehler drinne richtig geschrieben wäre '192.168.1.11 hostname.meineDomäne.local hostname'
Zeile 1 und 2 ist bei Omnios bereits in der /etc/hosts vorgegeben. Zeile 3 kann ich dann löschen?
Wie muss dann Zeile 4 und 5 richtig sein?
 
Sorry, ich hab von diesem Urschleim keine Ahnung. :hail:

Dies
Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	aio.local aio
192.168.1.10	aio.local aio
192.168.1.11	aio.local aio
hab ich aus einem obigen Vorschlag mal einfach so übernommen und

über die Ergänzung in /etc/resolv.conf bin ich im Netz 2 oder 3 Mal gestolpert und habs dann einfach mal probiert.
Code:
nameserver 192.168.1.1
domain meineDomäne.local
search meineDomäne.local


Diese Quelle hab ich noch als offenen Tab OpenIndiana: Statische Netzwerkkonfiguration | Hirnablage, die Anderen nicht mehr
Auch er setzt, wie die zwei Anderen auch, in /etc/hosts den hostname so ein:
# echo "192.168.0.11 cartman.mydom.local cartman" >> /etc/hosts[/CODE]
Deshalb hab ich Ghandalfs Vorschlag auch weiter so übernommen.

@startplus, danke für deine Erklärungen.

Code:
::1		localhost
127.0.0.1	localhost loghost
127.0.0.1	hostname.meineDomäne.local hostname << Fehler one line per IP address + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.10	hostname.meineDomäne.local hostname << Fehler canonical_hostname + Host names may contain only alphanumeric characters, minus signs ("-"), and periods (".")
192.168.1.11	hostname. meineDomäne.local hostname << Hinweis hier wird "hostname." , "meineDomäne.local" und "localhost" zu IP 192.168.1.11 aufgelöst

Ist die Beschreibung hinter << von dir?
Denn bei der IP 192.168.1.11 ist von mir ein Schreibfehler drinne richtig geschrieben wäre '192.168.1.11 hostname.meineDomäne.local hostname'
Zeile 1 und 2 ist bei Omnios bereits in der /etc/hosts vorgegeben. Zeile 3 kann ich dann löschen?
Wie muss dann Zeile 4 und 5 richtig sein?

laut Synopsis - man pages section 4: File Formats
"The hosts file has one entry for each IP address of each host. If a host has more than one IP address, it will have one entry for each, on consecutive lines."
-> Zeile 3 raus

"For a host with more than one IP address, consecutive entries for these addresses may contain the same or differing nicknames. Different nicknames are useful for assigning distinct names to different addresses."
"A “name” (Net, Host, Gateway, or Domain name) is a text string up to 24 characters drawn from the alphabet (A-Z), digits (0-9), minus sign (-), and period (.). Note that periods are only allowed when they serve to delimit components of “domain style names”. (See RFC 921, “Domain Name System Implementation Schedule,” for background). No blank or space characters are permitted as part of a name. No distinction is made between uppercase and lowercase. The first character must be an alpha character [or a digit. (RFC 1123 relaxed RFC 952's limitation of the first character to only alpha characters.)] The last character must not be a minus sign or period.

Host names must not consist of numbers only. A host name must contain at least one alphabetical or special character.

Although the interface accepts host names longer than 24 characters for the host portion (exclusive of the domain component), choosing names for hosts that adhere to the 24 character restriction will insure maximum interoperability on the Internet."
-> Zeile 4 und 5 umlaute raus

Hier steht zwar nicht ausdrücklich das man ein hostname an mehrere IPs NICHT vergeben darf, allerdings wenn man die /etc/hosts als DNS Ersatz betrachtet hätte ich Schwierigkeiten eine eindeutige revers Auflösung zu bekommen mit bind.
Appendix A: - Reverse Look-up Problem
Chapter 8 - IPv4 Address (A) Record
Chapter 8 - PTR Record

Code:
::1		localhost
127.0.0.1	localhost loghost
192.168.1.10	hostname-10.meineDomaene.local hostname-10
192.168.1.11	hostname-11.meineDomaene.local hostname-11

hier wäre das mit bind kein Problem.

/etc/resolv.conf
Synopsis - man pages section 4: File Formats

"The domain and search keywords are mutually exclusive. If more than one instance of these keywords is present, the last instance takes precedence."

aus

nameserver 192.168.1.1
domain meineDomaene.local
search meineDomaene.local

wird

nameserver 192.168.1.1
search meineDomaene.local
 
Tag Leute,

gibt es eine Möglichkeit eine ZFS Freigabe unter der zweiten Nezwerkkarte in einem anderen IP Bereich freizugeben. Hintergund: Habe im Außenbereich Überwachungskameras laufen und möchte diesen die Freigabe/Speicherplatz zur Verfügung stellen, jedoch wie gesagt in einem anderen IP Bereich.
 
Tag Leute,

gibt es eine Möglichkeit eine ZFS Freigabe unter der zweiten Nezwerkkarte in einem anderen IP Bereich freizugeben. Hintergund: Habe im Außenbereich Überwachungskameras laufen und möchte diesen die Freigabe/Speicherplatz zur Verfügung stellen, jedoch wie gesagt in einem anderen IP Bereich.

Ich denke, dass das keine Frage von ZFS ist sondern des verwendeten Servers/protokolls.
Der Solaris CIFS Server kann es nicht auf Freigabeebene sondern es ginge nur global per Firewall -
mit SAMBA könnte es aber auf Freigabeebene funktionieren.

Alternative:
Den Zugriff über ein Protokoll wie ftp auf der zweiten Karte ermöglichen/ per Firewall erlauben und alles andere blocken.
 
Hallo zusammen,

habe gestern Ubuntu 12.04 LTS mit ZFS und Napp-it eingerichtet.

Nur bin ich auf dem gebiet neu mit umfang Linux / ZFS, aber lernwillig ;)

Wie kann ich rausfinden ob meine Einstellungen bei ZFS richtig sind? habe gestern einen Pool mit z1 aus 3 2TB Platten erstellt und dann mit ZFS einen Testordner drauf gemacht, ist das so richtig?

Desweiteren habe ich noch Webmin und der Share taucht nicht im Samba Configurator auf? ist das normal?
 
Zuletzt bearbeitet:
...bei ZoL ist der CIFS-Server (noch) nicht embedded...Du brauchst, wie Du ja schon weisst SAMBA.
Das sieht aber nicht die ZFS-Folder...Du musst erst einen Mountpoint erstellen und diesen für Deinen ZFS-Folder aktivieren.
Sobald der Mountpoint existiert, kannst Du ihn über Webmin/SAMBA freigeben.

...hatte Dir in Deinem anderen Fred schonmal nen LInk gepostet, für ZFS + Ubuntu...da ist alles drin.
Auszug: http://blog.undkonsorten.com/nas-ubuntu-luks-zfs-raid-verschluesselt
Code:
In Storage können wir jetzt verschiedene Dateisysteme erstellen. Wir erstellen mal ein einfaches share
sudo zfs create storage/share

Jetzt erstellen wir noch einen Mountpoint für share:
sudo mkdir /media/share

Dieser muss noch in ZFS gesetzt werden:
zfs set mountpoint=/media/share storage/share

Sollte hier share nach dem Neustart nicht gemountet werden könnte es sich um dieses Problem handeln (ich hatte das zumindest.)

Meistens reicht ein Versionswechsel von mountall:
sudo apt-get install mountall=2.36.1-zfs1

Sollte es dann immer noch nicht gehen, mal folgendes Problem prüfen.

ZFS versucht die mapper zu mounten, die aber zu diesem Zeitpunkt noch nicht existieren. Dies konnte ich mit folgen den Änderungen beheben:
/etc/default/zfs:
ZFS_MOUNT='yes'
 
Zuletzt bearbeitet:
Ahh okay, ich hatte mich zu sehr auf napp-it versteift ;) linux ist ja Konsole ;)
 
...bei ZoL ist der CIFS-Server (noch) nicht embedded...Du brauchst, wie Du ja schon weisst SAMBA.
Das sieht aber nicht die ZFS-Folder...Du musst erst einen Mountpoint erstellen und diesen für Deinen ZFS-Folder aktivieren.
Sobald der Mountpoint existiert, kannst Du ihn über Webmin/SAMBA freigeben.

Der im Kernel eingebaute Solaris CIFS Server wird sicher nie für Linux kommen. ZOL integriert aber SAMBA soweit, dass die ZFS Share Properties funktionieren. Es genügt also zumindest grundsätzlich im napp-it im Menü ZFS Dateisysteme das SMB Sharing für ein Dateisystem zu aktivieren.
 
Für meinen Backup-Server habe ich 15 Stück 2 TB HDs (5 x SAMSUNG HD203WI und 10 x Hitachi HDS5C3020ALA632) zur Verfügung. Diese HDs verfügen nur über 512B Sektoren - also Pool kann nur Ashift=9

Wenn ich @sub.mesa im Hard-Forum richtig verstehe, spielt die Anzahl der vdevs bei 512B Platten keine Rolle - im Gegensatz zu 4k Platten.
Performance spielt bei diesem Server keine Rolle, sondern nur maximale Kapazität.
15-Disk RaidZ2 = 26 TB = max. Kapazität
15-Disk RaidZ3 = 24 TB = max. Sicherheit

Wie ist eure Meinung? Alternativ-Vorschläge?
 
Für meinen Backup-Server habe ich 15 Stück 2 TB HDs (5 x SAMSUNG HD203WI und 10 x Hitachi HDS5C3020ALA632) zur Verfügung. Diese HDs verfügen nur über 512B Sektoren - also Pool kann nur Ashift=9

Der Pool kann auch ashift=12, und womöglich solltest du das erzwingen. Tauscht du eines Tages 4K-Platten rein, werden die bei korrekter Erkennung keinen 9er mögen ;)

15 Disks auf einen Haufen ist schon ne Menge. Da du Performance ansprichst, wäre ein Split auf zwei kleinere zusammengehängte Pools vielleicht schlauer. Obendrein mischst du ja recht alte HD203WI (500GB-Platter) mit neueren Hitachis (600GB-Platter), im Average liegen die beiden Typen 20 MB/s auseinander. Aus fünf Disks nen Pool mit mindestens Z2 zu bauen ist halt ein wenig verschwenderisch, wohingegen ich bei nem 10er keine Probleme hätte. Für 10 ist Z2 halt nett, für Z3 sollens 11 Disks sein.

...ich würd eine Samsung verkloppen und gegen ne weitere Hitachi tauschen, aus den 11 dann nen Z3-Pool bauen, und mir dann überlegen, was ich mit den restlichen Samsungs anstelle. Vielleicht kannste ja nen separaten Mirror-Stripe-Pool gebrauchen ;)
 
Für meinen Backup-Server habe ich 15 Stück 2 TB HDs (5 x SAMSUNG HD203WI und 10 x Hitachi HDS5C3020ALA632) zur Verfügung. Diese HDs verfügen nur über 512B Sektoren - also Pool kann nur Ashift=9

Wenn ich @sub.mesa im Hard-Forum richtig verstehe, spielt die Anzahl der vdevs bei 512B Platten keine Rolle - im Gegensatz zu 4k Platten.
Performance spielt bei diesem Server keine Rolle, sondern nur maximale Kapazität.
15-Disk RaidZ2 = 26 TB = max. Kapazität
15-Disk RaidZ3 = 24 TB = max. Sicherheit

Wie ist eure Meinung? Alternativ-Vorschläge?

Ein zpool besteht aus mindestens einem vdev. Ein vdev besteht mindestens aus einem Blockdevice(oder partition, file etc.).
Ein vdev kann als disk, mirror, raid-z* konfiguriert werden.

... spielt die Anzahl der vdevs bei 512B Platten keine Rolle ...
müsste heissen:
... spielt die Anzahl der Platten eines vdevs bei Verwendung von 512B Platten keine Rolle ...

was gegen die Verwendung von vielen Platten in einem vdev spricht:

IOPS performance of a ZFS storage pool can suffer if the ZFS raid is not appropriately configured. This applies to all types of RAID, in one way or another. If the zpool consists of only one group of disks configured as, say, eight disks in raidz2, then the write IOPS performance will be that of a single disk. However, read IOPS will be the sum of eight individual disks. This means, to get high write IOPS performance, the zpool should consist of several vdevs, because one vdev gives the write IOPS of a single disk. However, there are ways to mitigate this IOPS performance problem, for instance add SSDs as ZIL cache — which can boost IOPS into 100.000s.[59] In short, a zpool should consist of several groups of vdevs, each vdev consisting of 8–12 disks. It is not recommended to create a zpool with a single large vdev, say 20 disks, because write IOPS performance will be that of a single disk, which also means that resilver time will be very long (possibly weeks with future large drives).

ZFS - Wikipedia, the free encyclopedia

Ist also eher eine Abwegung zwischen max. Kapazität und Datensicherheit.
 
Der Pool kann auch ashift=12, und womöglich solltest du das erzwingen. Tauscht du eines Tages 4K-Platten rein, werden die bei korrekter Erkennung keinen 9er mögen ;)

Du beziehst dich auf ZFS and Advanced Format disks - illumos - illumos wiki
Ich hab bei meinem AIO auch 3 Stk. von den alten HDDs drinne, dort hab ich die '/kernel/drv/sd.conf' bearbeitet und der Pool ist ashift=9. Deshalb hab ich es bei dem Backup-Server erst gar nicht mehr versucht.

Aber du hast Recht, die beiden Platten können auch ashift=12.
Ein kleiner Tipfehler - große Wirkung - Ich hatte am Ende der ersten Zeile ein ';' gemacht, anstatt ein ',' :fire:
Code:
sd-config-list =
	"ATA     SAMSUNG HD203WI ", "physical-block-size:4096",
	"ATA     Hitachi HDS5C302", "physical-block-size:4096";
Jetzt ist ashift=12 gesetzt. :love:
Nur bringt das jetzt etwas? Mir geht jetzt die Flexibilität in der Anzahl der HDD pro Pool verloren.
Ein tauschen gegen Größere macht bei der Pool-Konstellation keinen Sinn, sondern nur zerstören und neu aufbauen.
15 Disks auf einen Haufen ist schon ne Menge. Da du Performance ansprichst, wäre ein Split auf zwei kleinere zusammengehängte Pools vielleicht schlauer. Obendrein mischst du ja recht alte HD203WI (500GB-Platter) mit neueren Hitachis (600GB-Platter), im Average liegen die beiden Typen 20 MB/s auseinander. Aus fünf Disks nen Pool mit mindestens Z2 zu bauen ist halt ein wenig verschwenderisch, wohingegen ich bei nem 10er keine Probleme hätte. Für 10 ist Z2 halt nett, für Z3 sollens 11 Disks sein.

...ich würd eine Samsung verkloppen und gegen ne weitere Hitachi tauschen, aus den 11 dann nen Z3-Pool bauen, und mir dann überlegen, was ich mit den restlichen Samsungs anstelle. Vielleicht kannste ja nen separaten Mirror-Stripe-Pool gebrauchen ;)

JEP, ist halt ein Sammelsurium aus verschiedenen PCs und Server - aber für einen Backup-Server taugen sie noch. Performance spielt eigentlich keine Rolle, der Pool wird per replicate-job gefüllt und das wars. Einen regelmäßigen scrub werde ich vergessen können - der wird Tage/Wochen dauern.
Festplatten verkloppen ist nicht so prickelnd - man weis nie in welche Hände die kommen.

Was wäre denn bei 4k die Steigerung nach 10 Stk. bei RaidZ2? Müsste doch 18 Stk sein.
18-disk RAID-Z2 = 128 / 16 = 8KiB
Da lass ich doch besser ashift=9??

---------------------------------------------
Bei Stöbern zu obigem Thema bin ich auf dieser Seite gelandet: List of sd-config-list entries for Advanced-Format drives - illumos - illumos wiki
Hier ist u.a. die Samsung SSD 840 aufgeführt. Diese SSD setze ich für Omnios ein - also rpool. rpool ist momentan auf ashift=9.
Wenn ich jetzt die sd.conf ändere, ändert sich ja nicht die Block-Size von rpool.
Wie ist hier die Vorgehensweise?? Kann Dies gleich bei der Installation gesetzt werden??
 
Festplatten verkloppen ist nicht so prickelnd - man weis nie in welche Hände die kommen.
Man könnte sie ja vorher löschen ;) (es sind ja keine SSDs...)
Ich hab eher andersrum ein Problem damit: In welchen Händen waren sie denn schon?

Was wäre denn bei 4k die Steigerung nach 10 Stk. bei RaidZ2? Müsste doch 18 Stk sein.
18-disk RAID-Z2 = 128 / 16 = 8KiB
Da lass ich doch besser ashift=9??

Vermutlich 18, ja, und das ist dann doch etwas übertrieben.
Ich seh aber grade nicht, wo da schon das Problem mit dem ashift ist. Bei der Recordsize ist man ja dennoch bei 8K.
Wenn du halt auf Pool-Lebensdauer sicherstellen kannst, dass du da nie nie nie ein 4K-Laufwerk reintauschen wirst (bei der Menge Laufwerke wird irgendwann ja eins ausfallen), dann ists ja an sich egal. Aber eine 512B-emulierende Platte mit Anfragen auf schiefen Sektorzahlen zu bombardieren kann halt zum Performance-GAU führen. Und wenns denn irgendwann mal native 4K-Laufwerke im Massenmarkt gibt, wärs ganz aus.
 
Ich sehe das auch so, der entscheidende Punkt ist:
Wenn irgendwann eine Platte in einem ashift=9 vdev (ashift ist eine vdev Eigenschaft, keine Pooleigenschaft) kaputtgeht, muss sie ersetzt werden. Momentan gibt es noch vereinzelt 512B Platten zum Kaufen. In naher Zukunft wohl nicht mehr. Dann muss der komplette Pool neu gemacht werden da in einem ashift=9 vdev eine defekte Platte NICHT durch eine 4k Platte ersetzt werden kann.

Ich würde allein deshalb die vdevs mit ashift=12 anlegen - auch wenn bei nicht optimaler Anzahl von Datenplatten (2,4,8,16,..) je Raid-Z ein "extra Verschnitt" bei allen Dateien anfällt und damit die Nutzkapazität etwas sinkt. Performancemäßig hat das keine Auswirkung und mit jeder Platte steigt die Kapazität - wenn auch nicht um die vollen 2TB.
 
Zuletzt bearbeitet:
Ich hab eher andersrum ein Problem damit: In welchen Händen waren sie denn schon?
Die HDDs waren in den verschiedensten PCs und Datenserver innerhalb der Familie eingebaut. Jetzt haben alle eine SSD fürs BS und die Daten liegen gesammelt auf AIO oder Datengrab.
Die Anspielung versteh ich nicht ganz - was willste mir denn damit sagen?

Vermutlich 18, ja, und das ist dann doch etwas übertrieben.
Ich seh aber grade nicht, wo da schon das Problem mit dem ashift ist. Bei der Recordsize ist man ja dennoch bei 8K.
Wenn du halt auf Pool-Lebensdauer sicherstellen kannst, dass du da nie nie nie ein 4K-Laufwerk reintauschen wirst (bei der Menge Laufwerke wird irgendwann ja eins ausfallen), dann ists ja an sich egal. Aber eine 512B-emulierende Platte mit Anfragen auf schiefen Sektorzahlen zu bombardieren kann halt zum Performance-GAU führen. Und wenns denn irgendwann mal native 4K-Laufwerke im Massenmarkt gibt, wärs ganz aus.

Ich sehe das auch so, der entscheidende Punkt ist:
Wenn irgendwann eine Platte in einem ashift=9 vdev (ashift ist eine vdev Eigenschaft, keine Pooleigenschaft) kaputtgeht, muss sie ersetzt werden. Momentan gibt es noch vereinzelt 512B Platten zum Kaufen. In naher Zukunft wohl nicht mehr. Dann muss der komplette Pool neu gemacht werden da in einem ashift=9 vdev eine defekte Platte NICHT durch eine 4k Platte ersetzt werden kann.

Ich würde allein deshalb die vdevs mit ashift=12 anlegen - auch wenn bei nicht optimaler Anzahl von Datenplatten (2,4,8,16,..) je Raid-Z ein "extra Verschnitt" bei allen Dateien anfällt und damit die Nutzkapazität etwas sinkt. Performancemäßig hat das keine Auswirkung und mit jeder Platte steigt die Kapazität - wenn auch nicht um die vollen 2TB.

Eure Argumente leuchten mir ein - werde deshalb den Pool mit ashift=12 anlegen.
Mit der sinkenden Nutzkapazität muss ich halt momentan leben. Neue Platten kaufen ist momentan nicht drin - sonst steigt mir meine GöGa aufs Dach. :rolleyes:
 
Die HDDs waren in den verschiedensten PCs und Datenserver innerhalb der Familie eingebaut. Jetzt haben alle eine SSD fürs BS und die Daten liegen gesammelt auf AIO oder Datengrab.
Die Anspielung versteh ich nicht ganz - was willste mir denn damit sagen?

Siehste, dann weißt du ja, was du kriegst. Aber hol dir mal ne gebrauchte in der Bucht, da weißt du es nicht. Von Amazon gekauft (selbstverständlich OEM-Ware), in Bücherverpackung verschickt, und der hat sich nix dabei gedacht und sie angenommen. Betrieb bei 70°C im Kleinstrechner, der zwar immer nur 2h am Stück läuft, aber dafür vier Mal am Tag den Heizzyklus mitmacht. Mit Plastikpulli und vor statischer Aufladung stehenden Haaren ein- und ausgebaut. Und vorm Verpacken nochmal unsanft aufm Tisch aufgesetzt. eBay-Bewertungen: 10000 als Verkäufer, mit 100% positiv, handelt ansonsten aber nur mit Briefmarken.
Hier im Forum ists wohl tendenziell besser, aber vor Chaoten ist man ja nie sicher...
 
Bei Stöbern zu obigem Thema bin ich auf dieser Seite gelandet: List of sd-config-list entries for Advanced-Format drives - illumos - illumos wiki
Hier ist u.a. die Samsung SSD 840 aufgeführt. Diese SSD setze ich für Omnios ein - also rpool. rpool ist momentan auf ashift=9.
Wenn ich jetzt die sd.conf ändere, ändert sich ja nicht die Block-Size von rpool.
Wie ist hier die Vorgehensweise?? Kann Dies gleich bei der Installation gesetzt werden??

Ich hatte obiges gefragt.
Geht eine Nach-Installation Änderung von ashift=9 auf ashift=12?
Kann diese 'Option' schon bei der Installation irgendwie gesetzt werden?

Siehste, dann weißt du ja, was du kriegst. Aber hol dir mal ne gebrauchte in der Bucht, da weißt du es nicht. Von Amazon gekauft (selbstverständlich OEM-Ware), in Bücherverpackung verschickt, und der hat sich nix dabei gedacht und sie angenommen. Betrieb bei 70°C im Kleinstrechner, der zwar immer nur 2h am Stück läuft, aber dafür vier Mal am Tag den Heizzyklus mitmacht. Mit Plastikpulli und vor statischer Aufladung stehenden Haaren ein- und ausgebaut. Und vorm Verpacken nochmal unsanft aufm Tisch aufgesetzt. eBay-Bewertungen: 10000 als Verkäufer, mit 100% positiv, handelt ansonsten aber nur mit Briefmarken.
Hier im Forum ists wohl tendenziell besser, aber vor Chaoten ist man ja nie sicher...

Bin ein paar Mal in der Bucht angegangen und jetzt wird dort überhaupt nichts mehr gekauft. Gestehe aber HDDs schon bei Amazon direkt gekauft zu haben, die waren aber doppelt verpackt im Versandkarton und nicht in einer Bücherverpackung. I.d.R. kaufe ich sie aber bei Alternate, Mix, Mindfactory u.a. verteilt, dass ich aus mehreren verschiedenen Chargen bekomme.
 
Da bin ich ja froh, 2 konkurrenzfähige PC-Läden in der Nähe zu haben, die bei Geizhals recht weit oben vertreten sind; spart man sich die Belastung durch Versand einmal. :)
 
Bei Stöbern zu obigem Thema bin ich auf dieser Seite gelandet: List of sd-config-list entries for Advanced-Format drives - illumos - illumos wiki
Hier ist u.a. die Samsung SSD 840 aufgeführt. Diese SSD setze ich für Omnios ein - also rpool. rpool ist momentan auf ashift=9.
Wenn ich jetzt die sd.conf ändere, ändert sich ja nicht die Block-Size von rpool.
Wie ist hier die Vorgehensweise?? Kann Dies gleich bei der Installation gesetzt werden??

Da wirst Du in den Installationsprozess eingreifen müssen, eine ähnliche Fragestellung fand ich mal in diesem diesem Thread bzgl. lz4-compression bei der rpool-Installation.

EDIT: Soll heissen, wenn Du die /kernel/drv/sd.conf schon vor Anlage des rpools im Installationsprozess mit den "sd-config-list ="-Einträgen versorgst, sollte die Anlage des rpools anschliessend mit der korrekten physical-block-size erfolgen.

Und noch etwas: In Deinem Link ist die Samsung SSD 840 (die habe ich auch im Einsatz) mit einer physical-block-size von 8192 Bytes aufgeführt, also ashift=13...

Grüße
zOS
 
Zuletzt bearbeitet:
Das ist eigentlich auch ne interessante Sache. Meldet die das korrekt durch? Sprich: Disqualifiziert die sich ggf. durch ihre ehrlichen Angaben bei irgendwelchen Anwendungen?

Quälen würd ich die mit 12er ashift schon, bei meiner wenig anspruchsvollen Datenhaltung. 8K-SSDs mit 4K-IOPS zuzuballern ist immerhin noch zwei bis drei Ecken fixer als HDDs mit 512B-IOPS oder gar 512Be mit falschem Align anzusprechen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh