[Sammelthread] ZFS Stammtisch

Ein ZFS snapshot ist immer wie "Stand der Festplatte bei einem plötzlichen Stromausfall".
Manche VM's mögen das garnicht und auch offene Dateien können beschädigt sein.

Ich weiss nicht was Xenserver dazu anbieteten.
Bei ESXi mache ich bei kritischen Sachen immer erst einen ESXi Hotsnap und dann einen ZFS snap um anschließend den ESXi snap zu löschen (ESXi wird mit jedem Snap langsamer). Bei einem Zurückgehen auf den ZFS snap kann man anschließen den ESXi hotsnap incl. Speicherstatus wiederherstellen.

Alternativ müßten die VM's offline sein oder in einen Status gehen der Snapsicher ist.

ps
Ich benutze statt iSCSI nur noch NFS da ich hierbei einen Zugriff auf einzelne Dateien und deren snaps habe. Wenn man das Share nicht nur per NFS sondern noch per CIFS freigibt, hat man sogar Zugriff auf die Dateien und deren Vorversionen von Windows aus.

Die Geschwindigkeit von NFS und iSCSI ist ziemlich identisch.

Das geht mit Xenserver glaub ich auch oder ähnlich. Werde das morgen mal probieren, weil heute ... - The specified storage repository has insufficient space ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hardware ist da

Es ist jetzt folgender Server geworden:

Supermicro | Products | SuperServers | 3U | 6037R-E1R16N

+ 2x Rear Hot-swap 2.5" Drive Bays
+ 2x Xeon(R) CPU E5-2603 0 @ 1.80GHz
+ 4 x 16GByte RAM
+ 16 x Seagate Constellation ES 1000GB, SATA 6Gb/s (ST1000NM0011)

- LSI 2108 SAS2 RAID wurde ersetzt durch
+ IBM M1015 card ist jetzt LSI in IT-Mode

@zfs:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ CAP DEDUP HEALTH ALTROOT
data-pool 7.25T 124G 7.13T - 1% 1.00x ONLINE -

@zfs:~# zpool status
pool: data-pool
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
data-pool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c3t5000C50041AACD77d0 ONLINE 0 0 0
c3t5000C50041AADDCFd0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c3t5000C50041AB721Bd0 ONLINE 0 0 0
c3t5000C50041AB9E8Fd0 ONLINE 0 0 0
mirror-2 ONLINE 0 0 0
c3t5000C50041ABC347d0 ONLINE 0 0 0
c3t5000C50041ABDFBFd0 ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
c3t5000C50041ABE86Fd0 ONLINE 0 0 0
c3t5000C50041ABF6A7d0 ONLINE 0 0 0
mirror-4 ONLINE 0 0 0
c3t5000C50041ABF84Fd0 ONLINE 0 0 0
c3t5000C50041AC0F3Bd0 ONLINE 0 0 0
mirror-5 ONLINE 0 0 0
c3t5000C50041AC1A5Fd0 ONLINE 0 0 0
c3t5000C50041AC1C0Bd0 ONLINE 0 0 0
mirror-6 ONLINE 0 0 0
c3t5000C50041AC2527d0 ONLINE 0 0 0
c3t5000C50041AC279Fd0 ONLINE 0 0 0
mirror-7 ONLINE 0 0 0
c3t5000C50041AC31C3d0 ONLINE 0 0 0
c3t5000C50041AC3D77d0 ONLINE 0 0 0

Eine Xenserver(HP DL360G7) VM 'Windows Server 2008 R2' 1vcpu, 150 Gbyte Platte(auf 200 GByte iscsi Storage), 4096 MByte RAM

bringt folgendes:

mit zfs set sync=standard data-pool
mit-sync.jpg

mit zfs set sync=disabled data-pool
ohne-sync.jpg

Ich würde das gerne weiter optimieren - das Ergebniss mit sync=standard.
Habe noch 3 PCI-E 3.0 X16 Steckplätze zur Verfügung. Könnte auch noch 4 SATA - SSD's - anschliessen. Die müssten allerdings irgendwie im Gehäuse befestigt werden...
 
Ich würde das gerne weiter optimieren - das Ergebniss mit sync=standard.
Habe noch 3 PCI-E 3.0 X16 Steckplätze zur Verfügung. Könnte auch noch 4 SATA - SSD's - anschliessen. Die müssten allerdings irgendwie im Gehäuse befestigt werden...

Wenn die Sicherheit von Sync writes nötig ist, es aber die Geschwindigkeit von sync=disabled haben soll, dann muss ein ZIL mit geringer Latenz und guten Schreibwerten her, eines das diese Werte auch nach dem Warmlaufen noch hat.

Leider müssen da SSD praktisch alle passen (Obwohl sie schon etwas bringen ohne aber gut zu sein).
Richtig gut ist nur etwas RAM-basiertes wie (leider teuer) The SSD Company - STEC - ZeusRAM Solid State Drive, High Performance Enterprise Storage Solutions oder www.ddrdrive.com/zil_accelerator.pdf
 
Zuletzt bearbeitet:
AFP und napp-it

Eine Frage zu AFP mit napp-it.

ich habe heute zum Test von AFP (netatalk V3) eine Solaris 11 mit napp-it und afp aufgesetzt. Nun wollte ich einige Test mit AFP machen. Ich habe ein ZFS Folder zum Test erzeugt und den AFP Share aktiviert. Anschließend kann ich mit meinem Mac Daten auf den AFP-Share kopieren und Ordner erzeugen etc. Die kopierten Files kann ich aber nicht löschen da mir scheinbar Rechte fehlen. Die mit dem Finder erzeugten Ordner kann ich aber löschen?? Der Hinweis im Dialog 'set nbmand to off' funktioniert nicht, weder über den Dialog noch als Kommando in der Shell, anschließend steht nbmand wieder auf on. Ich benutze schon 2-3 Jahre eine ältere Version von netatalk dort gibt es diese Probleme nicht. Was mache ich da falsch??
 
Eine Frage zu AFP mit napp-it.

ich habe heute zum Test von AFP (netatalk V3) eine Solaris 11 mit napp-it und afp aufgesetzt. Nun wollte ich einige Test mit AFP machen. Ich habe ein ZFS Folder zum Test erzeugt und den AFP Share aktiviert. Anschließend kann ich mit meinem Mac Daten auf den AFP-Share kopieren und Ordner erzeugen etc. Die kopierten Files kann ich aber nicht löschen da mir scheinbar Rechte fehlen. Die mit dem Finder erzeugten Ordner kann ich aber löschen?? Der Hinweis im Dialog 'set nbmand to off' funktioniert nicht, weder über den Dialog noch als Kommando in der Shell, anschließend steht nbmand wieder auf on. Ich benutze schon 2-3 Jahre eine ältere Version von netatalk dort gibt es diese Probleme nicht. Was mache ich da falsch??


Ist mir auch schon aufgefallen.
das setzen von nbmand erfordert anschließend einen unmount/mount Zyklus

zfs unmount -f zfs
zfs mount zfs

ist im nächsten napp-it enthalten
 
Ist mir auch schon aufgefallen.
das setzen von nbmand erfordert anschließend einen unmount/mount Zyklus

zfs unmount -f zfs
zfs mount zfs

ist im nächsten napp-it enthalten

Super, das war's. Vielen Dank!

Kleine Info am Rande:
Wenn ich mit napp-it 8k unter 'ZFS-Folder' AFP aktivieren möchte fliegt ein Fehler, es funktioniert aber trotzdem, AFP mit oder ohne Timemachine funktioniert tadellos:

---------
oops...
Could not proceed due to an error. Please try again later or ask your sysadmin.
Maybee a reboot after power-off may help.

(726) write-error:
---------

Vielleicht ein Bug? Gibt's ein log in dem ich nach schauen kann was los ist?
 
Vielleicht ein Bug? Gibt's ein log in dem ich nach schauen kann was los ist?

Nein ein Log gibt es bei Schreibfehlern nicht, nur die Fehlermeldung.
Bei Anlegen eines netatalk-shares wird aber lediglich die AFP Konfiguration geändert.

ps
Einen derartigen Fehler habe ich bei mir nicht.
Netatalk3 ist aber richtig neu. Je nach Vorkonfiguration kann ich da schon noch etwas übersehen haben.
(Vermutlich mit der Bonjour Konfiguration falls es ansonsten funktioniert)
 
Hallo Ihr,

möchte meinen ZFS-Server (OpenIndiana) für das Backup per Inifiniband anbinden. Hat schon jemand Openfabrics Treiber unter OI installiert? Geht das überhaupt?
Im Ernstfall würde ich dafür eine WindowsVM generieren und, da die vSwitche intern mit 10Gb arbeiten, filebasiert über SMB-Shares arbeiten müssen.
 
Nein ein Log gibt es bei Schreibfehlern nicht, nur die Fehlermeldung.
Bei Anlegen eines netatalk-shares wird aber lediglich die AFP Konfiguration geändert.

ps
Einen derartigen Fehler habe ich bei mir nicht.
Netatalk3 ist aber richtig neu. Je nach Vorkonfiguration kann ich da schon noch etwas übersehen haben.
(Vermutlich mit der Bonjour Konfiguration falls es ansonsten funktioniert)

Besten Dank! Zu Deiner Info, ich habe folgende Version im Einsatz:

Name: entire
Summary: entire incorporation including Support Repository Update (Oracle Solaris 11 11/11 SRU 9.5).
Category: Meta Packages/Incorporations
State: Installed
Publisher: solaris
Version: 0.5.11 (Oracle Solaris 11 SRU 9.5)
Build Release: 5.11
Branch: 0.175.0.9.0.5.0
Packaging Date: 5. Juli 2012 18:23:03 Uhr
Size: 5.45 kB
FMRI: pkg://solaris/entire@0.5.11,5.11-0.175.0.9.0.5.0:20120705T182303Z
 
Hallo Ihr,

möchte meinen ZFS-Server (OpenIndiana) für das Backup per Inifiniband anbinden. Hat schon jemand Openfabrics Treiber unter OI installiert? Geht das überhaupt?
Im Ernstfall würde ich dafür eine WindowsVM generieren und, da die vSwitche intern mit 10Gb arbeiten, filebasiert über SMB-Shares arbeiten müssen.

Infiniband driver / Software

# pkg install vim@latest
# pkg install pkg://isv.com/developer/isvtool

None -> pkg://openindiana.org/driver/network/hermon@0.5.11,5.11-0.151.1.5:20120630T193056Z
None -> pkg://openindiana.org/driver/network/ibdma@0.5.11,5.11-0.151.1.5:20120630T193102Z
None -> pkg://openindiana.org/driver/network/sdp@0.5.11,5.11-0.151.1.5:20120630T193135Z
None -> pkg://openindiana.org/driver/network/sdpib@0.5.11,5.11-0.151.1.5:20120630T193135Z
None -> pkg://openindiana.org/driver/network/ibp@0.5.11,5.11-0.151.1.5:20120630T193103Z
None -> pkg://openindiana.org/system/network/spdadm@0.5.11,5.11-0.151.1.5:20120630T200107Z
None -> pkg://openindiana.org/driver/network/rpcib@0.5.11,5.11-0.151.1.5:20120630T193130Z


dladm show-phys
dladm show-ib
#
# Port muss up sein !! opensm irgendwo starten
#
dladm create-part -l ibp0 -P 0xFFFF pFFFF.ibp0
ifconfig pFFFF.ibp0 plumb
ifconfig pFFFF.ibp0 192.168.1.50/24 up
echo "192.168.1.50/24" > /etc/hostname.pFFFF.ibp0

ENDE

Zusatz:

Ob Du die Treiber alle brauchst - kommt drauf an was du machen willst. Port up heißt: Der Adapter muss mit einem Kabel mit einem anderem Adapter verbunden sein. Auf dem anderen Rechner sollte dann opensm laufen. Die Option mit dem FFFF entnimmt man der Ausgabe von PKEYS dladm show-ib.
 
Zuletzt bearbeitet:
So,

jetzt hab ich endlich eine Konfig gefunden, die was taugt.

Als Software will ich Solaris11 und Napp-It verwenden.
So kann ich die in ZFS eingebaute Verschlüsselung für Folder problemlos verwenden.
Das funktioniert echt gut.
Jetzt zu den Problemen:
-Nach einem Neustart ist der verschlüsselte und über SMB freigegebne Ordner nich über SMB verfügbar.
(der Folder wurde natürlich vorher verschlüsselt ;) )
Bei Napp-It wird aber unter der Folderverwaltung der Freigabename mit angezeigt.
Wenn ich nun noch mal den Folder freigebe, ist er sofort über SMB ansprechbar.
Ist das nur eine Einstellungssache, oder muss man das via skript erledigen?


Als Hardware hab ich ein Zotac H55 mit nem I5 und AES-NI.
8GB RAM(kein ECC, ich weiß), 6 Sata(Intel) und 1 E-Sata(JMicron JMB360).

Jetzt will ich 6 HDDs für mein Storage nehmen brauche aber noch ne Bootplatte.
Entweder ich versuche den E-Sata nach innen zu verlegen oder ich kauf mir ne SSD für Mini PCI-E.

Hat jemand schon mal ähnliches versucht und den JMB360 oder ne SSD über Mini PCI-E, mit Solaris zum laufen gebracht?


MFG

Josch
 
Zuletzt bearbeitet:
Ich möchte heute unter OpenIndiana 151a5 auf 4 neue Platten zfs installieren und habe gelesen, dass dort die Pool Version 5000 aktuell ist. Ich hätte natürlich gerne die alte Version 28, damit ich offen für Upgrades bin. Wie stelle ich das am geschicktesten an? Zuerst unter OI 151a4 booten, dann zpool ausführen und danach auf OI 151a5 upgraden (und den zpool v28 beibehalten)? Muss man heutzutage bei 4kb-Platten immer noch das ashift=12 beachten, oder ist das inzwischen integriert (ich verwende die ganze Platte raw, also keine Partitionen)?

Kleines Update: Ich habe den neuen pool mit OI 151a3 erstellt. ashift=12 wurde automatisch gesetzt:

Eine kleine Frage zu napp-it all-in-one: Angenommen man macht diese Lösung mit ESXi + OI + napp-it, würdet Ihr den LAMP-Stack direkt auf der OI-Maschine laufen lassen (mit mehr Zuweisung von RAM) oder getrennt z.B. als Debian-VM unter ESXi virtualisieren?
 
Zuletzt bearbeitet:
Ich möchte heute unter OpenIndiana 151a5 auf 4 neue Platten zfs installieren und habe gelesen, dass dort die Pool Version 5000 aktuell ist. Ich hätte natürlich gerne die alte Version 28, damit ich offen für Upgrades bin. Wie stelle ich das am geschicktesten an? Zuerst unter OI 151a4 booten, dann zpool ausführen und danach auf OI 151a5 upgraden (und den zpool v28 beibehalten)?

Egal.
Beim Anlegen eines Pools mit napp-it kann man die Version angeben

Muss man heutzutage bei 4kb-Platten immer noch das ashift=12 beachten, oder ist das inzwischen integriert (ich verwende die ganze Platte raw, also keine Partitionen)?

Kleines Update: Ich habe den neuen pool mit OI 151a3 erstellt. ashift=12 wurde automatisch gesetzt:

Neuere 4k Platten melden die korrekte Anzahl der physikalischen Sektoren.
Ältere Platten (z.B. WD EARS) müssen manuell angepaßt werden (Napp-it Menü disk-details-edit sd.conf)

Eine kleine Frage zu napp-it all-in-one: Angenommen man macht diese Lösung mit ESXi + OI + napp-it, würdet Ihr den LAMP-Stack direkt auf der OI-Maschine laufen lassen (mit mehr Zuweisung von RAM) oder getrennt z.B. als Debian-VM unter ESXi virtualisieren?

ZFS snaps sind schon fein.
Ich würde bei einem Testserver daher einfach XAMPP mit installieren.
Bei einer größeren Installation eventuell auf einem weiteren virtuellen Solaris oder in einer Zone.

Alternativ Debian VM, aber dann gibt es halt keine filebasierten (Ausnahme via NFS) ZFS snapshots sondern nur VM/Disk -basierte restore/ clones.
 
Hallo Gea,

darf ich nochmals auf mein Problem zurückkommen, das bei mir das Nappit permenent abstürzt. Ich mache es mir dann einfach und starte dann mit etc/init.d/napp-it restart alles neu. Beim Absturz bekomme ich auf der Console folgende Meldung "accept: Software caused connection abort".
Das passiert sogar dann, wenn ich mit Nappit einfach nur einen Cronsjob kreieren möchte. Ich habe die Vermutung, immer wenn Last auf den Server, sprich Plattenaktivität herrscht.
Ein Freund von mir hat sein OI mit der neuesten Liveversion neu installiert, danach sofort Nappit 0.8k installiert, also nicht so wie ich ein Update von 0.6 auf 0.8. Trotzdem kann er das gleiche beobachten.
Mit den alten Versionen <0.7 hatten wir diese Probleme nicht. Hast Du eine Idee, wonach wir schauen sollten?
Hardware und Installation laut Deinem Handbuch, siehe Signatur. ESXi ist die Version 5.0U1

Gruß Millenniumpilot
 
Hallo Gea,

darf ich nochmals auf mein Problem zurückkommen, das bei mir das Nappit permenent abstürzt. Ich mache es mir dann einfach und starte dann mit etc/init.d/napp-it restart alles neu. Beim Absturz bekomme ich auf der Console folgende Meldung "accept: Software caused connection abort".
Das passiert sogar dann, wenn ich mit Nappit einfach nur einen Cronsjob kreieren möchte. Ich habe die Vermutung, immer wenn Last auf den Server, sprich Plattenaktivität herrscht.
Ein Freund von mir hat sein OI mit der neuesten Liveversion neu installiert, danach sofort Nappit 0.8k installiert, also nicht so wie ich ein Update von 0.6 auf 0.8. Trotzdem kann er das gleiche beobachten.
Mit den alten Versionen <0.7 hatten wir diese Probleme nicht. Hast Du eine Idee, wonach wir schauen sollten?
Hardware und Installation laut Deinem Handbuch, siehe Signatur. ESXi ist die Version 5.0U1

Gruß Millenniumpilot

Ich nehme den minihttpd Webserver jetzt mehr als 2 Jahre. Vor gut einem Jahr hatte ich auch kurz Stabilitätsprobleme, ohne das ich die Ursache feststellen konnten. Ich hatte mir damals durchaus überlegt auf einen anderen Webserver zu wechseln (Apache möchte ich für Anwendungen frei halten). Mit neueren OI Updates verschwand das aber wieder und im Moment kann ich selber kein Problem feststellen. (Es ist schon Monate her, dass mir minihttpd das letzte Mal abgestürzt ist).

Auf der anderen Seite ist die Hardware ziemlich üblich (Ich habe selber ein X8 SIL-F, IBM 1015 als 9211 im IT-mode und die gleichen Hitachis) so dass es daran nicht liegen kann (Einzig Active Powermanagement, das muss im Bios ausgeschaltet sein). Ich gehe auch davon aus, dass OI wenigstens auf 151.a3 ist.

Einen richtigen Tipp habe ich daher nicht.
Ein workaround wäre allenfalls ein Job, der regelmäßig schaut ob minihttpd noch läuft und ihn bei Bedarf neu startet - oder eben ein anderer Webserver. Das verhindert aber wget updates und ist daher nicht zu empfehlen.

Ansonsten ist 0.7 und 0.8 in den Hintergrunddiensten sehr ähnlich.
Da sollte es eigentlich keinen Unterschied geben.

Eventuell noch statt e1000 vmxnet3 oder umgekehrt probieren
sowie nur 1 oder 2 vcpu zuweisen.
 
Zuletzt bearbeitet:
Hallo Gea,

dank für Deine Rückmeldung.OI ist aktuell auf 151.a5. Zugewiesen sind nur 2vcpus. Ich bin direkt von der 0.6 auf die 0.8 gewechselt, die 0.7 hatte ich ausgelassen. Ab und an kann ich nicht mal einen Menüpunkt aufrufen. Anmelden geht, dann beim nächsten Klick ist die Seite weg. Ich werde jetzt anstatt des verwendeten vmnet3 die e1000 verwenden. Habe im log tausende Meldungen der Art "vmxnet3s:0: getcapab(0x200000) -> no", scheint ein bekanntes Problem zu sein. Über die Auswirkungen bin ich mir nicht im klaren, netzwerktechnisch konnte ich bisher keine Probleme erkennen. Eventuell hängts ja damit zusammen. Versuch macht klug. Ich gebe dann Bescheid.
 
Hallo Gea,

zum Interfacetest bin ich leider noch nicht gekommen, habe aber ein weiteres kleines Schönheitsproblem gefunden.
Ich habe zusätzliche Platten in die Powerconf eingetragen, damit diese sich schlafen legen. Dabei habe ich die PlattenID anstatt wie früher per Formatbefehl diesmal aus der Übersicht der SAS2-Extension entnommen. Das hier die Buchstaben groß geschrieben sind, habe ich nicht für voll genommen, die Platten legten sich aber damit nicht schlafen. Wird also doch wie üblich alles Casesensitiv sein. Gibt es eine Möglichkeit die Darstellung so zu ändern (also Buchstaben klein), wie das System sie auch generell verwendet?

Gruß millenniumpilot
 
Hallo Gea,

zum Interfacetest bin ich leider noch nicht gekommen, habe aber ein weiteres kleines Schönheitsproblem gefunden.
Ich habe zusätzliche Platten in die Powerconf eingetragen, damit diese sich schlafen legen. Dabei habe ich die PlattenID anstatt wie früher per Formatbefehl diesmal aus der Übersicht der SAS2-Extension entnommen. Das hier die Buchstaben groß geschrieben sind, habe ich nicht für voll genommen, die Platten legten sich aber damit nicht schlafen. Wird also doch wie üblich alles Casesensitiv sein. Gibt es eine Möglichkeit die Darstellung so zu ändern (also Buchstaben klein), wie das System sie auch generell verwendet?

Gruß millenniumpilot

Das Dilemma ist, dass es eben keine generelle Vorgabe gibt. Je nach verwendetem CLI tool kann das Ergebnis variieren. Teilweise sind die Angaben nicht mal exakt identisch (unabhängig von der Groß/ Kleinschreibung).

Napp-it verändert dabei die Rückgabewerte der tools nicht (hier das Controller tool von LSI)

---------- Post added at 23:19 ---------- Previous post was at 23:15 ----------

Seit wann ist das denn und wie werden 4k Sektoren kommuniziert?
Das ist doch immer noch eine 512b Emulation?
Habe ich gar nicht mitbekommen.....

Neuere Advanced Format Platten melden neben den logischen Sektoren (512) auch die phyikalischen Sektoren (4096). ZFS erstellt mit letzteren automatisch ashift=12 vdevs

vgl Advanced format (4K) disk compatibility update

Für die älteren 4k Platten (z.B. WD Ears, Samsung F4) gibt es in neueren Illumos basierten Systemen die Option, über die sd.conf die Anzahl der physikalischen Sektoren festzulegen.
vgl https://www.illumos.org/issues/2665
 
Zuletzt bearbeitet:
Hallo gea,

vielen Dank für die Info. OK, Du hast also keine Schuld :)

Aber was meinst Du mit "Teilweise sind die Angaben nicht mal exakt identisch ". Werden falschse WWNs oder Seriennummern gemeldet? Oder hängen die Platten an einem ganz anderen Port?

Gruß aus dem verregneten Berlin
 
Hallo gea,

Aber was meinst Du mit "Teilweise sind die Angaben nicht mal exakt identisch ". Werden falschse WWNs oder Seriennummern gemeldet? Oder hängen die Platten an einem ganz anderen Port?

Gruß aus dem verregneten Berlin

Das Problem habe ich mit der Erkennung der SAS2 WWN. Dazu brauche ich die Seriennummer als Schlüssel zum Verknüpfen der Angaben aus den diversen Tools. Diese ist aber bei iostat nicht immer komplett und stellt teils nur einen Substring der Angaben aus smartmontools oder den LSI tools dar.
 
Mit wieviel GB RAM betreibt ihr euer ZFS Nas oder wieviel gebt ihr unter ESXi dafür frei?
 
@mosjka

Wie meinst du das? Kommt immer auf die Performanceansprüche und die Poolgröße und aktivierten ZFS Features an (Dedup etc.) wieviel RAM man braucht bzw. haben "sollte".

Hab bei ~ 3.6 TB Nutzdaten 16 GB RAM für ZFS (15 GB Verfügbar), würde auch mit 8 GB RAM laufen (würde sogar behaupten mit gleicher Leistung), aber bei den Preisen hab ich damals gleich 16 draus gemacht.
 
Hallo,

ich bin gerade dabei einen Backup Server zusammenzustellen. Um es möglichst sicher zu machen soll ein RAIDZ2 aus Mirrors für die Daten gebildet werden (6 Mirrors + Hot Spare, Sistem einfacher Mirror). Die Daten liegen in 2 Rechenzentren gespiegelt vor. im 3. RZ wird der Backupserver aufgestellt. Maximale Datentransferrate sind 2 GBit.

Meine Hardwarezusammenstellung: Backup Server Preisvergleich | Geizhals EU

Sind da grobe schnitzer drin oder würdet ihr etwas wesentlich anders machen?
 
Gibts irgendwo eine Seite, wo man sich in die Settings von ZFS einlesen kann? Mein nas4free nutzt irgendwie immer nur die hälfte vom RAM, ich glaube da ist noch mehr Performance möglich. (hab 4gb)
 
Gibts irgendwo eine Seite, wo man sich in die Settings von ZFS einlesen kann? Mein nas4free nutzt irgendwie immer nur die hälfte vom RAM, ich glaube da ist noch mehr Performance möglich. (hab 4gb)

Gibt einiges zum lesen: a friendly guide for building ZFS based SAN/NAS solutions, ZFS Evil Tuning Guide, Solaris Troubleshooting and Performance Tuning, ZFSTuningGuide - FreeBSD Wiki, oder von Solaris selbst: (passt aber nicht alles mit FreeBSD überein, dafür extrem detailiert) Synopsis - man pages section 1M: System Administration Commands

Hab unter NAS4Free folgendes angepasst (@ 16 GB Ram) in der /boot/loader.conf folgende Zeilen hinzugefügt, womit nur noch 1 GB frei gelassen wurde für andere Dienste usw.

Code:
vm.kmem_size="15G"
vfs.zfs.arc_max="10240M"
vfs.zfs.arc_min="8192M"
vfs.zfs.txg.timeout="5"
vfs.zfs.txg.synctime="1"
vfs.zfs.txg.write_limit_override="1073741824"
vfs.zfs.vdev.min_pending="2"
vfs.zfs.vdev.max_pending="35"

vm.kmem_size und vfs.zfs.arc_max / vfs.zfs.arc_min musst du für 4 GB anpassen, den Rest kannst du so lassen, außer mal vfs.zfs.vdev.max_pending auf 20 stellen und testen, sollte bei Systemen ohne ZIL SSD auch noch ein wenig zu lasten der Latenz Leistung bringen.
 
Zuletzt bearbeitet:
ich bin gerade dabei einen Backup Server zusammenzustellen. Um es möglichst sicher zu machen soll ein RAIDZ2 aus Mirrors für die Daten gebildet werden (6 Mirrors + Hot Spare, Sistem einfacher Mirror). Die Daten liegen in 2 Rechenzentren gespiegelt vor. im 3. RZ wird der Backupserver aufgestellt. Maximale Datentransferrate sind 2 GBit.

Sind da grobe schnitzer drin oder würdet ihr etwas wesentlich anders machen?
Der grobe Schnitzer sind die 13 x Hitachi Deskstar. Nimm die UltraStar und mach ein Raidz3 aus den HDDs.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh