[Sammelthread] HP ProLiant N36L/N40L/N54L Microserver

Es geht nicht zu installieren, wenn dein Medium kleiner als 160 GB ist. Gibt aber einen bzw. mehrere Weg(e) das zu umgehen. Ich habs so gemacht - installiert auf der 250 GB HDD, davon ein Image Backup gemacht und auf auf die SSD zurückgespielt. Oder so z.B. Installing WHS 2011 on SSD or SATA Hard Drives smaller than 160GB - Connected Digital World

Ob dass so sinnig ist wegen den Freigabeordnern und der Server-/Clientsicherung sei mal dahingestellt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo AG1M,

das hört sich nach einer ziemlich interessanten Konfiguration an! Was mich aber interessieren würde: wie sieht es
a. mit der Wärmeentwicklung aus (ich will mir ja im Sommer nicht die Bude abfackeln, wenn das Ding 24*7 läuft)?
b. mit dem Energieverbrauch aus, hast Du da Werte? Bei 24*365 ja auch ein Thema...

Danke und Gruß,
cibomato

Also bei mir ist es immer relativ kühl 20-23°C auch immer Sommer. Mit 500 rpm wird natürlich alles etwas wärmer und bei 24/7 Dauerlast und bei höherer Raumtemparatur könnte ich mir da schon Wärmeprobleme vorstellen. Alternativ kann man ja den Stocklüfter lassen, der dreht bei so etwa 1100-1150 rpm und sorgt für ausreichend "Frischluft".

Zum Stromverbrauch kann ich dir nichts sagen, hab kein Messgeräte. bzw. hatte eins aber das war fehlerhaft sorry.

Ob dass so sinnig ist wegen den Freigabeordnern und der Server-/Clientsicherung sei mal dahingestellt.

Was für Freigabeordner? Ich nutze die SSD nur als OS/Programme Disk, ich nutze auch nicht die eingebaute Server-/Clientsicherung hab dafür andere Software. Und die Samba Freigaben habe auf ich auf meinen großen SATA Raid 1 HDDs.
 
Zuletzt bearbeitet:
N36L in Verbindung mit ESXI 5.0

Hi Leute hat jemand von euch ESXI 5.0 auf dem N36L laufen? Ich habe das mal auf einer SSD installiert und darin dann Nas4Free. Mein N36L hat 8gb Ram und ich verwende die integrierte Broadcom Netzwerkkarte. Mit ESXI schwank die Übertragung im Netzwerk ganz schön und erreicht nur 20-30mb/s. Wenn ich Nas4Free direkt draufhaue mit der gleichen Konfiguration dann erreiche ich etwa 50mb/s schreiben und 80mb/s lesend. Kann man da irgendwas machen? Ich würde gerne noch andere VMs draufspielen und bischen damit rumspielen, weil ich glaube der N36L kann noch etwas mehr als nur Nas Storage ^^

Mfg Ironcurtain
 
Ich finde das ja immer äußerst amüsant, wenn hier Beiträge auftauchen, in denen es um zu wenig Netzwerkspeed in Kombination mit ESXi/FreeNAS/Nas4Free etc geht.

In letzter Zeit hat das massiv überhand genommen. Es wird anscheinend dazu übergegangen, für jede Aufgabe einen eigenen Server zu virtualisieren, was völliger Käse ist.

Nur mal als Beispiel: Auf meinem N36L läuft Win Server 2k8 R2, die Clients sind sämtlich Windows 7. NICs sind komplett Intel, Netzwerkshare befindet sich auf einer WD Red 3TB. Ich komm schreiben wie lesend auf Geschwindigkeiten deutlich oberhalb von 90MB/s. Dazu läuft auf dem Server noch anderes (Wetterstationssoftware, Twonky...)
 
Möchtest du deinen Beitrag weiter ausführen?

Edit: Das bezieht sich nicht auf sinnvolle/notwendige Virtualisierungen, wie z.b. Windows Server als Host und eine Linux VM für netatalk.
 
Zuletzt bearbeitet:
Möchtest du deinen Beitrag weiter ausführen?

Edit: Das bezieht sich nicht auf sinnvolle/notwendige Virtualisierungen, wie z.b. Windows Server als Host und eine Linux VM für netatalk.
Das hättest du vorher schreiben sollen. Darauf war ich hinaus. Zudem kommt dann noch der Sicherheitsaspekt hinzu. (Backup z.B. über Linux, Testumgebung für Software, Snapshots usw.)
Es gibt so vieles was man mit Virtualisierung machen kann. Zudem macht es einem auch das Leben schon irgendwie einfacher.
Klar kann man auch über das Ziel hinausschießen indem man sinnlos rum-virtualisiert.
 
Meine Aussage war eigentlich recht präzise, nur hast du den falschen Teil markiert ;)

Ich persönlich brauche keine Testumgebung für Software auf dem Server, Software teste ich (wenn überhaupt) auf meinem Arbeitsplatz PC. Und dafür reichen Sachen wie Sandboxie völlig aus, ohne gleich ein eigenes Betriebssystem zu emulieren. Snapshots kann ich noch nachvollziehen, aber was bitte meinst du mit Backup über Linux?

Ich zieh wöchentlich ein komplettes Abbild meiner Betriebssystempartition, sollte ich den Server abschießen läuft der innerhalb von 15min wieder. Die Wiederherstellung ist dabei so simpel, dass das sogar meine Großmutter beherrschen würde.
 
Hi,

ich würde meinen n40l gerne runter fahren lassen, wenn niemand über eine gewisse zeit drauf zugreift. ( so wie bei whs 2011 und lights Out).
Ich benutze Nas4free - hat da schon jemand ne Lösung parat oder ne Idee wie man da rangehen könnte ?
Z.b. Die io/s auslesen ?


Gruß
 
Ich finde das ja immer äußerst amüsant, wenn hier Beiträge auftauchen, in denen es um zu wenig Netzwerkspeed in Kombination mit ESXi/FreeNAS/Nas4Free etc geht.

In letzter Zeit hat das massiv überhand genommen. Es wird anscheinend dazu übergegangen, für jede Aufgabe einen eigenen Server zu virtualisieren, was völliger Käse ist.

Nur mal als Beispiel: Auf meinem N36L läuft Win Server 2k8 R2, die Clients sind sämtlich Windows 7. NICs sind komplett Intel, Netzwerkshare befindet sich auf einer WD Red 3TB. Ich komm schreiben wie lesend auf Geschwindigkeiten deutlich oberhalb von 90MB/s. Dazu läuft auf dem Server noch anderes (Wetterstationssoftware, Twonky...)

Ob das Käse ist oder nicht, ist ja ziemlich egal und jedem selbst überlassen. Ich denke fast jeder hier spielt gerne an solchen Sachen rum und probiert hier und da etwas aus. Ich will da ja jetzt nicht 20 verschiedene VMs drauf laufen lassen, aber ich denke schon, dass das Potenzial des N36L mit NAS4Free alleine noch nicht aufgebraucht ist. Ich bin mir ja noch nichtmal sicher was ich da noch so drauf hauen will, aber das kann ich mir ja dann überlegen sobald Nas4Free in ESXI die gleichen oder ähnliche Übertragungsraten hinbekommt.
Ich habe mittlerweile das Gefühl, dass ESXI 5.0 mit der onboard Karte nicht so richtig klar kommt. Vielleicht wäre es mit einer Intel Gigabit Karte besser, aber wäre gut wenn jemand was dazu sagen kann, wenn er selber ESXI 5.0 nutzt bevor ich so eine Karte kaufe.

Mfg
Ironcurtain
 
@Ironcurtain86

Abend,

also auch ohne ESXi sind ~ 50 MB/s schreiben auch etwas Mager. Was hast du in NAS4Free eingestellt (bei den Samba Settings) und was für ein Build nimmst du? Hast du ZFS, UFS, was anderes als Dateisystem gewählt? Hast du eine einzele HDD, oder hast du ein Software RAID eingestellt aus beiden HDDs angelegt?
 
Hallo AG1M ok ich dachte 50mb schreibend ist ein guter Wert, aber wenn da noch mehr raushzuholen ist, wäre das natürlich auch nicht schlecht.
Die Settings in smb/cifs habe ich mal als screenshot hochgeladen: Directupload.net - bvt8dklf.jpg
Als Build verwende ich die neueste: 9.1.0.1 - Sandstorm (Revision 236)
Ich nehme das ZFS Dateisystem und habe aus 2*SAMSUNG HD204UI, 1*WDC WD10EADS-00L5B1 und 1*SAMSUNG HD103SJ ein Raidz1(Raid 5) gebildet.
 
"Gut" sind imho Werte jenseits von 80MB/s. Hängt aber auch von Quell- und Ziellaufwerk ab. Probier mal den NASTester, der benutzt statt der lokalen Platte im Client eine RAMDisk.

Warum machst du ein RAID5 aus unterschiedlich großen Platten? Du verschenkst da 2TB...

So wie deine jetztige Konfiguration ist, könntest du die beiden 1TB und die beiden 2TB jeweils in ein R1 hängen, und kommst auf die gleiche Nettogröße... bei mehr Leistung
 
Zuletzt bearbeitet:
Wo es hier gerade so um kopiergeschwindigkeiten geht. Ich habe auf meinem n40l whs 2011 laufen und komme beim schreiben nur auf 40mb beim lesen so auf 55mb probiert auf einen iMac mit Mountain Lion. Ich habe in einem anderen Forum von jemanden Gelsen der ungefähr die selben werte hat. Hat jemand vielleicht ein paar tipps für mich?

Gibt funktioniert sonst ohne probleme hab auch schon mal aus Spaß das cat Kabel getauscht da hat sich nix geändert.
 
Mir ist klar, dass ich mit der jetzigen Konfiguration 2TB verliere. Sobald dieser Datenpool aber voll wird, werde ich einfach zwei neue 2TB oder vielleicht sogar 3TB Festplatten holen und den Datenpool "wachsen" lassen, ohne gleich wieder riesige Datenmengen hin und her zu schaufeln. Außerdem hätte ich gerne einen zentralen Ordner, wo ich die ganzen Daten ablegen kann und nicht zwei gesplittete Raid Verbunde.
Das sagt NastTester:
NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 400MB file write on drive Z: 5 times...
Iteration 1: 57,69 MB/sec
Iteration 2: 54,13 MB/sec
Iteration 3: 56,02 MB/sec
Iteration 4: 56,78 MB/sec
Iteration 5: 54,76 MB/sec
------------------------------
Average (W): 55,88 MB/sec
------------------------------
Running a 400MB file read on drive Z: 5 times...
Iteration 1: 81,07 MB/sec
Iteration 2: 79,74 MB/sec
Iteration 3: 80,19 MB/sec
Iteration 4: 78,20 MB/sec
Iteration 5: 80,48 MB/sec
------------------------------
Average (R): 79,93 MB/sec
------------------------------
 
Wie hoch ist die CPU Auslastung aufm Server während des Schreibzugriffs?

Hängt da noch ein Switch dazwischen?
 
Die Werte sind vollkommen in Ordnung bei deinen Festplatten. Es kommt auch auf den Füllstand der Platten an.
 
Die CPU-Auslastung schwankt ganz schön liegt aber im Durchschnitt bei etwa 50% und geht zwischendurch auch kurzzeitig auf 100% hoch während des schreibens, hier ein Bild: Directupload.net - fa2z2jlf.jpg

Ja es hängt ein switch dazwischen TP-Link TL-SG1008D. Wegen der CPU-Auslastung, wäre es nicht besser eine seperate Intel Gigabit Karte zu verwenden, weil zumindest bei den Realtek onboard Karten ist es doch so, dass die ziemlich auf die cpu gehen.

@antilope114 also die Festplatten waren Heute auch schon leer und wurden dann mit Daten befüllt. Aber auch mit volleren Platten hatte ich solche Übertragungen. Da habe ich noch keinen Einfluss festgestellt. Vielleicht wenn da viele kleine Dateien draufliegen, aber da liegen eher größere Dateien.
 
Und jetzt mal ich:

NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 1000MB file write on drive T: 5 times...
Iteration 1: 111,73 MB/sec
Iteration 2: 112,23 MB/sec
Iteration 3: 115,87 MB/sec
Iteration 4: 114,81 MB/sec
Iteration 5: 115,74 MB/sec
------------------------------
Average (W): 114,08 MB/sec
------------------------------
Achievement unlocked: 100MB+/sec write speed!

Running a 1000MB file read on drive T: 5 times...
Iteration 1: 113,77 MB/sec
Iteration 2: 113,51 MB/sec
Iteration 3: 114,29 MB/sec
Iteration 4: 113,51 MB/sec
Iteration 5: 112,80 MB/sec
------------------------------
Average (R): 113,57 MB/sec
------------------------------
Achievement unlocked: 100MB+/sec read speed!

Client: Windows 7 Pro, NIC: Intel Pro/1000 PT

Server: N36L mit Win Server 2k8 R2, NIC: Broadcom onbaord

Ziellaufwerk war eine 2TB Seagate LP 5900, ca 400GB belegt.

Ohne Jumboframes ;)
 
Zuletzt bearbeitet:
Du kleiner Poser XD

Ja aber komisch, dass es bei mir schreibend 50mb/s und lesend 80mb/s und nicht beides gleich wie bei dir.
Ist denn bei dir ein Switch dazwischen? Vielleicht sollte ich auch mal eine single platte ausprobieren. Jetzt habt ihr mich natürlich wild gemacht, der Sache auf den Grund zu gehen XD

Mfg
Ironcurtain
 
Es kann sein, dass bei dir die CPU bzw. eine/beide NICs limitieren, die Frage ist halt, wozu du mehr als 50 bzw. 80 MB/s benötigst?

Deine Werte sind guter Durchschnitt, v.a. bei der Festplattenkonfiguration.

Die Werte von JoJo werden sich bei realen Transfers über einen längeren Zeitraum nicht aufrecht erhalten lassen, v.a. nicht, wenn der Füllstand mal etwas ansteigt. Lass dich davon nicht täuschen.
 
Zuletzt bearbeitet:
Hallo AG1M ok ich dachte 50mb schreibend ist ein guter Wert, aber wenn da noch mehr raushzuholen ist, wäre das natürlich auch nicht schlecht.
Die Settings in smb/cifs habe ich mal als screenshot hochgeladen: Directupload.net - bvt8dklf.jpg
Als Build verwende ich die neueste: 9.1.0.1 - Sandstorm (Revision 236)
Ich nehme das ZFS Dateisystem und habe aus 2*SAMSUNG HD204UI, 1*WDC WD10EADS-00L5B1 und 1*SAMSUNG HD103SJ ein Raidz1(Raid 5) gebildet.

Also da NAS4Free 9 auf FreeBSD basiert, ist ZFS out-of-the-box nicht optimal eingestellt, anders als bei Solaris, OpenIndiana, Nexta etc. du musst noch einige Handgriffe machen (boot/loader.conf tweaken), damit du mehr Geschwindigkeit bekommst. Außerdem ist dein Mischpool (HDDs mit AF/4K und normale 512Byte HDDs) auch nicht unbedingt förderlich für die Geschwindigkeit. Und auch die SMB/CIFS Settings sind nicht optimal, wie kommst du auf diesen unrealistischen Bufferwert, soviel RAM hast du nicht mal - rechne mal deine 1073741824 / 1024, das ist in MB der Wert von der Buffergröße. AIO klappt nicht mit SMB2 (zumindest ging das vor 2 Monaten nicht), nur mit dem alten NT1, ist ein Bug bei NAS4Free. Und wenn du später noch mehr als nur NAS4Free laufen lassen willst (mit einem Hypervisor ala ESXi 5), dann musst du auch wieder mit Geschwindigkeitseinbußen rechnen, da ZFS RAM braucht, viel RAM um schnell zu laufen.
 
Es kann sein, dass bei dir die CPU bzw. eine/beide NICs limitieren, die Frage ist halt, wozu du mehr als 50 bzw. 80 MB/s benötigst?

Deine Werte sind guter Durchschnitt, v.a. bei der Festplattenkonfiguration.

Die Werte von JoJo werden sich bei realen Transfers über einen längeren Zeitraum nicht aufrecht erhalten lassen, v.a. nicht, wenn der Füllstand mal etwas ansteigt. Lass dich davon nicht täuschen.

Wegen dir hab ich jetzt nochmal einen anderen Bench gemacht, gleiche Festplatte, aber ~92% gefüllt. Diesmal mit 4GB Filesize:

NAS performance tester 1.4 NAS performance tester (C# and VB.Net)
Running warmup...
Running a 4000MB file write on drive S: 5 times...
Iteration 1: 108,46 MB/sec
Iteration 2: 112,95 MB/sec
Iteration 3: 111,28 MB/sec
Iteration 4: 112,07 MB/sec
Iteration 5: 113,49 MB/sec
------------------------------
Average (W): 111,65 MB/sec
------------------------------
Achievement unlocked: 100MB+/sec write speed!
Running a 4000MB file read on drive S: 5 times...
Iteration 1: 114,57 MB/sec
Iteration 2: 115,63 MB/sec
Iteration 3: 115,64 MB/sec
Iteration 4: 115,76 MB/sec
Iteration 5: 115,66 MB/sec
------------------------------
Average (R): 115,45 MB/sec
------------------------------
Achievement unlocked: 100MB+/sec read speed!
 
@AG1M ich habe ein youtube video von sysopstv angeschaut wo die eine ältere Version von Freenas konfiguriert haben und mir daraus die Konfiguration gezogen und dort haben die halt für 1024mb speicher folgendermaßen gerechnet: 1024*1024*1024 = 1073741824
Ok dann schalte ich mal AIO ab und stelle die beiden Buffer Werte um. Ich habe 8gb Ram, sollte ich dann auch die vollen 8gb da eintragen? Ich hatte da schon bischen rumgespielt. So große sprünge gabs da jetzt aber nicht.

Mfg
Ironcurtain
 
Ich überlege gerade mir einen Microserver zu bestellen. Dieser soll die VMs aus Proxmox hosten. Im Prinzip könnten es auch ESXi-VMs sein, sollte keine Rolle spielen. Das soll die einzige Aufgabe des Microservers sein. Dort sollen keine weitere VMs laufen. Bisher dachte ich an eine Erweiterung auf 8GB ECC Ram und das Dateisystem soll auf jeden Fall ZFS sein (nutze ich bereits seit Jahren).

Wie würdet Ihr das System aufsetzen: Plain Solaris 11, OpenIndiana oder ESXi und dann OI (macht das überhaupt Sinn, wenn kein VT-d Passthrough unterstützt wird). Danach napp-it drauf? Shares als iSCSI oder NFS?

Und noch generell: 4x3,5 Zoll Platten + Boot von USB oder 5x3,5-Zoll Platten mit raidz + SSD für Betriebssystem und ZIL-Device?
 
@AG1M ich habe ein youtube video von sysopstv angeschaut wo die eine ältere Version von Freenas konfiguriert haben und mir daraus die Konfiguration gezogen und dort haben die halt für 1024mb speicher folgendermaßen gerechnet: 1024*1024*1024 = 1073741824
Ok dann schalte ich mal AIO ab und stelle die beiden Buffer Werte um. Ich habe 8gb Ram, sollte ich dann auch die vollen 8gb da eintragen? Ich hatte da schon bischen rumgespielt. So große sprünge gabs da jetzt aber nicht.

Mfg
Ironcurtain

Ich meine nicht den SMB/CIFS Cache, ich mein für das Dateisystem ZFS den Cache vom RAM. Der ist wichtig. Bei den SMB/CIFS Cache reichen 64-256 MB dicke aus, also einfach 262144 eintragen, das wären 256 MB. Wichtig ist das du dem ZFS Dateisystem mehr RAM zur Verfügung stellst.

Das kannst du indem wir /boot/loader.conf etwas tweaken:
Code:
vm.kmem_size="7G"
vfs.zfs.arc_max="6656M"
vfs.zfs.arc_min="4608M"
vfs.zfs.txg.timeout="5"
vfs.zfs.txg.synctime="1"
vfs.zfs.txg.write_limit_override="1073741824"
vfs.zfs.vdev.min_pending="2"
vfs.zfs.vdev.max_pending="35"

Bei max_pending musst du etwas probieren, teste mal 20-25 oder lass 35 den Defaultwert, ich weiß nicht mehr genau, ob das bei Non ZIL SSD System ein Vor- oder Nachteil war. Aber den Rest hab ich mal auf deine 8 GB Ram angepasst. Und vfs.zfs.prefetch_disable="1" kannst du auch noch testen, kann aber die Zugriffszeit verschlechtern etc. ist per Default über 4 GB RAM auf 0. Immer neustarten wenn du Variablen eingestellt hast.

Und check mal bitte mit z.B. PuttY oder mit was auch immer du per SSH auf dein NAS4Free System zugreifst foglendes:

zdb -C DEINPOOL | grep ashift

Und poste mal bitte was rauskommt.

Ich überlege gerade mir einen Microserver zu bestellen. Dieser soll die VMs aus Proxmox hosten. Im Prinzip könnten es auch ESXi-VMs sein, sollte keine Rolle spielen. Das soll die einzige Aufgabe des Microservers sein. Dort sollen keine weitere VMs laufen. Bisher dachte ich an eine Erweiterung auf 8GB ECC Ram und das Dateisystem soll auf jeden Fall ZFS sein (nutze ich bereits seit Jahren).

Wie würdet Ihr das System aufsetzen: Plain Solaris 11, OpenIndiana oder ESXi und dann OI (macht das überhaupt Sinn, wenn kein VT-d Passthrough unterstützt wird). Danach napp-it drauf? Shares als iSCSI oder NFS?

Und noch generell: 4x3,5 Zoll Platten + Boot von USB oder 5x3,5-Zoll Platten mit raidz + SSD für Betriebssystem und ZIL-Device?

Ich würde direkt auf dem Host OpenIndiana + KVM (gab zu dem Thema was im ZFS Thread) oder SmartOS als "Fertig" ZFS OS + Hypervisor etc. (mMn glaube ich aber nicht mit napp-it kompatibel?!) nutzen. Mit dem ESXi usw. kann ich dir leider nicht helfen. Nimm nicht die SSD für OS und ZIL gemeinsam, für ZIL reicht schon eine schnelle 8 GB SSD aus (ob sich das lohnt kannst du ja vorher testen). Und OI oder Solaris läuft auf USB Stciks sehr langsam, auf keinen Fall zu empfehlen (hatte ich schon, 2 USB Sticks gespiegelt mit Solaris 11). Wenn du allgemein Speed haben willst für deinen pool, dann machst du ein stripped vdev mirror Pool aus deinen 4 HDDs also wie ein RAID 10.
 
Zuletzt bearbeitet:
Hallo AG1M,

ich habe die loader.conf nach deinen settings bearbeitet und dann neugestartet. Aber jetzt bootet er nicht mehr hoch. Der bootet vom usb stick es kommt auch diese Maske wo er 10 sekunden runterzählt und dann bootet und kurze Zeit später kommt:
Directupload.net - qaqm2l3w.jpg
da0 ist der USB Stick wo Nas4Free drauf ist.
Habe auch schon versucht im safe mode zu booten aber danach zählt er 15 sec. runter und will neustarten.
Wenn ich den USB stick jetzt formatiere und da Nas4free wieder draufhaue. Werden die Platten immernoch mit zfs dateisystem erkannt und ich kann den Pool erstellen und kriege den Zugriff auf die Daten drauf oder sind die dann weg?

Mfg
Ironcurtain
 
Was hast du genau gemacht? Wie hast du das ganze eingefügt vi /boot/loader.conf? Hast du die vorhandenen Einträge überschrieben? Da stehen jede Menge anderer Werte die unbedingt so bleiben müssen. Das sind alles Standardvariabeln die ich dir gepostet habe, die nur andere Werte haben. Die haben garnichts mit deinem OS bzw. dem Bootvorgang zu schaffen, hast du Leerzeichen/Sonderzeichen ausversehen einegfügt?

Du kannst den ZFS pool via zpool import DEINPOOL bzw. zpool import -f DEINPOOL (wenns Probleme gibt) wieder einbinden, deine Daten sind nicht weg. Oder du bootest von der NAS4Free ISO/CD/dein Install USB Stick was auch immer du hast, mountest dein USB Stick und schreibst wieder die Standardwerte für den Bootvorgang wieder rein.

Das wäre meine Defaultwerte:

Code:
kernel="kernel"
bootfile="kernel"
kernel_options=""
kern.hz="100"
hw.est.msr_info="0"
hw.hptrr.attach_generic="0"
kern.maxfiles="65536"
kern.maxfilesperproc="50000"
kern.cam.boot_delay="8000"
vfs.zfs.prefetch_disable="1"
autoboot_delay="5"
isboot_load="YES"

Mich würde echt interessieren wie deine loader.conf nun aussieht. P.S. auf keinen Fall einen NEUEN Pool anlegen, deine Daten sind da, das ist das schöne bei ZFS einfach wieder importieren.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh