[Sammelthread] ZFS Stammtisch

VirtualBox 4.3 mit phpvirtualbox unter OmniOS einrichten

Auf Anregung von gea hier (Anhang anzeigen phpVirtualBox.doc) der erste Entwurf eines Leitfadens um phpvirtualbox (mit VirtualBox 4.3) unter OmniOS zu nutzen.

Ihr könnt diesen gern auf Herz und Nieren prüfen und auch wenn aktuell meine verfügbare Zeit recht begrenzt ist, so werde ich doch versuchen zeitnah zu antworten.

Wenn ich es richtig gesehen habe, ist gea noch nicht dazu gekommen sein ampo-Script (www.napp-it.org/ampo) um die php-Extension soap zu ergänzen, es ist also noch etwas Handarbeit nötig.

Fühlt euch frei diesen Leitfaden zu perfektionieren, mglw. kann ja auch noch jemand ein Shell-Script daraus basteln und zum Downlaod anbieten (Im Script-Basteln bräuchte ich wohl etwas Unterstützung) :).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Zos,

Sauber ! Werd das gleich mal die Tage testen.

Gruß,

_xymos.

- - - Updated - - -

Hallo zusammen,

Ich habe mich die letzten Stunden etwas mit dem Thema SNMP auseinander gesetzt.
Meine Geräte monitore ich mit Cacti und wollte nun auch meine beiden ZFS Büchsen Monitoren....so weit der Plan ;)

Ich nutze OmniOS mit Napp-it als Basis ( aktuelle Stable )

Das SNMP-NET pkg ist installiert und über "nmpconf -g basic_setup" wurden die Parameter in die snmp.conf gespeichert.

svcadm enable net-snmp --> start den daemon

Allerdings bekomme ich bei "netstat -an -P udp | grep 161" keine Ausgabe.

Ein snmpwalk auf die Machinen scheitert auch ....

Hat noch jemand eine Idee ?

Was ich auch nicht ganz verstehe:

Binde ich unter OSX 10.6-10.9 SMB Shares ein ist alles grottig lahm, nutzte ich aber AFP/NFS oder iSCSI fliegt die Kuh...
Wahrscheinlich ist der Unterbau vom OSX k****
Ich hab es auch mit SAMBA aus den Darwin Ports probiert --> gleiches Spiel.

Danke und Gruß,

_xymos.
 
Binde ich unter OSX 10.6-10.9 SMB Shares ein ist alles grottig lahm, nutzte ich aber AFP/NFS oder iSCSI fliegt die Kuh...
Wahrscheinlich ist der Unterbau vom OSX k****

Das war bei Apple schon immer so, dass die SAMBA Implementierung grottenschlecht ist bei OSX. Das liegt also nicht am Backend. Ich erinnere mich aber mal gelesen zu haben, dass sie ab Mavericks voll auf SMB setzen wollen und AFP auslaufen lassen mit der Zeit, da würde sich die SMB Performance ab 10.9 massiv verbessern.

Habs aber bisher nicht überprüft, da ich kein Beta Tester bin, will heissen vor 10.9.3 kommt das bei mir sowieso nicht drauf.
 
Das war bei Apple schon immer so, dass die SAMBA Implementierung grottenschlecht ist bei OSX. Das liegt also nicht am Backend. Ich erinnere mich aber mal gelesen zu haben, dass sie ab Mavericks voll auf SMB setzen wollen und AFP auslaufen lassen mit der Zeit, da würde sich die SMB Performance ab 10.9 massiv verbessern.

Habs aber bisher nicht überprüft, da ich kein Beta Tester bin, will heissen vor 10.9.3 kommt das bei mir sowieso nicht drauf.


Ich habe die SMB Performance unter 10.9 getestet...vergiss es ! :wall:

Egal, dank AFP rennt es ja.
Ich habe nur ein merkwürdiges Problem mit den angelegten NFS shares.
Wenn der Server läuft, laufen die NFS Shares so , wie sie sollen.
Ist der Server aber aus ist , rafft der Mac das nicht und der ganze Finder lahmt...
Einzige Abhilfe ist das deaktivieren der Shares.
Das ganze zeigt sich so, dass das öffnen von Fenstern Sekunden dauert..total übel. Und dabei ist egal, ob es 10.6 oder 10.9 ist.
ISCSI dagegen läuft auch wieder sehr sauber und performant.

-xymos.
 
SnapRaid Konfiguration, Handling und Performance

Mein aktuelles RAIDZ1 ist in die Jahre gekommen, der Pool ist trotz regelmäßigem Aufräumen vom Volumen am Anschlag und einzelne Platten zeigen erste Hardware-Errors bei iostat (ein Tipp, wie man die Bewerten soll? SMART ist noch ohne Probleme).

Gleichzeit soll auch mein altes Solaris 11 auf ein aktuelles OmniOS umgestellt werden.
Da der Pool fast ausschließlich als Datengrab für Medienfiles verwendet wird, scheint mir die Variante von Pools auf Einzeldisks und Redundanz über SnapRaid für mich recht attraktiv. Ersetzt werden sollen aktuell 5 2TB SATA-Disks durch 4 4GB SATA (Seagate NAS). Ich verstehe es so, dass ich bei SnapRaid später problemlos weitere Disks ergänzen kann, korrekt?
Leider konnte ich bisher mit SnapRaid noch keine Erfahrungen sammeln und die Erfahrungsberichte hier im Forum (insb. in Verbindung mit ZFS) sind auch noch recht sparsam.

Hat jemand ein paar Tipps oder gar eine Step-by-Step Anleitung zur Einrichtung einer solchen Konfiguration?
Wie sieht es hinsichtlich der Performance aus? Wird 1GB-E problemlos ausgelastet?

Wie stellt sich so ein Pool aus SnapRaid-Disks dann überhaupt nach außen da? Sieht das dann von außen per CIFS genauso aus wie ein RAIDZx-Pool? Wie wird die Verteilung der Dateien auf den Disks geregelt?

Vielen Dank für Eure Erfahrungsberichte!

Edit: Ich denke, die letzte Frage kann ich mir nach weiterer Recherche selbst beantworten: SnapRaid stellt mir keinen Pool über alle Disks zur Verfügung sondern vermutlich dann mehrere Pools (Anzahl Disks abzgl. Parity-Disk(s). Korrekt? Falls ja, gibt es Workarounds?
 
Zuletzt bearbeitet:
(1) Kann man in OmniOS das Keyboard-Layout auch nach der iIstallation noch ändern? Nervt echt wenn wichtige Zeichen wie .:,-/ nicht an der Stelle zu finden sind wo sie sein sollten :)

(2) Gibts eigentlich ein Tool mitdem man sich ungefähr die Fragmentierung von ZFS angucken kann?
Auf die Schnelle habe ich DAS hier gefunden (sieht nach einem kleinen Programm aus -> wäre eine Nappit-Integration möglich?)
Laut dem LINK ist es nur eine grobe Schätzung der Fragmentierung, aber besser als nichts :)
So wie ich das verstehe prüft er da ob der nächste Block eines Blockes zur gleichen Datei gehört oder nicht. Fraglich ist nur ob dies die richtige herangehensweise ist, da ich HIER eine ganz andere Herangehensweise der Ermittlung der Fragmentierung passiert.

1,
siehe napp-it Menü: System - Localization (siehe Menü-Script wies geht)

2.
Integration in napp-it ist nicht geplant.

- - - Updated - - -

Auf Anregung von gea hier (Anhang anzeigen 253907) der erste Entwurf eines Leitfadens um phpvirtualbox (mit VirtualBox 4.3) unter OmniOS zu nutzen.

Ihr könnt diesen gern auf Herz und Nieren prüfen und auch wenn aktuell meine verfügbare Zeit recht begrenzt ist, so werde ich doch versuchen zeitnah zu antworten.

Wenn ich es richtig gesehen habe, ist gea noch nicht dazu gekommen sein ampo-Script (www.napp-it.org/ampo) um die php-Extension soap zu ergänzen, es ist also noch etwas Handarbeit nötig.

Fühlt euch frei diesen Leitfaden zu perfektionieren, mglw. kann ja auch noch jemand ein Shell-Script daraus basteln und zum Downlaod anbieten (Im Script-Basteln bräuchte ich wohl etwas Unterstützung) :).


Ich hatte die Woche viel zu tun, habe soap aber jetzt in den ampo installer integriert.
Anregung:

Ein Online Setup-script (shell oder Perl) wäre natürlich prima.
Ich würde den phpvirtualbox Ordner z.B. in /opt/shares belassen und als virtuellen Ordner per Include
hinzufügen.

Hintergrund:
Napp-it verwaltet demnächst virtuelle hosts als ZFS Eigenschaft/www-shares ähnlich wie NFS und SMB shares.
Das default-root-Verzeichnis ist dann obsolet. Man kann den phpvirtualbox Ordner zwar auch dahin verschieben, ein virtueller Ordner per Include ist aber universeller (vgl. Owncloud und phpmyadmin)
 
Zuletzt bearbeitet:
Wie sind Eure Erfahrungen bei der Nutzung der Vmware Workstation für LINUX, bei der die virtuellen Festplatten auf einem ZFS Dateisystem liegen?

z.B. ein Linux/Solaris Host mit ZFS und der Workstation Version. Ich überlege die Workstation Version zu nehmen um ESXi und andere Virtualisieren in VMs zu testen.

Es geht nicht darum eine VM mit OS+ZFS innerhalb der Vmware Workstation zu betreiben.
 
(...)
Ich hatte die Woche viel zu tun, habe soap aber jetzt in den ampo installer integriert.
Anregung:

Ein Online Setup-script (shell oder Perl) wäre natürlich prima.
Ich würde den phpvirtualbox Ordner z.B. in /opt/shares belassen und als virtuellen Ordner per Include
hinzufügen.

Hintergrund:
Napp-it verwaltet demnächst virtuelle hosts als ZFS Eigenschaft/www-shares ähnlich wie NFS und SMB shares.
Das default-root-Verzeichnis ist dann obsolet. Man kann den phpvirtualbox Ordner zwar auch dahin verschieben, ein virtueller Ordner per Include ist aber universeller (vgl. Owncloud und phpmyadmin)

Ich habe den Leitfaden heute noch kurz überarbeitet (waren kleine aber böse Fehler drin) und alles in einer OmniOS-VM nochmals getestet.

So wie es jetzt beschrieben ist läuft es bei mir. Außerdem habe ich den Link auf meine modifizierte amposoap.txt entfernt (da Du das ampo-Script ja angepasst hast).

Den phpvirtualbox Ordner habe ich in meiner Installation analog zu owncloud und phpmyadmin /opt/local/shares abgelegt und diesen auch wie von Dir angedeutet als Include dem Apache bekannt gemacht. Aber wie schon geschrieben, es ging mir erst mal darum den "direktesten" Weg zu beschreiben.

Ich werde mich mal an der Scripterstellung versuchen, aber das wird noch ein wenig dauern und ggf. noch zu einigen Rückfragen führen :-)
 

Anhänge

  • phpVirtualBox_V1.0.doc
    39 KB · Aufrufe: 92
Hallo,

Ich nutze omnios-b281e50 / Napp-it 0.9b3 und kann seit heute morgen keine Ordner mehr über AFP Freigaben anlegen.
SMB funktioniert Problemlos.
Der Finder will jetzt auch immer eine Berechtigung beim schreiben / löschen von Dateien ...jemand eine Idee ?


Edit: das kopieren und löschen von Dateien funktioniert.
Nur kann ich keine Ordner anlegen. ( Keine Zugriffsrechte )
Danke,

_xymos.
 
Zuletzt bearbeitet:
Hallo,

Ich nutze omnios-b281e50 / Napp-it 0.9b3 und kann seit heute morgen keine Ordner mehr über AFP Freigaben anlegen.
SMB funktioniert Problemlos.
Der Finder will jetzt auch immer eine Berechtigung beim schreiben / löschen von Dateien ...jemand eine Idee ?


Edit: das kopieren und löschen von Dateien funktioniert.
Nur kann ich keine Ordner anlegen. ( Keine Zugriffsrechte )
Danke,

_xymos.

Steht bei dem Dateisystem denn:

- nbmand=off
- aclmode und aclinheritance=passthrough
- ACL=everyone@=modify (Restriktionen dürfen nicht auf dem Dateisystem liegen sonern nur auf Dateien und Ordner)

AFP braucht diese Einstellungen
 
@gea



aclmode (passthrough) | --> wieder gesetzt und funktioniert , danke.

_xymos.
 
Fertiges Script zur Installation von VirtualBox und phpVirtualBox unter OmniOS

Ich habe mir noch ein wenig Zeit genommen, das Script zu verbessern, es ist aus meiner Sicht nun fertig.

1. Das Logging ist jetzt sauber.
2. Der Dienst vboxwebsrv wird jetzt unter SMF gestartet, d. h. auch nach einem reboot sollte dieser automatisch gestartet sein.

gea wird es auch noch unter napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads als weitere freie Extension veröffentlichen.
 

Anhänge

  • phpvbox.txt
    14,4 KB · Aufrufe: 109
Hi!

Vielleicht etwas OT hier, aber ich bin im Internet nicht fündig geworden bisher...

Ich habe mir für meinen Nappit Server ein neues Gehäuse Chenbro RM41416 mit 6GB/S Mini-SAS Backplane und einen neuen LSI Controller zugelegt, um alle 16 Ports zu benutzen. Der Umzug des Servers in das neue Gehäuse hat wunderbar geklappt bis auf eine Ausnahme:

Ich habe ein Supermicro X9-SCM-F Board und der angeschlossene Instrusion Detection Switch des Chenbro Gehäuse funktioniert nicht wie gewünscht.

Ist das Gehäuse offen und ich mache einen Reset des Intrusion Detection ist alles wunderbar, verschliesse ich das Gehäuse und resette ist der Alarm wieder da. Der Schalter müsste also genau umgekehrt beschaltet sein. Weiss jemand, wo ich einen passenden Schalter (, den ich nicht noch umbauen muss sondern der gleich 1:1 zu tauschen ist) für das Chenbro Gehäuse her bekomme, der mit dem Supermicro Board funktioniert? Oder kann man die Funktion des Schalters irgendwie umstellen?

LG
 
Zuletzt bearbeitet:
....das schon lange geplante update

diesmal soll es wirklich ein serverbrettchen werden, allerdings ist die auswahl sooo groß, das ich nicht weiß welches es werden soll.
es soll einen openindiana zfs server mit nappit ersetzen und geplant ist omnios mit napp-it

ich hoffe ihr könnt bei der auswahl helfen.
kann man auch einen core i3 mit ht nutzen ?
vorhanden sind SuMi AOC-USAS-L8i SAS Controller, Hdds, intel pci-e ct nic´s.
es sollen 6 netzwerkports ermöglicht werden, die meisten boards haben ja schon 2 intel nic´s dabei.

wunschliste sockel 1155/1150

vielen dank,
david
 
Hi!

Bezüglich der CPU würde ich mir vorher überlegen, ob in Zukunft ein Upgrade auf ESXi mit All-In-One evtl. geplant ist. In dem Fall ist ein Xeon Pflicht, wenn es "nur" eine Installation ohne VM Host wird, reicht meiner Meinung nach auch eine Desktop CPU z.B. der I3. Die Vorteile eines All-In-One möchte ich persönlich nicht mehr missen, aber das muss jeder für sich entscheiden.

Bezüglich der Boards gilt gleiche Vorüberlegung, wenn ESXi in Planung dann besser das X9SCM-iiF statt X9SCM-F oder X10SLL+-F statt X10SLL-F kaufen. Die angesprochenen Alternativboards verwenden zweimal die gleiche NIC, die direkt von ESXi unterstützt werden. Ansonsten muss man den ESXi mit Treibern patchen, damit man beide Onboard Nics unter ESXi nutzen kann. Wenn man also gleich die richtigen Boards aussucht ist das Handling leichter.

X9 vs. X10: Es gibt sehr gemischte Berichte im Netz, was den Stromverbrauch der Haswell Plattform angeht. Einige schreiben die Plattform ist stromsparender, die anderen behaupten das Gegenteil. Ich habe dazu gerade etwas genauer recherchiert, soweit das möglich war. Ein Kollege von mir will auch gerade ein Update seiner Plattform machen. Was ich bisher dazu gefunden habe verbrauchen die Haswell (X10 Serie also) bei niedrigerer Belastung weniger Strom und wenn die CPU mehr ausgelastet ist wohl mehr im Vergleich zu Ivy Bridge. Die aktuellen X10 Boards sind insgesamt mit weniger PCIe Slots im Vergleich zur X9 Serie bestückt, aber X10 hat dafür aber USB3 statt nur USB2. Beim RAM kann man ja mit einem 8 GB ECC Riegel starten und später bei Bedarf weitere hinzukaufen. Wegen der grossen Anzahl benötigter LAN Ports werfe ich noch folgendes Board in die Auswahl. X10SLM+-LN4F hat 4x Intel i210AT Onboard, vielleicht eine Alternative, wenn man kein 10GBit benötigt, allerdings nur zwei PCie Slots.

Zu den Intel Boards kann ich nichts sagen, da mir da die Erfahrungen fehlen.

Die Frage, welches Board denn genau kannst du dir also nur selbst beantworten und entscheiden was für dich wichtig ist:

1. Wie viele PCie Slots brauche ich (evtl. Reserve für zukünftige Erweiterungen)
2. Brauche ich USB3 (z.B. um schnelle externe Backupplatten anzuschliessen)
3. Soll ESXi evtl. später eingesetzt werden (andere Board Variante und Xeon CPU wählen)

LG Reiner
 
Hi!

Vielleicht etwas OT hier, aber ich bin im Internet nicht fündig geworden bisher...

Ich habe mir für meinen Nappit Server ein neues Gehäuse Chenbro RM41416 mit 6GB/S Mini-SAS Backplane und einen neuen LSI Controller zugelegt, um alle 16 Ports zu benutzen. Der Umzug des Servers in das neue Gehäuse hat wunderbar geklappt bis auf eine Ausnahme:

Ich habe ein Supermicro X9-SCM-F Board und der angeschlossene Instrusion Detection Switch des Chenbro Gehäuse funktioniert nicht wie gewünscht.

Ist das Gehäuse offen und ich mache einen Reset des Intrusion Detection ist alles wunderbar, verschliesse ich das Gehäuse und resette ist der Alarm wieder da. Der Schalter müsste also genau umgekehrt beschaltet sein. Weiss jemand, wo ich einen passenden Schalter (, den ich nicht noch umbauen muss sondern der gleich 1:1 zu tauschen ist) für das Chenbro Gehäuse her bekomme, der mit dem Supermicro Board funktioniert? Oder kann man die Funktion des Schalters irgendwie umstellen?

LG

Ich habe das jetzt erst einmal für mich so gelöst:

Gehäuse im Betrieb geöffnet, Intrusion Detection Reset gemacht, Intrusion Detection Stecker vom Mainboard abgezogen und Gehäuse wieder zu. Alarm ist dann natürlich weg, aber ich habe kein Intrusion Detection mehr ;)

Es wäre also doch schöner, wenn ich irgendwo noch einen passenden Schalter finden würde....
 
dankeschön@ Reiner,

ich bin ja schon froh, dass dieses mal wirklich ein serverbrett einsetzt werden soll und auf die idee mit dem all-in-one bin ich auch gekommen, denn dann könnte man bie 32gb ram und einem v3 xeon doch bestimmt noch locker 3-4 vm´s laufen lassen.
aber das wurde schon abgelehnt. der rechner ist wird wohl mit einem core i3 dual+ht ausgestattet, es sei denn ihr sagt das der zu langsam ist. es wird übrigens nicht auf verschlüsselung gesetzt, der core-i3 unterstützt aber "aes-ni" und selbst wenn irgendwann verschlüsselt wird, müsste der doch reichen.
beim board habe ich aber noch eine entdeckung gemacht.
das ASUS P9D-C/4L ( 4x Gb LAN (Intel I210AT), 1x PCIe 3.0 x16 (x8), 1x PCIe 3.0 x8 (x4), 2x PCIe 2.0 x1, 2x PCI) für 160€
das kann auch noch erweitert werden
https://www.asus.com/Commercial_Servers_Workstations/PIKE_2008IMR/
was sagt ihr zu dem brettchen?
Ciao,
david

edit: oder doch dieses hier? hat zwar nur 3xpci-e aber 2 nic´s die unter esxi funktionieren laut napp-it webseite.
http://geizhals.de/supermicro-x9scl-f-retail-mbd-x9scl-f-o-a645239.html
 
Zuletzt bearbeitet:
ich bin ja schon froh, dass dieses mal wirklich ein serverbrett einsetzt werden soll und auf die idee mit dem all-in-one bin ich auch gekommen, denn dann könnte man bie 32gb ram und einem v3 xeon doch bestimmt noch locker 3-4 vm´s laufen lassen.
aber das wurde schon abgelehnt. der rechner ist wird wohl mit einem core i3 dual+ht ausgestattet, ...

Wenn ZFS dann aber auch ECC RAM und das dürfte mit dem core i3 nicht gehen. Also doch besser einen XEON nehmen.
 
i3 unterstützt ab der 3. Generation ECC RAM, die Generationen davor nicht, sollte also generell kein Problem sein...

- - - Updated - - -

Update: Aber wohl auch nicht alle, aus Intel wird man einfach nicht schlau, bei denen kann man nichts verallgemeinern. Also layerbreak hat teilweise recht, also Obacht geben, welchen i3 du dir aussuchst...
 
Hallo,

Bin auch sehr neu was ZFS angeht aber meinen großen Server will ich nach großem Umbau unbedingt damit ausstatten.
Hab jetzt schon einiges mitgelesen aber das macht die Entscheidung irgendwie nicht leichter.

Welche OS empfiehlt ihr denn für einen XEON 1270 mit 16GB ECC Ram?

Nach Priorität würde ich mal so auflisten:

1. Performance
2. Bedienung
3. möglichst kostengünstig

Danke schonmal

- - - Updated - - -

Also die üblichen Verdächtigen wie FreeNAS oder NAS4Free habe ich mir mal schon näher angeschaut aber damit erreiche ich wohl nicht volle LAN Speed richtig?

- - - Updated - - -

Könnte FreeBSD was für mich sein? Mein Router mit PFsense läuft jedenfalls super.

Ist das von der Bedienung fürn WindowsDAU annehmbar?
 
Hi!

Vielleicht etwas OT hier, aber ich bin im Internet nicht fündig geworden bisher...

Ich habe mir für meinen Nappit Server ein neues Gehäuse Chenbro RM41416 mit 6GB/S Mini-SAS Backplane und einen neuen LSI Controller zugelegt, um alle 16 Ports zu benutzen. Der Umzug des Servers in das neue Gehäuse hat wunderbar geklappt bis auf eine Ausnahme:

Ich habe ein Supermicro X9-SCM-F Board und der angeschlossene Instrusion Detection Switch des Chenbro Gehäuse funktioniert nicht wie gewünscht.

Ist das Gehäuse offen und ich mache einen Reset des Intrusion Detection ist alles wunderbar, verschliesse ich das Gehäuse und resette ist der Alarm wieder da. Der Schalter müsste also genau umgekehrt beschaltet sein. Weiss jemand, wo ich einen passenden Schalter (, den ich nicht noch umbauen muss sondern der gleich 1:1 zu tauschen ist) für das Chenbro Gehäuse her bekomme, der mit dem Supermicro Board funktioniert? Oder kann man die Funktion des Schalters irgendwie umstellen?

LG

Ich habe das jetzt erst einmal für mich so gelöst:

Gehäuse im Betrieb geöffnet, Intrusion Detection Reset gemacht, Intrusion Detection Stecker vom Mainboard abgezogen und Gehäuse wieder zu. Alarm ist dann natürlich weg, aber ich habe kein Intrusion Detection mehr ;)

Es wäre also doch schöner, wenn ich irgendwo noch einen passenden Schalter finden würde....

Hi!

Das Problem Intrusion Detection Schalter ist gelöst:

Ich habe den Schalter jetzt ausgebaut und gesehen, dass er zum Glück mit 3 Anschlusspins versehen ist. Die Pins erlauben sowohl den Schaltzustand Aus, als auch Ein bei geschlossenem Deckel. Supermicro benötigt Aus und somit habe ich das Kabel vom mittleren Anschlusspin abgelötet und auf den äusseren Pin wieder angelötet. Die meiste Zeit hat dabei das Rauskramen und Durchwühlen der Kisten nach dem Schrumpfschlauch gekostet, damit das Ganze wieder sauber isoliert ist.

Somit ist die Baustelle Serverumzug in neues Chenbro Gehäuse abgeschlossen. Bin total happy damit :)

LG Reiner
 
Zuletzt bearbeitet:
Hey zusammen,
ich hab mal ne kurze frage, iwie finde ich bei google nichts richtiges bzw ich such nach den falschen begriffen :d

ich habe 4x wd red und nicht mit dem advanced format gemacht...
gibt es irgendeine möglichkeit die platten nachträglich in das format zu bringen? wäre glaub sinnvoll...
problem ist.. habe nicht genug speicher um alle daten lokal zu kopieren also komplett formatieren ist nicht ;c

evtl gibts da ja ne möglichkeit?
 
Hey zusammen,
ich hab mal ne kurze frage, iwie finde ich bei google nichts richtiges bzw ich such nach den falschen begriffen :d

ich habe 4x wd red und nicht mit dem advanced format gemacht...
gibt es irgendeine möglichkeit die platten nachträglich in das format zu bringen? wäre glaub sinnvoll...
problem ist.. habe nicht genug speicher um alle daten lokal zu kopieren also komplett formatieren ist nicht ;c

evtl gibts da ja ne möglichkeit?

Die Blockgröße, also hier 4k (ashift=12) ist bei ZFS die Eigenschaft eines vdev und kann nur beim Anlegen des vdev gesetzt werden. Nachträglich geht das nicht ohne das Neuanlegen des gesamten Pools.

Bei neueren 4k Platten sollte aber automatisch ashift=12 gesetzt sein.
 
bei mir ist aber glaub 9 gesetzt? :d

Was heisst hier glauben? Schau doch einfach nach was gesetzt ist...

Ich habe bei mir momentan nur WD REDs im Einsatz (und die laufen alle auf ashift=12), da ich alle Enterprise Platten die ich hatte auf Grund ihres Alters und Stromverbrauch bei mir rausgeschmissen habe.
 
Was heisst hier glauben? Schau doch einfach nach was gesetzt ist...

Ich habe bei mir momentan nur WD REDs im Einsatz (und die laufen alle auf ashift=12), da ich alle Enterprise Platten die ich hatte auf Grund ihres Alters und Stromverbrauch bei mir rausgeschmissen habe.

$ zdb | grep ashift
ashift: 9

;c
na toll das heißt iwie alle daten wo anders ablegen und den pool neu anlegen ;c
danke!

Gruß
 
Für ein raidz1 mit 4x 2,5" Festplatten, je 1 oder 1,5TB (bis 12,5mm) suche ich derzeit die passende HDD.

HDDs mit Flash bzw. größerem Cache bringen vermutlich keinen Leistungsgewinn sobald der ARC hinreichend (> HDD eigener Cache/Flash) groß ist, richtig?
L2ARC/ZIL wird vermutlich durch eine Plextro M5 Pro SSD abgebildet. (OS: Ubuntu 12.04 mit ZFS on Linux, HDD write cache ist ausgeschaltet)


Im Prinzip tendiere ich z 4x1TB stromsparenden 5400rpm und sehe den Leistungsgewinn mehr im L2ARC per SSD statt 7200RPM/Cache/FLASH.
 
$ zdb | grep ashift
ashift: 9

Ist das nicht evtl. der rpool? Ich benutze VMWare und da ist der rpool, weil virtuelle Disk auch auf ashift=9, aber die Pools mit den WD REDs sind auf 12.

Normalerweise wird bei den aktuellen Platten der ashift automatisch richtig gewählt, daher wundert es mich...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh