[Sammelthread] ZFS Stammtisch

Wielange läüt eigentlich dieser bonnie++ BenchmarK? Kann der irgendwie hängen? ich warte schon locker mehr als drei Stunden auf ein Ergebnis...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi Wirrkopf,

3h ist zu lange. Ich habe zwar bei meinen Tests nie auf die Uhr geschaut, aber länger als 15..30 Minuten werden es wohl nicht gewesen sein. Ich kann aber gleich mal einen neuen Bonnielauf starten und die Zeit stoppen.
edit1: bonnie war in weniger als 30 Minuten fertig. Aber Du weist auch, das die Seite sich nicht automatisch aktualisiert? Du musst ab und an die Seite erneut aufrufen, also einfach auf "Benchmark" klicken.

Habe nämlich eine Lösung/workaround für mein Problem beim Importieren von Pools gefunden. Dies scheint ein Problem mit einer falschen Partionierung der Platten des Pool zu sein. Die Platten waren aber alle nagelneu und wurden unter OI und Nappit das erste mal verwendet. Wenn, dann hat wohl OI hier ein Fehler gemacht.
Der Bug wird hier beschrieben: https://defect.opensolaris.org/bz/show_bug.cgi?id=13331
Ich habe daher die ersten Sektoren aller 3 Platten mittels dd if=/dev/zero of=/dev/dsk/c4dxt0 bs=4096 count=1000 überschrieben und ... es geht.
Mich verwundert nur, warum nur ich auf dieses Problem stosse, wo ich doch weder bei der Hardware, noch bei der Software von den ausgesprochenen Empfehlungen abgewichen bin. Wenn es hilft, werde ich also als erstes bei allen neuen Platten immer erst die Sektoren platt machen.

edit2: nachdem ich die Partitiontabellen platt gemacht habe und den Pool anschließend neu erstellt habe, habe ich signifikant höhere Bonniewerte. Muß aber noch schauen, ob dies nicht andere Ursachen haben kann.
alte Werte bei 3 Platten im RAIDZ1 am Intel SASUC8I: 188MB/s Write 228MB/s read
neue Werte bei 3 Platten im RAIDZ1 am Intel SASUC8I: 318MB/s Write 364MB/s read


Gruß Millenniumpilot
 
Zuletzt bearbeitet:
napp-it-0.500s auf Solaris 11 Express

Hi All,

unter frischem Solaris 11 Express auf SPARC (Netra T5440)

<OM Aug 1 14:40:23> Installer build version: FMRI: pkg://solaris/entire@0.5.11,5.11-0.151.0.1:20101105T054056Z

<OM Aug 1 14:40:29> Target build version: FMRI: pkg://solaris/entire@0.5.11,5.11-0.151.0.1.9:20110711T174502Z


gelingt es schlußendlich nicht den napp-it-mhttpd zu starten:

...
make[1]: Leaving directory `/root/smartmontools-5.40'
setup/ update napp-it
---------------------------------
/etc/init.d/napp-it[4]: /var/web-gui/tools/httpd/napp-it-mhttpd: /var/web-gui/tools/httpd/napp-it-mhttpd: cannot execute [Invalid argument]
...

Gleiches nach reboot und händischem /etc/init.d/napp-it start:

/etc/init.d/napp-it[4]: /var/web-gui/tools/httpd/napp-it-mhttpd: /var/web-gui/tools/httpd/napp-it-mhttpd: cannot execute [Invalid argument]

oder

~# /var/web-gui/tools/httpd/napp-it-mhttpd -c **.pl -u napp-it -d /var/web-gui/wwwroot -p 81
-bash: /var/web-gui/tools/httpd/napp-it-mhttpd: Invalid argument
~# /var/web-gui/tools/httpd/napp-it-mhttpd
-bash: /var/web-gui/tools/httpd/napp-it-mhttpd: Invalid argument

Weiß jemand Rat?

Gruß
 
Zuletzt bearbeitet:
Habe den Thread mal umbenannt und werde die nächsten Tage versuchen ein paar Infos im ersten Post zu sammeln...
 
Hi All,

unter frischem Solaris 11 Express auf SPARC (Netra T5440)




gelingt es schlußendlich nicht den napp-it-mhttpd zu starten:



Gleiches nach reboot und händischem /etc/init.d/napp-it start:



oder



Weiß jemand Rat?

Gruß

SPARC wird momentan nicht unterstützt.

napp-it ist im Kern copy and run und enthält einen vorkompilierten minihttpd für Nexenta und Solaris X86
Es müsste minihttpd neu kompiliert oder ein anderer Webserver benutzt werden,
dann ist auch Expect.pm vorkompiliert dabei.

-> Modul web-gui\data\napp-it\CGI\auto\IO\Tty\tty.so
für Expect ist eine plattformabhängige binary

Wenn beide neu kompiliert werden, müsste es laufen.
 
Zuletzt bearbeitet:
Nexenta ist von der Idee her Ubuntu Server mit Solaris Kernel
und Update handling via apt

Da Nexenta die treibende Kraft hinter Illumos ist wird man sehen wie
sich das mit Nexenta 4 (auf Illumos Basis wie OpenIndiana) entwickelt

ach ja:
neueste netatalk version 2.2.0p6 von
SourceForge.net: netatalk-admins
Changelog | NetAFP

Installation/ update:
wget -O - www.napp-it.org/afp22p6 | perl
Hi gea,

seit dem 27.07.11 ist netatalk 2.2.0 verfügbar. Wird

wget -O - www.napp-it.org/afp | perl

die neue Version bald unterstützen?

Grüße
SuPeMoLe
 
Hallo gea,

danke für Deine schnelle Reaktion!
Den mini_httpd habe ich nun, aber ohne htpasswd (mit htpasswd brachte es Fehler), neu kompiliert und es läuft.

Das Kompilieren der tty.so brachte nur perl Fehlermeldungen.

Darum habe ich gesucht und bin im system/management/webmin@1.510,5.11-0.151.0.1:20101105T061636Z package für Tty.so, Tty.pm und Pty.pm fündig geworden. Nach Installation also:

cp /usr/sfw/lib/webmin/perlmod/auto/IO/Tty/Tty.so /var/web-gui/data/napp-it/CGI/auto/IO/Tty/Tty.so
cp /usr/sfw/lib/webmin/perlmod/IO/Tty.pm /var/web-gui/data/napp-it/CGI/IO/Tty.pm
cp /usr/sfw/lib/webmin/perlmod/IO/Pty.pm /var/web-gui/data/napp-it/CGI/IO/Pty.pm


Expect Kompilierung hat aber wieder funktioniert und hier nun:

cp /usr/perl5/site_perl/5.8.4/Expect.pm /var/web-gui/data/napp-it/CGI/Expect.pm
cp /usr/perl5/site_perl/5.8.4/Expect.pod /var/web-gui/data/napp-it/CGI/Expect.pod


Leider bleibt es bei den gleichen Fehlermeldungen in der napp-it Web GUI wie vor den Kopieraktionen:

...
Can't load '/var/web-gui/data/napp-it/CGI/auto/IO/Tty/Tty.so' for module IO::Tty: ld.so.1: perl: fatal: /var/web-gui/data/napp-it/CGI/auto/IO/Tty/Tty.so: wrong ELF data format: ELFDATA2LSB at /usr/perl5/5.8.4/lib/sun4-solaris-64int/DynaLoader.pm line 230.
at /var/web-gui/data/napp-it/CGI/IO/Tty.pm line 29
Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1356.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1356.

For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.
Status: 500 Content-type: text/html
...

Was meinst Du?

Gruß
 
Zuletzt bearbeitet:
@Bronkoo
Im Ordner \web-gui\data\napp-it\CGI\auto\IO\Tty
gibt es Tty.so.nex und Tty.so.osol

Die werden bei jedem Start je nach system nach Tty.so kopiert.
Damit die neue Tty.so bleibt, die Tty.so.osol löschen oder die eigene
als Tty.so.osol benennen.

@SuPeMoLe
Der normaler afp installer installiert jetzt 2.2.0
wget -O - www.napp-it.org/afp | perl

Die neueste verfügbare Version 2.2.0p6:
wget -O - www.napp-it.org/afp22p6 | perl
 
Hallo Gea,

kannst Du auf Grund Deiner Erfahrungen etwas zu meinem Poolimportproblemen sagen? Ist soetwas schon einmal im Zusammenhang mit OI 148 aufgetaucht?
Ist meine Lösung, die ersten Plattensektoren zu überschreiben, ein gangbarer Weg oder sollte ich weiter nach einer kongreten Ursache suchen. Ein unwohles Gefühl bleibt.
Was ich bisher lesen konnte, tritt der Effekt eigendlich nur auf beim Importieren von an Fremdsystemem erstellten Pools, hier geht aber nichteinmal das Exportieren und sofortige Importieren am gleichen System.

Gruß Millenniumpilot
 
Hallo gea,

wieder vielen Dank für Deinen Hinweis; die Fehlermeldungen im Web Gui werden kürzer ;-):

IO::Pty version 1.03 required--this is only version 1.02 at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1356.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1356.

Ist das eine Bedingung die ich umbiegen kann oder muß ich sie wörtlich nehmen und hier nun aufgeben bzw. weiter versuchen die perl Fehlermeldungen bei Kompilierung zu lösen...?

Gruß
 
Was ich gerne mal testen würde, wäre eine >=32 GB SSD mit mini-USB Anschluss für esxi und Nexenta SAN damit die SATA per pass-through durchgereicht werden können. Mit 6 x SATA könnte man dann schon einen schönen all-in-one aufbauen und würde keinen extra SAS Controller brauchen.
wie kann man den die Nexenta/OI SAN VM von einem USB Stick starten?

Im Moment habe ich die OI SAN VM auf einer PATA HDD die dank Patch vom ESXi erkannt wird. So bleiben alle 6 onBoard SATA Anschlüsse für das durchreichen an das OI frei.

Die PATA HDD würde ich aber gern einsparen.
 
Hallo gea,

wieder vielen Dank für Deinen Hinweis; die Fehlermeldungen im Web Gui werden kürzer ;-):



Ist das eine Bedingung die ich umbiegen kann oder muß ich sie wörtlich nehmen und hier nun aufgeben bzw. weiter versuchen die perl Fehlermeldungen bei Kompilierung zu lösen...?

Gruß

Tty.so wird bei Expect mit kompiliert
Der Schlüssel liegt da

ps
Expect wird benutzt um Passwörter zu setzen und beim Anmelden an
einer AD-Domäne. Werden beide Funktionen nicht benutzt kann man im
Script die use Expect; Anweisungen auskommentieren und alle anderen
Funktionen laufen.
 
Hallo Gea,

habe ich Dich irgendwie verärgert, daß auch Du meine Fragen ignorierst ;-)
Muss man unter Solaris die Platten vor der Aufnahme in einen Pool vorbereiten, weil ohne Überschreiben der Partitiontabelle die Pools bei mir nicht zu importieren waren?
Würde mich über jeden noch so kleinen Hinweis freuen, was bei mir diese Probleme verursacht haben könnte.

Gruß Millenniumpilot
 
Hallo Gea,

habe ich Dich irgendwie verärgert, daß auch Du meine Fragen ignorierst ;-)
Muss man unter Solaris die Platten vor der Aufnahme in einen Pool vorbereiten, weil ohne Überschreiben der Partitiontabelle die Pools bei mir nicht zu importieren waren?
Würde mich über jeden noch so kleinen Hinweis freuen, was bei mir diese Probleme verursacht haben könnte.

Gruß Millenniumpilot

Die Probleme hatte ich noch nicht.
Bei nicht hot-plug Controllern ist zwar ein Reboot beim Disk-Wechsel nötig,
ansonsten muss bei neuen Disks nichts vorbereitet werden.

Es scheint zwar ein Problem mit großen 4K Platten zu geben (aus dev-Mailinglist), ansonsten
stellt sich zunächst die Frage, was du für einen Controller benutzt?
Falls Onboard SATA, steht der auf AHCI?

Tritt das Problem auch bei SE11 oder OI 151 auf z.B. mit Live DVD testen.
 
Zuletzt bearbeitet:
Hallo Gea,

ich habe die Platten (hitachi 5k3000 mit 512byte-Sektoren) am SASUC8I unter OI 148.
Also sollten diese Probleme eigendlich nicht auftreten.
Wo kann ich denn das OI 151 saugen, bisher habe ich auf der Page von OI nur die 148 gesehen?
 
napp-it nun auch auf SPARC

Hallo gea,

zu Expect und IO-Tty habe ich mich hier bedient:


Dort sind also beide packages getrennt.

Bin nun in der Versionshistorie rückwärts gegangen und Expect v1.15 ist kompatibel mit der IO-Tty version 1.02 aus dem webmin package des offiziellen package repository aus Solaris 11 Express (siehe oben).

Falls Du SPARC unterstützen willst, kann ich Dir das hier nochmal zusammenschreiben und Du kannst es evtl. in Dein script übernehmen.

Gruß und Danke nochmal
 
Hi TLB,

vielen Dank für den Link, sauge es mir gerade. Habe soeben auch eine neue Platte bestellt und werde die Poolimports damit testen. Meine jetzigen Platten sind ja schon "vorbehandelt". Ich werde berichten.

millenniumpilot
 
Hallo gea,

zu Expect und IO-Tty habe ich mich hier bedient:



Dort sind also beide packages getrennt.

Bin nun in der Versionshistorie rückwärts gegangen und Expect v1.15 ist kompatibel mit der IO-Tty version 1.02 aus dem webmin package des offiziellen package repository aus Solaris 11 Express (siehe oben).

Falls Du SPARC unterstützen willst, kann ich Dir das hier nochmal zusammenschreiben und Du kannst es evtl. in Dein script übernehmen.

Gruß und Danke nochmal

Ich habe zwar kein SPARC aber vermutlich gibt es andere, die das
auch brauchen könnten. Ich vermute, es genügt den minihttpd und
die Tty.so auszutauschen.

Ein zip-file mit einem kleinen Howto und den Files wäre prima.
Ich würde das zunächst zum download anbieten.

-> community@napp-it.org


Danke auch


Gea
 
Was ich gerne mal testen würde, wäre eine >=32 GB SSD mit mini-USB Anschluss für esxi und Nexenta SAN damit die SATA per pass-through durchgereicht werden können. Mit 6 x SATA könnte man dann schon einen schönen all-in-one aufbauen und würde keinen extra SAS Controller brauchen.
Also gibt es eine MöglichkeitKann wie man den die Nexenta/OI SAN VM von einem USB Stick starten kann?
 
Also gibt es eine MöglichkeitKann wie man den die Nexenta/OI SAN VM von einem USB Stick starten kann?

Ich habe es nicht geschafft ESXi dazu zu überreden, einen datastore
auf der USB SSD anzulegen, zudem gab es kein USB3 support.

Mein Fazit war, solange VMware es nicht out of the box mit USB3
unterstützt, ist es nicht sinnvoll, sich weiter damit zu beschäftigen.
(Mein Motto ist da immer recht schnell: Probleme lösen, nicht schaffen)
 
Warum soll das nicht sinnvoll sein? Ich dachte die OI VM startet einmal und dann arbeitet sie recht autark und schreibt kaum was zurück? Also sollte doch die Geschwindigkeit egal sein?

Wenn Sie das NICHT ist kann dann eine lahme PATA Disk auf dem die OI VM liegt von Nachteil sein?

Und ist schon bekannt ob VMSphere 5 Neuigkeiten in Bezug auf USB bietet?

Achja unter ESXi5 soll es ja ein eingebautes Virtual Storage Appliance geben. Ist das quasi Dein All-in-One? nur direkt von VMWare?
 
Zuletzt bearbeitet:
Warum soll das nicht sinnvoll sein? Ich dachte die OI VM startet einmal und dann arbeitet sie recht autark und schreibt kaum was zurück? Also sollte doch die Geschwindigkeit egal sein?

Wenn Sie das NICHT ist kann dann eine lahme PATA Disk auf dem die OI VM liegt von Nachteil sein?

Für den Storagebetrieb ist es egal.
Management ist aber übel langsam

Und ist schon bekannt ob VMSphere 5 Neuigkeiten in Bezug auf USB bietet?

Achja unter ESXi5 soll es ja ein eingebautes Virtual Storage Appliance geben. Ist das quasi Dein All-in-One? nur direkt von VMWare?

Mal abwarten was es im Vergleich zu einem OI/ Nexenta ZFS SAN so kann.
Kosten wird es erheblich.
 
Zuletzt bearbeitet:
Wie sind die Erfahrungen wenn man ein Z1 über zwei verschiedene Controller hinweg macht? Ich spiele da mit mehreren Varianten:

A: 6 x SATA über den onBoard SATA Controller und 4 x SATA über einen SATA PCI (ohne Express) Zusatzcontroller? Also im Ergebnis ein Z1 mit 10 (identischen) SATA HDDs.

B: 6 x SATA über den onBoard SATA Controller und 2 x SATA über einen SATA PCIexpress Zusatzcontroller? Also im Ergebnis ein Z1 mit 8 (identischen) SATA HDDs.

C: 6 x SATA über den onBoard SATA Controller und 2 x SATA über einen SATA-PATA Adapter am PATA onBoard Controller. Also im Ergebnis ein Z1 mit 8 (identischen) SATA HDDs.

D: Kombinationen aus C und A/B :)

Sicher nicht elegant aber dieser Intel 8x SAS/SATA Controller ist mir zu teuer und einen PCI (ohne Express) 4 x SATA PCI Controller hab ich noch in der Grabbelkiste. Einen 2x SATA <-> PATA Adapter bekommt man neu für 3,5 €. Einen 2x SATA PCIexpress Adapter gibts neu für 12 €. Es gibt da eine Bandbreitenlimitierung des PCI Busses deren Höhe mir gerade nicht präsent ist. Würde der PCI (ohne Express) Bus 1,2,3 oder 4 HDDs á 140 MB/s packen oder ab wann bremst der die aus?

Rollen sich da den Experten die Zehnägel hoch oder hat jemand sowas schonmal ausprobiert?
 
Zuletzt bearbeitet:
das hängt davon ab, was die controller mit den jeweils angeschlossenen platten so machen,

bloss einzeln durchreichen an's os, dann dürfte dein vorhaben wohl kein problem machen
es ist aber immer gut, wenn platten, die in einem zusammenhang stehen, sich durch gleichartigkeit auszeichnen, und das gilt auch für alle hardware, die an einem solchen zusammenhang beteiligt sind, in deinem fall eben die controller (so ein gemischtwarenladen aus verschiedenen platten und controllern ist grundsätzlich schonmal schlecht)

reichen die controller aber nicht bloss die platten einzeln durch, sondern verschalten die platten zu irgendeinem raid (davon weiß dann das os nichts), dann würdest du durch dein vorhaben eine art raid-5 (z1) über irgendwelchen
zwei weiteren (controllerseitigen) raids errichten, das wird murks und ist wirklich ziemlich sinnfrei

was sinnvoll ist, ist zum beispiel ein software-raid-0 über zwei hardware-raid-10 zu errichten,
für sowas solltest du deinen rechner aber besser am boden verschrauben, sonst fängt er nämlich womöglich an zu fliegen vor lauter durchsatz und iops

noch ein punkt, mehrere controller heisst natürlich auch erheblichen mehrverbrauch ...
 
Zuletzt bearbeitet:
Also grundsätzlich keine schlechte Idee, bei Z1 zwei Controller zu verwenden, dann aber schön die Paare verteilen, damit ein Controller komplett wegbrechen kann ohne Datenverlust. Aber wenn schon dann bitte wenigstens Controller ohne Flaschenhals und dubiose Adapter. Also nix mit PCI und PATA...
Und nix mit Hardware RAID, sondern alles das ZFS machen lassen.

cu
 
Zuletzt bearbeitet:
Also gibt es eine MöglichkeitKann wie man den die Nexenta/OI SAN VM von einem USB Stick starten kann?

Wenn dein Footer noch stimmt, willst du dir doch einen Napp-it-All-in-one Server zusammenbauen.
Sollte dein USB-Stick groß genug sein, installierst zuerst ESXi drauf und den Rest gibt dir dann ESXi für deine OI-VM.

Gea hat dir aber schon geschrieben, dass das Ganze schnarch langsam ist.
Der Start von ESXi wird zur Geduldsprobe, sowie auch OI.
Gib von deinen 16 GB RAM möglichst viel an die OI-VM durch, damit OI möglichst selten auf den USB-Stick zugreift.

Wie sind die Erfahrungen wenn man ein Z1 über zwei verschiedene Controller hinweg macht? Ich spiele da mit mehreren Varianten:

A: 6 x SATA über den onBoard SATA Controller und 4 x SATA über einen SATA PCI (ohne Express) Zusatzcontroller? Also im Ergebnis ein Z1 mit 10 (identischen) SATA HDDs.

B: 6 x SATA über den onBoard SATA Controller und 2 x SATA über einen SATA PCIexpress Zusatzcontroller? Also im Ergebnis ein Z1 mit 8 (identischen) SATA HDDs.

C: 6 x SATA über den onBoard SATA Controller und 2 x SATA über einen SATA-PATA Adapter am PATA onBoard Controller. Also im Ergebnis ein Z1 mit 8 (identischen) SATA HDDs.

D: Kombinationen aus C und A/B :)

RaidZ1-3 über mehrere Controller zu verteilen ist immer gut, aber nicht alle 10 HDs in ein einziges RaidZ, mach 2 draus.

Hast du schon geprüft, ob die Controller, die du in der Grabbelkiste hast mit OI überhaupt funktionieren? Gibts Treiber für die Controller?
Die unterschiedlichen Teile bremsen sich gegenseitig aus.

IMHO würde ich keine deiner Ideen umsetzen, denn es ist eine Bastellösung, mit der du mit Sicherheit nicht glücklich wirst.
Nutz vorerst nur den onboard Controller und wenn du das Geld zusammen hast, kauf dir eine vernünftige HBA (LSI, Intel) und alles wird gut.
Du hast nachher mind. 6 TB Speicherplatz mit den 6 Hitachis und stell dir vor einer deiner Grabbelkisten-Controller macht die Krätsche - dann ist alles weg. Da hilft dir auch kein ZFS mehr. Mich würde das ankotzen und wie.

Nein ich bin überhaupt kein Experte, hab aber schon mein Lehrgeld bezahlt mit den Basteleien.
 
Zuletzt bearbeitet:
WOW! drei Antworten innerhalb kürzester Zeit!

Also die Hardware meines ESXi "All-in-One" Systems ist schon eine Weile fertig aber ich bin immer noch am testen und Benchmarken :-) und kann mich noch nicht dazu durchringen mein Produktivsystem mit allen Daten drauf zu verlagern da ich dann nichts mehr ändern kann ohne viel Aufwand.

Wenn dein Footer noch stimmt, willst du dir doch einen Napp-it-All-in-one Server zusammenbauen.
Sollte dein USB-Stick groß genug sein, installierst zuerst ESXi drauf und den Rest gibt dir dann ESXi für deine OI-VM.
Wenn Du mir sagst wie ich eine VM auf dem USB Stick anlege...
Gea hat dir aber schon geschrieben, dass das Ganze schnarch langsam ist.Der Start von ESXi wird zur Geduldsprobe, sowie auch OI.
Der ESXi startet ausreichend schnell. Ist auch ziemlich egal wie schnell er startet da das System möglichst Monate/Jahrelang durchlaufen soll- Wenn ich meinen Basteltrieb solange unterdrücken kann.
Gib von deinen 16 GB RAM möglichst viel an die OI-VM durch, damit OI möglichst selten auf den USB-Stick zugreift.
Ich lass das Oi im Moment mit 4 GB laufen. Ich hab mal mit 1,2,4 und 12 GB getestet. 1 GB ist zuwenig aber ab 2 GB sind die Steigerungen nur minimal. Da mein ESXi ja hauptsächlich mehrere VMs hosten soll ist für mich 1/4 des gesamten RAMs für das OI mein Maximum. Hätte ich insg. 32 GB wäre ich großzügiger aber die hab ich leider nicht.
RaidZ1-3 über mehrere Controller zu verteilen ist immer gut, aber nicht alle 10 HDs in ein einziges RaidZ, mach 2 draus.
Wie soll ich das bei einem Controller mit 6x Sata und einem mit 2 x Sata hinbekommen....? Abgesehen davon das mir der Verschnitt zu groß ist. Das reizt mich ja gerade an einem Z1 aus 8 oder mehr HDDs. Das der Anteil für die eine HDD Redundanz immer kleiner wird.

Hast du schon geprüft, ob die Controller, die du in der Grabbelkiste hast mit OI überhaupt funktionieren? Gibts Treiber für die Controller?
Die unterschiedlichen Teile bremsen sich gegenseitig aus.

IMHO würde ich keine deiner Ideen umsetzen, denn es ist eine Bastellösung, mit der du mit Sicherheit nicht glücklich wirst.
Nutz vorerst nur den onboard Controller und wenn du das Geld zusammen hast, kauf dir eine vernünftige HBA (LSI, Intel) und alles wird gut.
Du hast nachher mind. 6 TB Speicherplatz mit den 6 Hitachis und stell dir vor einer deiner Grabbelkisten-Controller macht die Krätsche - dann ist alles weg. Da hilft dir auch kein ZFS mehr. Mich würde das ankotzen und wie.
Ich denke ich mach es jetzt wohl so:
Ein 3,5 € SATA-PATA Adapter für den PATA onBoard Anschluß (an dem bisher meine größte PATA HDD hängt (250 GB) mit der OI VM) damit ich da eine 1,5 GB SATA (aus meinem Bestand) anschließen kann. Da bleibt dann die OI VM drauf und ich hab genug Platz für ISO Files und ein Backup aller VMs so das sie bei Ausfall des ZFS Z1 von dort laufen können.

Dazu kaufe ich mir einen PCIe 2x SATA Controler für 11 € an den ich dann 2 x 750 (aus meinem Bestand) GB SATA Hdds anschließe. Die reiche ich entweder an die OI VM durch und lasse sie da aber separat vom 6 x Z1 am onBoard SATA Controller laufen. Oder ich reiche sie an eine Windows VM durch die für das Backup der wichtigsten Daten des Z1 zuständig ist. Das hätte den Vorteil das ich bei Ausfall des ESXi Servers diese zwei HDDs schnell in einen anderen PC reaktivieren kann ohne auf das ZFS Filesystem Rücksicht nehmen zu müssen.

So habe ich dann alle 9 HDD Plätze in meinem Sharkoon Rebel9 Gehäuse belegt und ordentlich Platz.

Nein ich bin überhaupt kein Experte, hab aber schon mein Lehrgeld bezahlt mit den Basteleien.
Und ich bin auch schon älter und habe mein Lehrgeld bezahlt aber trotzdem gibt es für mich nichts langweiligeres als Systeme die einfach stabil laufen und an denen man nichts schrauben muß :-) Sobald ein System diesen Zustand erreicht kann ich mich nicht lange zurückhalten und fange bald an es wieder umzubauen, natürlich um es NOCH besser zu machen. Da es dadurch insgesamt durch die ganze Bastelei, Fehlschläge, Ausfallzeiten usw. natürlich unterm Strich eher Bescheiden läuft weis ich selber, hält mich aber immer wieder nicht zurück es trotzdem zu tun.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh