Da sind die raidz's doch gestrippt oder ? Ist das zum verleichen wie ein Raid 50 oder 60?
Das ist richtig.
Die Performance von Raid 50/60 verhält sich ähnlich
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Da sind die raidz's doch gestrippt oder ? Ist das zum verleichen wie ein Raid 50 oder 60?
Das funktioniert also eigentlich viel komfortabler als bei den anderen Hypervisoren.
Das coole an Hyper-V ist ja, dass man nicht den ganzen HBA durchreichen muss, sondern einzelne Platten auswählen kann, egal woran sie hängen. Das funktioniert also eigentlich viel komfortabler als bei den anderen Hypervisoren. Dafür ist aber die Treiberunterstützung an anderer Stelle wohl deutlich schlechter. Ich teste das mal am Wochenende mit FreeNAS, NAS4free. Ubuntu mit ZoL wurde ja schon in dem oben genannten Link als funktionsfähig genannt. Aber wenn ich das richtig verstanden habe, ist ZoL weniger "produktiv" als BSD-basierte settings.
Meiner Meinung nach reicht für den privaten Gebrauch ein oder zwei vdevs, egal bei welchem RAIDZ-Level. Der Flaschenhals wird eh dein Netzwerk sein, außer du hast ein 10GB Netz aufgebaut.Normalerweise habe ich ja eine 1:1 kopie außerhalb des Servers das hatte bis jetzt bereicht.
Ich weiß halt nur nicht ob ich mich an ein raidz oder raidz2 trauen soll weil diese ja nicht gerade für ihre schreibperformance bekannt sind^^ und wenn ich mal wieder ein paar videos von der Familie hochlade habe ich keine lust mit 40-50MB/sek herrum zu eiern.
Momentan bin ich halt noch am testen in einer komplett virtuellen Umgebung mit virtuellen Festplatten die ich dem ZFS zuweise. Wenn ich dem napp-it eine virtuelle Festplatte in Form einer SSD geben dann ist die Geschwindigkeit gut. Mache ich es mit einer normalen HDD bricht die Geschwindigkeit gnadenlos ein. Denke zwar das es an der virtuellen HDD ist die ich der napp-it VM geben liegt. Im wirklichen Betrieb würde die VM einen HBA durchgereicht bekommen werden so das ich glaube das die Geschwindigkeit steigen sollte. Ich hab nur keine lust für 1000€ Platten zu kaufen und dann zu merken es ist mir zu langsam^^
Das hört sich doch ganz gut an. Dann sind meine "Ängste" in bezug auf die Geschwindigkeit wohl unberechtig und wohl den aktuellen Umständen geschuldet. In dem Fall würde ich ein raidz2 vorziehen und meine Backup Strategie ändern.
Also so wie ich nur das ich ESXi 6.0. nutze und zum testen keinen 2. HBA habe zum durchreichen^^
welche Netzwerkkarte hast du am laufen wenn du 360 - 420MB/sek kopierst
Pool auf autoexpand umstellenmuss man eigentlich wenn man die festplatten größe ändert das bei beiden vdevs machen oder reicht erstmal z.B. der erste vdev aus?
-Meiner Meinung nach reicht für den privaten Gebrauch ein oder zwei vdevs, egal bei welchem RAIDZ-Level. Der Flaschenhals wird eh dein Netzwerk sein, außer du hast ein 10GB Netz aufgebaut.
Ich werde mir wohl nich einen Backupserver anschaffen, dafür würde ich mir überlegen ein 10GBit LAN zwischen Server und Backup aufzubauen. Ansonsten wechsel ich mir ja die Hände blutig wenn ich 20 Backup HDD's hätte^^.
Tu dir selbst einen Gefallen und nutze momentan noch ESXi 5.5 mit Omnios r151012, aber noch nicht ESXi 6.0 mit r151014.
Es scheint, dass es mal wieder mit NFS Probleme gibt und das brauchst du ja, um in ESXi einen datastore einzubinden.
Bis jetzt hatte ich keine Probleme mit dem NFS Laufwerk beim Einbinden, usw... aber wenn es welche geben sollte werd ich wohl mal die 5.5 wieder raus kramen
Nimm in jedem Falle Intel Netzwerkkarten. Hast du dir deine Hardware schon rausgesucht?
Ich habe 2x Intel PRO/1000 PT Netzwerkkarten (jede ist eine Dual Port) + die LAN Adapter bei meinem SM Mainb.
Meine Hardware hab ich ja schon (SM X9SRL-F, E5-1620v2, 16GB DDR3-1600 ECC RAM, LSI 9201-16i HBA), sollte auf jedenfall dicke ausreichen
Allerdings werde ich wohl den RAM auf 32GB oder 64GB aufrüsten. ZFS ist ja nicht das einzigste was da so läuft
Ich denke dieser Wert gilt beim Internen kopieren oder von VM auf VM, wenn beide vmxnet3 Treiber und den gleichen vswitch haben.
Hier erreiche ich Werte von 80-90 MB/sek von Win7 Kiste auf Omnios.
Mit write-sync? Allerdings ist 80-90MB/sek nur ein wenig weniger als das was ich bis jetzt gewohnt bin, was mich jetzt aber auch nicht stören würde
Pool auf autoexpand umstellen
1. alte Platte raus und durch neue Größere ersetzen
ZFS resilvert
2. alte Platte raus und durch neue Größere ersetzen
ZFS resilvert
...
...
wenn alle HDDs eines vdevs ersetzt sind, hast du die neue Poolgröße
Ja das habe ich schon getestet, ging super. Waren zwar nur kleine virtuelle HDD's aber das Prinzip bleibt ja gleich.
War autoexpand nicht immer auf on bei napp-it?!
Ich werde mir wohl nich einen Backupserver anschaffen, dafür würde ich mir überlegen ein 10GBit LAN zwischen Server und Backup aufzubauen. Ansonsten wechsel ich mir ja die Hände blutig wenn ich 20 Backup HDD's hätte^^.
War autoexpand nicht immer auf on bei napp-it?!
Was du willst ein händisches Backup machen und dein HBA nimmt 16 HDDs, dein Board weitere 8 auf?
Na, dann viel Spaß dabei.
Zum Thema ESXi und NFS, ich bin wieder zurück von 6 auf 5.5 weil ich Probleme mit NFS hatte. Mittlerweile habe ich unter 5.5 auf OmniOS 151014 upgedated und konnte keine Probleme mehr feststellen.
Es liegt also entweder an ESXi 6 oder an einer Kombi von 6 und 151014.
1. zpool create tank mirror sdb sdc
2. zpool add tank mirror sdd sde
zpool create tank raidz sdb sdc sdd sde
MemTotal: 16422652 kB
write 12.8 GB via dd, please wait...
time dd if=/dev/zero of=/tank/dd.tst bs=2048000 count=6250
write:
time 6250+0 records in
6250+0 records out
12800000000 bytes (13 GB) copied, 29.1478 s, 439 MB/s
0.00user 5.16system 0:29.15elapsed 17%CPU (0avgtext+0avgdata 3696maxresident)k
0inputs+25000000outputs (0major+3485minor)pagefaults 0swaps
wait 40 s
read 12.8 GB via dd, please wait...
time dd if=/tank/dd.tst of=/dev/null bs=2048000
read
time 6250+0 records in
6250+0 records out
12800000000 bytes (13 GB) copied, 29.8363 s, 429 MB/s
0.00user 2.85system 0:29.84elapsed 9%CPU (0avgtext+0avgdata 3616maxresident)k
25138424inputs+0outputs (0major+1474minor)pagefaults 0swaps
habe ich jeweils eine Festplatte die ausfallen darf (also im raidz1-0 und im raidz1-1) oder zählt das als ganzes und es darf instgesamt nur eine Festplatte ausfallen?