[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was sind die Vorteile von NexentaCore im vergleich zu OI?
Nachteile sind doch z. B. der nicht vorhandene VMXNET3 NIC Treiber oder kommt der auch mal für NexentaCore?

Nexenta ist von der Idee her Ubuntu Server mit Solaris Kernel
und Update handling via apt

Da Nexenta die treibende Kraft hinter Illumos ist wird man sehen wie
sich das mit Nexenta 4 (auf Illumos Basis wie OpenIndiana) entwickelt

ach ja:
neueste netatalk version 2.2.0p6 von
SourceForge.net: netatalk-admins
Changelog | NetAFP

Installation/ update:
wget -O - www.napp-it.org/afp22p6 | perl
 
Das beantwortet aber doch meine Frage nicht: Was ist "besser"? OI oder NexentaCore?
Kann man das zumindest in Bezug auf die All-in-One Lösung sagen?

---------- Beitrag hinzugefügt um 14:25 ---------- Vorheriger Beitrag war um 13:24 ----------

Ich habe Probleme mit den Rechten in OI. Ich habe den Ordner als SMB freigegegen in dem die VMs liegen. Ganz oben in der Wurzel habe ich z. B. alle Domänen Admins volle Zugriffsrechte gegeben und die Vererbung nach unten ist aktiv.

Wenn nun eine neue VM angeelgt wird erhalten dessen Files leider nicht diese vererbten Rechte. Damit kann ich die neue VM nicht mal wegkopieren da "Jeder" zwar Leserechte auf die VMX Datei etc. hat aber nicht auf die VMDK Dateien.

Eine nachträgliche Änderung der Rechte klappt nicht jedesmal. Ich habe eben eine neu erstellt VM heruntergefahren und ich bekomme bei dem versuch die Rechte für die VMDK Files zu ändern immer die meldung "Zugriff verweigert"

Wie kann man das lösen!?
 
Das beantwortet aber doch meine Frage nicht: Was ist "besser"? OI oder NexentaCore?
Kann man das zumindest in Bezug auf die All-in-One Lösung sagen?

---------- Beitrag hinzugefügt um 14:25 ---------- Vorheriger Beitrag war um 13:24 ----------

Ich habe Probleme mit den Rechten in OI. Ich habe den Ordner als SMB freigegegen in dem die VMs liegen. Ganz oben in der Wurzel habe ich z. B. alle Domänen Admins volle Zugriffsrechte gegeben und die Vererbung nach unten ist aktiv.

Wenn nun eine neue VM angeelgt wird erhalten dessen Files leider nicht diese vererbten Rechte. Damit kann ich die neue VM nicht mal wegkopieren da "Jeder" zwar Leserechte auf die VMX Datei etc. hat aber nicht auf die VMDK Dateien.

Eine nachträgliche Änderung der Rechte klappt nicht jedesmal. Ich habe eben eine neu erstellt VM heruntergefahren und ich bekomme bei dem versuch die Rechte für die VMDK Files zu ändern immer die meldung "Zugriff verweigert"

Wie kann man das lösen!?

Nexenta vs OI
Beide haben Ihre Vprteile. Jeder kann die anders werten und kommt
dann zu einem anderen Ergebnis. Für ESXi spielen eventuell die neueren
tools für OI ene Rolle. OI live ist auch komfortabler und hat den Timeslider.
Nexenta ist für jemand der von Ubuntu kommt einfacher, auch ist es viel
platzsparender....

Rechte;
SMB benutzt ACL only, ESXi nutzt NFS3 und kennt damit keine ACL

Lösung:
Rechte auf 777 und jeder =full.
Es darf dann aber kein öffentliches Netz sein
(privates management oder SAN-Netz)
 
Lösung:
Rechte auf 777 und jeder =full.
Wo stelle ich das ein? Der pool hat schon 775 und das ZFS Filesystem in dem die VMS liegen auch die 777

Aber das "jeder=full" sehe ich nicht. Habs nun doch gefunden "e=full" ! ;-) OK Alles klar.

Ne nicht alles klar. Hab die berechtigung auf "e=full" umgestellt aber ich darf immer noch nicht. Muss ich das OUI neustarte oder sowas damit sich die Änderung auswirkt?
 
Zuletzt bearbeitet:
Hallo Ihr,

da Board, CPU und Speicher, genau nach Geas FAQ ausgewählt nun angekommen sind, habe ich die ersten Experimente durchgeführt. Der SASUC8I ist leider noch unterwegs. Da mir Hardware und Software unbekannt sind, probiere ich in solch einem Fall immer viel aus bevor ich das "Produktivsystem" aufsetze.
Hier mal kurz in Stichpunkten meine Erfahrungen.
Als erstes habe ich OI und Nappit nativ auf dem Board installiert, also nicht als VM unter ESXi. BS auf eine alte 80GB 2,5" SATA und als Datenplatte eine WD20EARS.
Der Bonnietest und SMB-Kopieraktionen wurde einmal mit und einmal ohne den für diese Platte vorgesehenden Jumper der den Startsektor verschiebt durchgeführt.
Ohne gesetzten Jumper waren die erziehlten Leistungswerte von kaum bis zu ca. 10% höher, werde also den Jumper bei diesen 4k-Platten nicht setzen. Ich hatte sowieso vermutet, das OI den Startsektor richtig setzt.
Bonniewerte mit Jumper 85MB/s Write und 113MB/s Read
Bonniewerte ohne Jumper 86MB/s Write und 121MB/s Read
Die SMB-Übertragungsraten habe mich vollkommen überzeugt. Das Gigabitnetzwerk ist zu 99,7% ausgelastet, es gehen in beiden Richtungen beim Kopieren einer 18GB-Datei 87 bis 100MB/s beim Schreiben und 110MB beim Lesen über die Leitung. Auch kleine Dateien (5GB an MP3s) gehen mit ca. 80MB/s.
Mir ist bewusst, das man ein Pool nicht aus Einzelplatten aufbaut, aber hier ging es mir um den Vergleich zu meiner Standardkonfiguration auf dem bisherigen WindowsServers 2008R2 (Sandy-Quadcore, 3GHz, 16GB RAM). Auf alle Fälle macht bisher der Einsatz von ZFS den SMB-Durchsatz nicht langsamer. Als nächstes wird ein Mirrorsatz aufgebaut und die Tests damit wiederholt.
Beim Arbeiten mit dem Shares ist mir aufgefallen, das ich beim Erstellen von SMB-Shares auf dem Pool oft eine "OOps"-Fehlermeldung erhalte, das das Share nicht angelegt werden konnte. Schaue ich mir die Shares in Nappit dann an, so sind diese aber vorhanden, oft aber auch mit falschen Dateisystemrechten (755 anstatt 777). Da hilft dann löschen und erneutes erstellen. Das gleiche beim Poolerstellen. Fehlermeldung, aber der Pool wurde doch angelegt. Sicherhaltshalber wiederhole ich dann aber die Erstellung, ein ungutes Gefühl habe ich nämlich nicht gerne ;-)
Unter ESXi habe ich für den OI eine 12GB-Platte angelegt und bei zugeordneten 6GB RAM einen Bonnietest auf dem rpool gestartet. Ich habe die Warnung wegen Plattengröße und Hauptspeichergröße zu spät gelesen. Das ging schief, die Platte war zu 100% gefüllt und das BS startete nur im Maintenance-Modus. Leider habe ich den Ort nicht gefunden, wo Bonnie seine Testdaten ablegt, also wurde die VM wieder platt gemacht.

Ich habe einen Test-SMB-User mittels Napp-it angelegt, kann den aber leider beim Versuch der Rechtevergabe (unter XP und Server2008) nicht finden, obwohl der Focus auf openindiana liegt. Administrator hat Vollzugriff, everyone hat RW-Rechte, so wie erwartet. Hier muss ich noch weiter suchen ob der Fehler bei mir liegt oder woanders.
Dabei habe ich versucht die Shares über ihren UNC-Pfad anzusprechen, als auch gemappt mit Laufwerksbuchstaben. Aber jedesmal das selbe Problem.
Gibt es eine Zeitverzögerung, ab der der Name erst gelistet wird? Der smb-User wurde angelegt und mindestens 10 Minuten gewartet.

@gea: ich habe den ESXi 4.1.0.update1-348481 installiert, samt passenden vSphere Client. Hier habe ich aber beim Board Supermicro X8SIL-F das Problem, das ich die Sensordaten des Board meist nicht angezeigt bekomme. Nach einem Neustart gehts wieder für eine kurze Weile. Du verwendest in Deinen Dokus laut Screenshot den ESXi -4.1.0-260247. Sollte ich den lieber verwenden?

auf alle Fälle ist das Nappit eine große Erleichterung und Hilfe für einen ZFS-Anfänger, in die Tiefen des CLI kann und muss man dann später einsteigen. Die Hemmschwelle, sich mit ZFS zu beschäftigen und die positiven Erfahrungen dann weiterzutragen sinkt damit mächtig. Vielen Dank für Dein tolle Arbeit.

Nachtrag: der Syntax Deiner Befehlszeilenbeispiele ist nicht immer eindeutig. Ich kann häufig nicht erkennen, was ist ein Parameter und was ein Kommando.
Z.B. bei erstellen eines Mirrors. Da scheibst Du: zpool attach pool memberid addid. Mein erstes Absetzen war natürlich falsch: zpool attach pool c3t1d0 c3t2d0. Also sollte IMHO das Kommando so heisen:
zpool attach poolID memberID addID

Gruß Millenniumpilot
 
Zuletzt bearbeitet:
Wieviel vCPUs hast du dem OI gegeben? Und mißt Du die SMB Performance an einen echten Client über einen echten Switch? Hat der Client auch eine Intel NIC?

Auf dei Werte vom virtualisiertem OI bin ich gespannt.
 
Zuletzt bearbeitet:
Hi,

der virtualisierte OI hatte 2 vCPU, genau so, wie im Dokument vermerkt. Mehr sollen wohl Probleme beim Booten des OI verursachen. Die bisherigen Benchmarks wurden aber "nicht virtualisiert" durchgeführt, da der Controller noch nicht eingetroffen ist.
Als Client für die smb-Transfers dient mein bisheriger 2008Server mit relativ potenter Hardware. Der Client hat keine IntelNIC, ist eine OnBoard des MSI H67MA-E45 (B3). Der Transfer geht über einen 24Port Switch Longshine LCS-GS9428.
Am Client hängen nur GreenWDs als Singleplatte, die Transfers werden also durch die Plattenperformance begrenzt. Trotzdem kann ich mein Gigabitnetz zu fast 100% ausreizen, das SMB-Protokoll ist hier also definitiv kein Engpass.
Mit zwei GreenWDs vom Type WD20EARS im Mirror waren die Bonniewerte wie folgt: Write 77MB/s, Read 129MB/s, die SMB-Transfers waren im Mittel beim Kopieren von 200GB-Daten beim Schreiben auf ZFS > 80MB/s und beim Lesen > 105MB/s. Hier bin ich mir auch sicher, das die reine Plattenperformance der Begrenzer ist, nicht das smb-Protokoll und nicht das ZFS. Das zeigt mir auch, das das Scrub auf dem Mirrorset mit 105MB/s läuft. Sind ja nur 5400er Platten. Für die Platten kann ja das System nicht, wird sich dann bessern, wenn ich mehrere vdev verwende.
Wobei der physische OI auch die vollen 16GB Hauptspeicher benutzen konnte, als VM bekommt er nur 6..8GB. Wobei ich aber überlege, sicherheitshalber nochmal 16GB nachzubestellen. Dann kann auch der OI sich so richtig in seiner VM austoben.

Gruss Millenniumpilot
 
der virtualisierte OI hatte 2 vCPU, genau so, wie im Dokument vermerkt.
Da bin ich mir halt nicht sicher ob das gut ist. Im VMWARE Forum sagen die Experten das man möglichst immer erst mit einer vCPU anfangen soll und nur wenn klar ist das es Performanceprobleme gitb sollte man das auf mehr als eine erhöhen.

Mehr als eine vCPU pro VM erschweren das CPU loadbalancing des ESXi Host. Zumindest sobald man den Vms insgesamt mehr vCPUs zuweist als der HOST an echten CPUs hat.
 
Hi,

...
Wobei der physische OI auch die vollen 16GB Hauptspeicher benutzen konnte, als VM bekommt er nur 6..8GB. Wobei ich aber überlege, sicherheitshalber nochmal 16GB nachzubestellen. Dann kann auch der OI sich so richtig in seiner VM austoben.

Gruss Millenniumpilot

Hi,
welchen Speicher und Mainboard verwendest du, dass du 16GB verbauen kannst und nochmal 16GB dazu kaufen kannst?

Grüße Ghandalf
 
Hallo Ghandalf,

wie schon geschrieben, ich halte mich da an die Doku von Gea zum AllInOne.
Ich verwende ein Supermicro X8SIL-F mit einem Xeon X3440. Als Speicher habe ich mir ein 16GB Kit aus 2x8GB ECC reg geholt, damit ist ein Vollausbau auf 32GB möglich. Die RAMs sind vom Typ KVR1066D3Q8R7SK2/16G kosten aktuell ca. 170€ und sind damit nicht viel teurer als die DDR3 für mein bisheriges Sandybridgeboard.
Im Augenblick laufen diese DIMMs mit 1066, bei Vollausbau wird auf 800 runtergetaktet. Dies ist aber meiner Meinung nach zu verschmerzen, ein Hauptspeicherausbau ist auf alle Fälle gewinnbringend. Ich habe den Speicher letzte Woche gekauft und sehe gerade, aktuell ist wieder überall Lieferengpass. Da werde ich mal bei Amazon gleich vorbestellen, eh die wieder teuerer werden ;-)

Gruß Millenniumpilot
 
Hallo Ghandalf,

wie schon geschrieben, ich halte mich da an die Doku von Gea zum AllInOne.
Ich verwende ein Supermicro X8SIL-F mit einem Xeon X3440. Als Speicher habe ich mir ein 16GB Kit aus 2x8GB ECC reg geholt, damit ist ein Vollausbau auf 32GB möglich. Die RAMs sind vom Typ KVR1066D3Q8R7SK2/16G kosten aktuell ca. 170€ und sind damit nicht viel teurer als die DDR3 für mein bisheriges Sandybridgeboard.
Im Augenblick laufen diese DIMMs mit 1066, bei Vollausbau wird auf 800 runtergetaktet. Dies ist aber meiner Meinung nach zu verschmerzen, ein Hauptspeicherausbau ist auf alle Fälle gewinnbringend. Ich habe den Speicher letzte Woche gekauft und sehe gerade, aktuell ist wieder überall Lieferengpass. Da werde ich mal bei Amazon gleich vorbestellen, eh die wieder teuerer werden ;-)

Gruß Millenniumpilot

Hi,

danke für die Auskunft.

Ich finde es ja echt schade, dass der neue 1155er c204 Chipsatz, bzw. CPU kein reg Speicher untersützt. Da ist es derzeit unmöglich 32GB ECC Ram zu kaufen.

Grüße Ghandalf
 
Hallo Ihr,

wollte mitteilen, das ich zusätzlich noch 3 Stück Hitachi 2TB 5k3000 gekauft habe. Mal schauen, ob damit der berühmte Unterschied zu den "schlechten" 4K WD green Platten wirklich zu sehen ist. Eventuell ist ja das Geschrei umsonst immer so groß bei diesem Thema. Der SASUCI8 ist auch heute gekommen und wurde sofort geflasht, leider fehlen mir noch die 8087-SATA Kabel.

mal so am Rande... hat nur indirekt mit ZFS zu tun: ich habe versucht, das auf der Platte installierte Live-CD OI upzudaten und bekomme die Meldung: "This is an Live Image. The install operation can't be performed". Habe den Update Manager verwendet.
Kann ich das System trotzdem zum Update überreden?

@gea:
bei Nappit sind mir bisher zwei Dinge aufgefallen:
1. unter System/statistic/pool sind die Tabellenspaltenbeschreibungen für operations und bandwidth an den falschen Spalten festgemacht.
2. kann man den verwendeten Absender (napp-it_noreply_openindiana oder die in den Settings unter optional angegebene Adresse) für die Status- und Errormails nachträglich ändern? Wird die Adresse geändert, übernehmen die vorher generierten Jobs die neue Adresse nicht. Ich muss alle Jobs löschen und neu anlegen, damit die neue Adresse greift.

Gruß Dirk
 
hallo Dirk
1.
Bandwith ist korrekt, den Begriff operations werde ich entfernen

2.
Bis auf Replikation werden die Aktionen im Jobfile selber gespeichert
und können dort manuell editiert werden
-> /var/webgui/date/napp-it/zfsos/_log/jobs/'id'.pl

Ich stelle das gerade um, so dass im Jobfile nur die Termine stehen.
Ansonsten ist napp-it so angelegt, dass mit wenig Programmierkenntnis
Menüpunkte bearbeitet oder erweitert werden können.

Wenn etwas nicht geht wie gewollt, ruhig mal Editieren aktivieren (z.B. rechts oben
auf edit klicken oder im Setup auf immer stellen) und dann auf das e neben dem
Menüpunkt klicken. Es ist gewollt, dass möglichst viele verstehen wie napp-it arbeitet.
(Das hat vermehrt Lösungsvorschläge zur Folge; Fehler können damit schneller behoben werden)

Man kann auch eigene private Menüs anlegen oder die Menüs durch eigene Aktionen ersetzen.
Diese Änderungen bleiben auch nach updates erhalten.

Gea
 
Zuletzt bearbeitet:
Hi gea.

ich hatte gedanklich den Begriff operations den ersten Read/Write-Werten zugeordnet, diese sahen aus wie IO/s und den Begriff Bandbreite den letzten Werten. Dies war wohl also falsch.
Die Info wegen der Editiermöglichkeit nehme ich wohlwollend zur Kenntnis, meine aktuelle Unwissenheit hält mich aber noch lange davon ab hier selbst Hand anzulegen.

btw: habe Snaps angelegt und vom Windowsclient aus eine Wiederherstellung (Auswahl war Ansehen, kopieren, wiederherstellen) angestoßen. Dabei beginnt eine große und lange Kopieraktion seitens des Clients. Für Windows ist der Snapshot wohl nur ein Laufwerk, was er dann abgleichen muss.
Lassen sich Snaps auch von Nappit aus wieder herstellen? Der Umschaltvorgang sollte dann ja nur eine Sache von Sekunden sein - oder?! Hier dürften dann wohl keine Kopieraktionen ausgelöst werden.
Edit: nach dem Restore vom Windowsclient aus wurden zwar die gelöschten Dateien wieder hergestellt, nach dem Snap erstellte Dateien waren aber auch noch vorhanden. Es wurde also nicht der ursprüngliche Zustand zum Zeitpunkt des Snapings wiederhergestellt. Snap und Zustand nach dem Snap wurden vermischt. Für mich scheidet daher das Handling unter Windows aus, es sei denn, man möchte nur eine oder wenige Dateien zurück holen. Ein genauer und eindeutiger Datenbestand wie zum Zeitpunkt der Erstellung des Snap lässt sich dann wohl nur von der Seite von OI aus durchführen.

nachtrag:
ich bin am Client mit dem selben Username und Passwort angemeldet, wie der SMB-User unter ZFS besitzt. Unter Windows- und Linux-Systemen (mit Samba) funktioniert der Filesharezugriff im Workgroupmodus
ohne erneute Passwortabfrage, solange Username und Passwort identisch sind. Hier muss ich aber jedesmal erneut meine Credentials eingeben. Ist das normal so?

Millenniumpilot
 
Zuletzt bearbeitet:
snaps Wiederherstellen aus Windows
Unter Windows geht es eben am komfortabelsten, und es geht mit Dateien,
Ordnern oder ganzen Dateisysemen (auf share anwenden).

Es ist aber immer ein Copy aus dem Snap

Unter Solaris ist es aber nicht anders ausser es wird ein ganzes Dateisystem
wiederhergestellt oder geklont. Das geht fix (aber nur per CLI, mit napp-it in einer nächsten Version)

Am komfortabelsten geht der Umgang mit snapshots auf Solaris aber immer mit dem Timeslider
(OpenIndiana und Solaris Express jeweils in der Live Version)


zur Passworteingabe in einer Workgroup
Ich habe mich damit noch nicht beschäftigt. (Nutze eine Domäne, da macht das kein Problem)
 
Zuletzt bearbeitet:
Hallo Gea,

vielen Dank, also war der beobachtete Effekt normal. Morgen probiere ich mal den Timeslider aus. War es aber richtig, das alte und neuere Dateien am Ende vorhanden waren, wenn ich einen kompletten Ordner restore?

Später verwende ich auch eine Domain. Aber bevor ich komplett umstelle, möchte ich alle möglichen und unmöglichen Kombinationen testen.

Millenniumpilot
 
da bei mir wie geschrieben immer ein Fehler aufgetaucht ist. und das selbe auch bei einem mdadm Raid auch auftritt, hab ich mir nun den Intel SASUC8I Controller bestellt.

Dieser ist heute angekommen. Allerdings kann mir jemand beantworten ist das normal das dieser nur in einer Elektrostatischen Verpackung (Plastik) kommt oder sollte der in einer Schachtel kommen?

Werd dann heute gleich ausprobieren ob jetzt dann der Fehler beseitigt ist
 
Hallo djonny,

mein Kontroller kam auch nackt, nur in einer ESD-Tüte an, ein zweites Slotblech lag noch bei. Keine Umverpackung, kein Handbuch, keine Treiber CD, nichts. Scheint also normal zu sein.

Gruß Millenniumpilot

---------- Beitrag hinzugefügt um 20:25 ---------- Vorheriger Beitrag war um 18:28 ----------

Hallo Ihr,

habe soeben die neuen Hitachi 5k3000 in der gleichen Konstellation getestet wie die 4k-Platten WD20EARS. OI nativ, 16GB RAM, Platten als Mirror am internen SATA-Port des X8SIL-F.
zum Vergleich auch die alten Daten nochmals:

WD20EARS Hitachi 5k3000

Bonnie Write 77MB/s 87MB/s
Bonnie Read 129MB/s 184MB/s

SMB Write >= 79MB/s >= 91MB/s
SMB Read >= 105MB/s >= 102 MB/s

Scruben 105 MB/s 115 MB/s


die Hitachi sind also im Mittel (smb und Scruben) 10% schneller. Ob das nun daran liegt, das laut im Internet einsehbaren Benchmarks die Platten eh schneller sind als die WDs oder ob es an den 4k-Sektoren der WDs liegt, kann ich nicht sagen. Die 10% Verlust decken sich auch mit den oft hier genannten Zahlen für den Einsatz bei 4k-Platten.
Der Performancenachteil der WDs ist also IMHO so marginal, dass es sich nicht lohnt, vorhandene Platten wegzuschmeissen.
Ich vermute mal, da können die ZFS-Profis noch etwas dazu schreiben, das beim Einsatz der Platten in einem RAIDZ die Unterschiede ähnlich ausfallen werden.

Gruß Millenniumpilot
 
Zuletzt bearbeitet:
Die Hitachis laufen übrigens auch mit 5900 Umdrehungen pro Minute (manche Reviews schreiben auch 5940), wohingegen es bei den WD 20EARS "nur" 5400 sind.
Das sind auch so schon mal 9.3% (bzw. 10%) die sich bei sequentiellen Übertragungen sicher bemerkbar machen.
Die Geschichte mit der 4k Sektorgröße ist demnach vermutlich noch geringer als 10%.
Ganz allgemein ist alles unterhalb von 30% nicht oder kaum wahrnehmbar, in diesem Fall kann man gut und gerne zur Lieblingsmarke oder zum besten Deal greifen. :coolblue:

-TLB
 
Interessanter Test @ milleniumpilot. Danke!

Habe bereits eine Hitachi daliege, brauch ich wohl doch noch ein paar mehr :)
 
Die Hitachis laufen übrigens auch mit 5900 Umdrehungen pro Minute (manche Reviews schreiben auch 5940), wohingegen es bei den WD 20EARS "nur" 5400 sind.
Das sind auch so schon mal 9.3% (bzw. 10%) die sich bei sequentiellen Übertragungen sicher bemerkbar machen.
Die Geschichte mit der 4k Sektorgröße ist demnach vermutlich noch geringer als 10%.
Ganz allgemein ist alles unterhalb von 30% nicht oder kaum wahrnehmbar, in diesem Fall kann man gut und gerne zur Lieblingsmarke oder zum besten Deal greifen. :coolblue:

-TLB

das deckt sich mit anderen Vergleichen z.B.
ZFS different alignment benchmark - [H]ard|Forum
 
Hi,

habe heute Test mit einem ZPool1 aus 3 Platten durchgeführt und bin immer noch begeistert. 3 Platten vom Typ Hitachi 5k3000 bringen im Bonnie 197MB/s im Write und 211MB/s im Read. Scrub über 250GB läuft mit 326MB/s, zum Ende hin 304GB/s.
Die smb-Transferraten haben noch leicht zugelegt. smb-Write mit einem Minimalwert von 93MB/s und read permanend bei 110MB/s. Auch bei einem silmulierten Hardwareausfall (Sata-Stecker einer Platte gezogen) gab es keinen Abfall in den Übertragungsraten. Das bin ich von den bisher eingesetzten 3ware-Hardwarecontrollern so nicht gewohnt. Bin immer mehr begeistert.
Nur leider hat bei mir der Export und anschließende Import eines Pools nicht funktioniert, ich erhalte immer die Fehlermeldung "Assertion failed: rn->rn_nozpool == B_FALSE, file ../common/libzfs_import.c, line 1077, function zpool_open_func
-none-"
Darüber habe ich leider wenig finden können, soll auftreten beim Import von Pools die an anderen Betriebssystemversionen angelegt worden waren. Hier hatte ich aber nur vor, den an den internen Sata-Ports angeschlossenen Plattenstapel jetzt an den SASUC8I umzuhängen. Das sollte nach meinem Verständniss sogar ohne export funktionieren, ist ja das gleiche System, nur die Plattenports ändern sich.
Falls hier jemand einen Tip hat, was hier schief gegangen sein könnte, wäre ich sehr dankbar.

Millenniumpilot
 
Hi,

habe ich auch schon im Nappit gesucht. Entweder einen Job generieren und "run now" anklicken oder über die Commandozeile (oben rechts das Feld Console) den Befehl zpool scrub DeinPoolname absenden.

Gruß Millenniumpilot
 
Also irgendwie komisch.

Hab jetzt gestern den SASUC8I Controller eingebaut und mit napp-it ein pool erstellt und auf Freigaben eingerichtet. So weit war alles gut. Jetzt habe ich über Nacht von meiner Sicherungsplatte so ca. 2TB auf das Pool transferiert mit durchschnittlich 55MB/s

und heute mache ich mal einen Scrub Test und siehe da

zpool status -v datapool pool: datapool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub in progress since Sun Jul 31 09:09:47 2011
744G scanned out of 1.91T at 319M/s, 1h5m to go
1.62M repaired, 37.97% done
config:

NAME STATE READ WRITE CKSUM
datapool DEGRADED 0 0 8
raidz1-0 DEGRADED 0 0 16
c2t0d0 DEGRADED 0 0 15 too many errors (repairing)
c2t1d0 DEGRADED 0 0 5 too many errors (repairing)
c2t2d0 DEGRADED 0 0 19 too many errors (repairing)
c2t3d0 DEGRADED 0 0 7 too many errors (repairing)
c2t4d0 DEGRADED 0 0 16 too many errors (repairing)
c2t5d0 DEGRADED 0 0 3 too many errors (repairing)

Allerdings verstehe ich das nicht so ganz, wie kann es sein das alle Platten gleichzeitig ausfallen? Des Weiteren sollten die Festplatten alle in Ordnung sein. (SeaTools drüber laufen lassen)

Kann es sein weil ich 5 gleiche Festplatten und eine andere laufen lasse das dies einen Fehler verursacht?

Platten sind:
5x Seagate ST32000542AS link
1x Seagate ST2000DL003

oder kann es sein weil ich die Daten übers Netzwerk übertragen habe und dort einfach ein Fehler in der Übertragung war? oder das die 5 Dateien die er markiert schon von Haus aus defekt sind?

Bin echt ratlos und weiß nicht mehr was da noch sein könnte.
 
Ich bin auf der Suche nach einen Benchmark mit dem ich die reine Filekopiergeschwindigkeit messen kann. Also mit dem ich z. B. ein "echtes" 8 GB File von/auf das ZFS Filesystem per SMB tranferieren kann und das automatisch den Speed misst/ausrechnet.

Update: Die Aufgabe scheint zu einfach zu sein. Ich finde auch nach Stunden keine Tools die genau das machen was ich will. Einfach eine gemittelte Geschwindigkeitsmessung des Windows Kopiervorganges. Keine eigenen Kopierroutinen, keine extra Testfiles, kein nix!. Oder zur Not auch nur eine Zeitmessung so das ich mit mit Hilfe der Dateigröße die Geschwindigkeit selber ausrechnen kann. Das Messen mit der Stoppur in der Hand kann doch nicht wirklich die Lösung sein!

Nun habe ich es mit dem in WIndows eingebauten robocopy probiert und das mißt auch was. Nur wundert es mich etwas das die MB/s Raten die robocopy auswirft nur ca. 1/2 so hoch sind wie die ANzeige im Windowseigenen Kopiervorgang. Z. B. wirft RoboCopy 90 MB/s aus wenn ich ein 3,8 GB File auf das Z1 kopiere. Die Kopieranzeige in Windows schwankt aber zwischen 180 und 210 MB/s. Also mag ich mich weder auf das eine noch auf das andere verlassen.

Update: Ich hab nun beide Messungen mal mit einer Stoppuhr mitgemessen und es ist wirklich so das wohl beide richtig messen aber der Kopiervorgang mit Robocopy wirklich ca. doppelt so lange dauert wie mit dem windowseigenen Kopiervorgang aus dem Explorer heraus. Keine Ahnung was RoboCopy da anders/aufwendiger macht aber mich interessieren die Werte die ich auch in der Praxis erzielen würde und da nutze ich halt den Windowsexplorer und dessen Kopiervorgang. Leider zeigt der am Ende des Kopiervorgangs keinen Gesamtwert sondern nur während des Kopierens den aktuellen Wert der halt schwankt.

Ausserdem bin ich auf der Suche nach einer kostenlosen RAMDisk für Win7 64bit die mehr als 4 GB zur Verfügung stellt.

Update: Hab jetzt eine 15 Tage trial Version von SuperSpeed Ramdisk gefunden. Das reicht fürs Benchmarken. Die Geschwindigkeit einer 8 GB RamDisk erreicht maximal 1000 MB/s und sollte damit ausreichen schnell sein so das immer das ZFS der limitierende Faktor ist.

Da ich ja die Geschwindigkeit meines ZFS Filesystems messen will und nicht möchte das das Filesystems des Clients der begrenzende Faktor ist habe ich mir gedacht es ist eine schlaue Idee dem VM Win7 Client eine Ramdisk einzurichten um dann zwischen dieser und dem ZFS zu kopieren. Nur geht es mit der DataRAM Disk nur bis 4 GB kostenfrei. Und je größer die Files beim kopieren sind umso genauer der Mittelwert beim Messen nehme ich an.
 
Zuletzt bearbeitet:
Hallo,

hat schon jemand von Euch etwas mehr Erfahrung beim Exportieren und Importieren von Pools?
Ich erhalte unter OI 148 und nappit folgende Fehlermeldung, wenn ich meinen Pool exportiere und sofort wieder importieren möchte. Also ohne Tausch irgendwelcher Hardwarekomponenten oder Plattenports oder Neuinstallationen des BS.
Hier die Meldung:
Assertion failed: rn->rn_nozpool == B_FALSE, file ../common/libzfs_import.c, line 1077, function zpool_open_func

kann damit jemand etwas anfangen?
 
Hi zusammen,

ich habe einen Backup-Server mit Nexentastor 3.0.3 laufen. Der Datenpool besteht aus 4x Mirror 2TB WD20EARS + 2x 60GB SSD. Diese SSDs habe ich mit je einer 6GB-Partition und einer Partition über den Rest versehen, laut Partitionstabelle je Solaris2-Partition 1 und 2. Da im Normalfall die Zählung bei 0 beginnt, sollte man meinen, dass das die Partitionen 0 und 1 sind, scheint aber nicht der Fall zu sein. Ich habe nun meinem Datenpool, die Geräte c2d1p1 und c3d0p1 als slog-mirror und die Geräte c2d1p2 und c3d0p2 als cache hinzugefügt, bin mir aber nicht sicher, ob das die richtigen Partitionen sind. Es werden zwar keine Fehler angezeigt, aber mir wäre wohler, wenn ich über irgend einen Befehl die Größe des slog- und cache-devices abfragen und damit die richtige Zuordnung überprüfen könnte, oder die Bezeichnung der Partitionen abfragen könnte.
Da Nexentastor nur ganze HDDs bzw. SDDs unterstützt, habe ich die Zuordnung des slog und cache in der Console ausgeführt und bekomme jetzt zwar die zusätzlichen Devices im GUI angezeigt, allerdings ohne deren Werte.
Ich hoffe jemand kann mir weiterhelfen. Vielen Dank schon einmal in voraus.

Ron
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh