[Sammelthread] ZFS Stammtisch

wie sieht es dann mit der Erweiterbarkeit aus ?
Kann ich dann auch problemlos in einen bestehenden Pool aus z.B drei oder sechs Platten auch noch mal welche hinschieben , um so die Kapazität zu erweitern ?
Sehe da Probleme in der Parität, wenn dann mal eine HD abraucht.
Wenn der der dann ewig braucht um das zu fixen, wenn eine neue HD im Pool sitzt.
Meine Erfahrungen sind leider aktuell nur unproduktive Testphasen in einer vorrangegangen VM und nun auf einem TestPC.

thx

_xymos.

wenn in einem vdev (Raidset) eine Platte ausfällt und durch eine neue ersetzt wird, so ist ein rebuild (heisst resilvering bei ZFS) dieses Raidset fällig. Das geht bei einem Raid-1 am Schnellsten, kann aber bei sehr großen Raid-Z irgendwas mit sehr vielen Platten im Extremfall mehrere Tage dauern.

Es betrifft aber wie gesagt nicht den gesamten Pool sondern nur dieses eine vdev.
Ein Pool besteht eben aus einem, mehreren oder sehr sehr vielen Raidsets. Erweitert wird immer dadurch, dass neue Raidsets z.B. ein weiterer mirror oder eine weiteres raid-z irgendwas dem Pool hinzugefügt wird.

ansonsten:
Ein einzelnes vdev läßt sich nicht vergrößern. Man kann aber fast beliebig neue vdevs in den Pool integrieren. Ein Datenpool kann wachsen und wachsen....

Soviel Information, dass ein Pool es nicht aufnehmen kann, wird die Menschheit die nächsten Jahrzehnte nicht anhäufen können.


gea
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

mein NAS mit NexentaCore und Napp-It läuft nun endlich und Ich bin ein bißchen am spielen.

Vielen Dank an alle die geholfen haben und besonders an Gea für Napp-It :asthanos:.

Einen Wunsch für die Zukunft hätte Ich vielleicht noch.
Ich habe einfach mal ein bißchen rumgespielt und meine mit der NexentaStor CE erstellten Daten mit Napp-It importiert.
Funktioniert super, das einzige ist, das die Rechte nicht stimmen und man alles von Hand gerade biegen muss. Kann man das nicht auch irgendwie über die Web Oberfläche machen?
Das macht die ganze Sache im Notfall einfacher.
Oder gibts sowas schon und Ich habe es nur übersehen?

Vielen Dank
Pacman

P.S.: Hast Du eigentlich irgendwann vor die Oberfläche ins deutsche zu Übersetzen?
 
Jetzt hab ich endlich meine ganze Hardware zusammen und lauffähig.
ESXi ist installiert, die HBA ist per passthrough durchgereicht, aber noch keine VM installiert.

Ich möchte @gea's all-in-one Server napp-it.org aufsetzen und hänge jetzt an folgendem Punkt fest.
- setup software switch in esxi, create needed LANs, SAN, vlans
Standardmässig scheint ESXi einen vSwitch anzulegen, der aber nur eine Netzwerkkarte(vmnic0) mit 2 Ports (VM Network, Management Network) anspricht.

Wie bekomm ich die 2. Netzwerkkarte online?
Wie muss ich die virtuelle Switche für LAN, SAN und vLan konfigurieren, um danach NexentaCore mit napp-it, Windows und Debian/Ubuntu zu installieren?

Danke.
 
Ideen was ich bei so etwas hier machen könnte?
Code:
root@fileserver:/Data/temp# zpool status -v
  pool: Data
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://www.sun.com/msg/ZFS-8000-8A
 scan: scrub repaired 125M in 2h11m with 1238 errors on Thu Jan 20 18:40:21 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0 1.21K
          raidz1-0  DEGRADED     0     0 2.57K
            c2t0d0  DEGRADED     0     0   526  too many errors
            c2t1d0  DEGRADED     0     0   860  too many errors
            c2t2d0  DEGRADED     0     0   664  too many errors

errors: Permanent errors have been detected in the following files:

        Data/temp:<0x17>
        ...
 
Einen Wunsch für die Zukunft hätte Ich vielleicht noch.
Ich habe einfach mal ein bißchen rumgespielt und meine mit der NexentaStor CE erstellten Daten mit Napp-It importiert.
Funktioniert super, das einzige ist, das die Rechte nicht stimmen und man alles von Hand gerade biegen muss. Kann man das nicht auch irgendwie über die Web Oberfläche machen?
Das macht die ganze Sache im Notfall einfacher.
Oder gibts sowas schon und Ich habe es nur übersehen?

Vielen Dank
Pacman

P.S.: Hast Du eigentlich irgendwann vor die Oberfläche ins deutsche zu Übersetzen?

Wenn es sich um ACL und SMB handelt, ann am einfachsten im Menü folder auf das ZFS klicken und auf smb-default setzen.
Ergebnis: root=alle Rechte, jeder darf ändern

Anschliessend per Windows als user anmelden der per id-mapping auf root gemappt ist und alle ACL-Rechte am Windows Rechner setzen. Ist viel einfacher, als in Solaris.

napp-it in deutsch:
Ich habe mir viel Mühe gegeben, das in Englisch anzulegen, damit es möglichst viele nutzen können. Ich weiss, deutsch wäre toll, aber ich nehme einfach an, dass jemand der das nutzt, soviel Englisch kann, dass es irgendwie klappt.

Standardmässig scheint ESXi einen vSwitch anzulegen, der aber nur eine Netzwerkkarte(vmnic0) mit 2 Ports (VM Network, Management Network) anspricht.

Wie bekomm ich die 2. Netzwerkkarte online?
Wie muss ich die virtuelle Switche für LAN, SAN und vLan konfigurieren, um danach NexentaCore mit napp-it, Windows und Debian/Ubuntu zu installieren?

Entweder die eine vorhandene Netzwerkkarte liefert vlans, dann kann man mit einem virtuellen Switch verschiedene virtuelle Ports auf verschiedene Vlans setzen

oder
man braucht zwei virtuelle Switche, einen für jede Netzwerkkarte.

Anschliessend VM's anlegen und diese auf einen virtuellen Port eines der virtuellen Switche legen.
Ganz genauso wie mit echter Hardware.


c2t0d0 DEGRADED 0 0 526 too many errors
c2t1d0 DEGRADED 0 0 860 too many errors
c2t2d0 DEGRADED 0 0 664 too many errors

Das ist ein Multi-vdev error (Mehrere Platten sind ausgefallen.
Tritt auf, wenn beim Rebuild eine weitere Platte ausfällt.

Unbeschädigte Daten können noch gelesen werden.
Diesen Fehler kann ZFS aber erst ab ZFS Version 28 reparieren (Feature von V28)
http://blog.vx.sk/archives/4-ZFS-pool-and-filesystem-versions.html

Also:
neuen Pool anlegen und Daten umkopieren (bis auf die defekten) oder
Pool in Solaris Express 11 importieren und reparieren (meine Vermutung, dass das geht, nicht von mir getestet)


Gea
 
Zuletzt bearbeitet:
Ich habe die aufgelisteten files gelöscht und mehrere scrubs/clears/reboots gemacht. Jetzt kommt beim aktuellen Scrub nichts derartiges mehr. Bin ich jetzt "sicher"?

Bzw. weißt du wie ich das repair durchführe? Solaris 11 hätte ich in einer VM da, die Platten umzumounten wäre kein großes Problem.
 
Ich habe die aufgelisteten files gelöscht und mehrere scrubs/clears/reboots gemacht. Jetzt kommt beim aktuellen Scrub nichts derartiges mehr. Bin ich jetzt "sicher"?

Bzw. weißt du wie ich das repair durchführe? Solaris 11 hätte ich in einer VM da, die Platten umzumounten wäre kein großes Problem.

Ich hatte das Problem letzen Sommer, als es noch kein ZFS 28 gab und das Problem war unbekannt. Ich habe demals den Pool umkopiert und erst als V28 herauskam, die Ursache erkannt.

Wenn aber keine Fehler mehr angezeigt werden, ist es ok.
(ist ja gerade der Grund für ZFS, keine schleichenden Dateifehler mehr)

Ansonsten, Ich würde den Pool in SE11 importieren und einen scrub laufen lassen.

Gea
 
Zuletzt bearbeitet:
Ich habe die Smartmontools zwar noch nicht umfassend in die Web-Gui integriert (Menüpunkt Disk - smartinfo), es sollte aber mit dem Online-Installer auf Nexenta, OpenIndiana und Solaris installiert werden (seit Ende Dezember)
Gea

Nein, Stand gestern wird der GCC bei Solaris 11 Express nicht nachinstalliert. Musste ich manuell über den package manager machen ...
 
Wenn es sich um ACL und SMB handelt, ann am einfachsten im Menü folder auf das ZFS klicken und auf smb-default setzen.
Ergebnis: root=alle Rechte, jeder darf ändern

Anschliessend per Windows als user anmelden der per id-mapping auf root gemappt ist und alle ACL-Rechte am Windows Rechner setzen. Ist viel einfacher, als in Solaris.

Ich bin der Meinung, Ich hätte das versucht, es hätte aber trotzdem nicht funktioniert :confused:

napp-it in deutsch:
Ich habe mir viel Mühe gegeben, das in Englisch anzulegen, damit es möglichst viele nutzen können. Ich weiss, deutsch wäre toll, aber ich nehme einfach an, dass jemand der das nutzt, soviel Englisch kann, dass es irgendwie klappt.

Ja alles klar. Das verstehe Ich.

Aber eine andere kleine kosmetische Sache ist mir doch noch aufgefallen.
Und zwar, wenn Ich in der WEB-Gui das Admin Passwort ändere steht es beim Tippen im Klartext da und nicht als Sternchen.
Und wenn Ich dann beim nächsten Mal die Seite aufrufe, stehen in dem Feld zwar *, klicke Ich dort aber rein, schlägt mir Firefox mein Passwort vor.
Er merkt sich ja die Eingaben in Textfeldern.

Ist an sich nix schlimmes, aber da hat doch das Textfeld bestimmt nur ein falsches Atribut, oder?

Dankeschön
 
Nein, Stand gestern wird der GCC bei Solaris 11 Express nicht nachinstalliert. Musste ich manuell über den package manager machen ...

Ich habe auch schon bemerkt, dass ich vor ein paar Tagen versehentlich eine ältere Version des Installers hochgelade hatte. Ich habe die Installation des GCC + Smartmontools auf Solaris mit dem heutigen Installer auf 0.414m wieder eingefügt.

napp-it.org


Gea

---------- Beitrag hinzugefügt um 16:28 ---------- Vorheriger Beitrag war um 16:18 ----------

Aber eine andere kleine kosmetische Sache ist mir doch noch aufgefallen.
Und zwar, wenn Ich in der WEB-Gui das Admin Passwort ändere steht es beim Tippen im Klartext da und nicht als Sternchen.
Und wenn Ich dann beim nächsten Mal die Seite aufrufe, stehen in dem Feld zwar *, klicke Ich dort aber rein, schlägt mir Firefox mein Passwort vor.
Er merkt sich ja die Eingaben in Textfeldern.

Ist an sich nix schlimmes, aber da hat doch das Textfeld bestimmt nur ein falsches Atribut, oder?

Dankeschön


Danke für den Hinweis.

Das war kein Versehen sondern Ausdruck meiner Tippfaulheit, um das PW nicht zweimal eingeben zu müssen. Aber ich sehe ein, dass es besser ist, das Feld doppelt als PW-Feld anzulegen. Werde ich bei Gelegenheit ändern.

Gea
 
napp-it in deutsch:
Ich habe mir viel Mühe gegeben, das in Englisch anzulegen, damit es möglichst viele nutzen können. Ich weiss, deutsch wäre toll, aber ich nehme einfach an, dass jemand der das nutzt, soviel Englisch kann, dass es irgendwie klappt.

Bisher waren doch deine Testdrives napp-it auf deutsch und englisch verfügbar?
Schade, dass es nicht mehr multilingual ist, denn nicht jeder kann ausreichend Englisch. :confused:

Übrigens all deine Testdrives sind offline.
 
nein, nur die einleitenden Texte waren deutsch, napp-it selbst ist englisch.

ps
Ich stelle gerade auf screenshots um. Leider ist es nicht mehr möglich, napp-it als Testinstallation online zu halten, da die Installationen für Unsinn missbraucht wurden.

ich habe übrigens mein mini howto aktualisiert:
napp-it.pdf


Gea
 
Zuletzt bearbeitet:
Moin moin,

hier ist's ja ruhig geworden ;) Kein Wunder - ZFS Kisten rennen einfach.

Mal ne Frage an Euch - kennt einer von Euch IRGENDEINE Virtualisierungsplattform die unter Nexenta läuft? Also VMWare Server, VirtualBox z.B.? Mit XEN & KVM kenn ich mich leider gar nicht aus. Habe hier aktuell nen Mac Mini laufen mit VMWare Fusion für meine Dev VM + einen extra Rechner für das Intranet - das würde ich gerne virtualisieren, da ich eh vorhabe meinen RAM im ZFS Server von 6GB auf 16GB ECC RAM aufzurüsten (die Preise sind gerade günstig).

Ciao
Dennis
 
VirtualBox habe ich experimentiert. Da gibts ne handvoll Tutorials/Bugfixes (da einige Solaris Libraries fehlen muss man die dazupfriemeln). Allerdings war das ganze am Ende nicht sonderlich erfolgreich und ist primär daran gescheitert, dass ich keinen Bock auf reine CLI hatte und die PHP Oberfläche nicht gescheit ans laufen bekommen habe...
 
Also ich habs nun laufen und eben den RAM begeistert bestellt ;)

Ich habe das Tutorial hier zur Installation verwendet: How to Install Virtualbox 3.1.6 on NexentaStor 3.0.4 » hype-o-thetic?com

Auf meiner Workstation (Mac Pro) logge ich mich per X-Forward (ssh -X server) ein um die neuen VMs zu erstellen oder im Notfall zu resetten. Ich kann auch auf die laufenden VMs so zugreifen.

Allerdings MUSS ich auch die VM per CLI starten, das sichert mich aber - denn wenn ich VirtualBox auf den Mac Pro "beame", schmieren mir nicht die VMs ab ;)

Einfach fand ich den Start mit VBoxHeadless -s "vmname".

Ich werde vermutlich 3-4 Linux VMs drauf laufen lassen - dafür hat der Server mehr als genug Dampf - damit kann ich direkt 2 andere Rechner entlasten (Mac mini Server der nur 1 Dev-VM für mein Tool virtualisierte) und ein 2. Server (Intranet) den ich nun auch virtuell neu aufsetzen werden.

Hier ein Screenshot wie das bei mir aussieht :)
44677c48ecea0ec4410cd9c7f22da0b8.png
 
Je mehr Platten ich in meinen Pool hinzufügen umso schlechter wird der Benchmark :-/
Die Platten hängen gemischt an 2 Intel-Controller und onboard.
Könnte dies eine "Fehlerquelle" sein?

Code:
  pool: pluto
 state: ONLINE
 scan: scrub repaired 4K in 67h5m with 0 errors on Fri Feb  4 13:17:55 2011
config:

	NAME        STATE     READ WRITE CKSUM
	pluto       ONLINE       0     0     0
	  raidz1-0  ONLINE       0     0     0
	    c0t5d0  ONLINE       0     0     0
	    c1t4d0  ONLINE       0     0     0
	    c1t5d0  ONLINE       0     0     0
	    c1t6d0  ONLINE       0     0     0
	    c1t7d0  ONLINE       0     0     0
	  raidz1-1  ONLINE       0     0     0
	    c1t0d0  ONLINE       0     0     0
	    c1t1d0  ONLINE       0     0     0
	    c1t2d0  ONLINE       0     0     0
	    c1t3d0  ONLINE       0     0     0
	    c3t1d0  ONLINE       0     0     0
	  raidz1-2  ONLINE       0     0     0
	    c0t0d0  ONLINE       0     0     0
	    c2t0d0  ONLINE       0     0     0
	    c2t1d0  ONLINE       0     0     0
	    c2t2d0  ONLINE       0     0     0
	    c2t3d0  ONLINE       0     0     0

Benchmark s.h. Anhang.
Den letzten Benchmark hab ich mit 10 Platten gemacht: http://www.hardwareluxx.de/community/16093430-post360.html
 

Anhänge

  • Unbenannt2.JPG
    Unbenannt2.JPG
    22,9 KB · Aufrufe: 114
Was sind das denn für Platten baldi? 4k Cluster Platten? Anders kann ich mir die schon extrem niedrigen Werte gar nicht erklären.
 
Du hast jetzt das -2 RAIDz1 hinzugefügt? Und jetzt fragst du dich, warum die Performance langsamer ist, im Vergleich zu dem vorhergehenden Fall mit nur 10Platten?

Je mehr RAIDs du hast, desto größer ist der Berechnungsaufwand. Hinzukommt, je mehr HDDs du im RAID hast, desto aufwendiger ist die Berechnung der Paritäten.

Einfaches Beispiel.

du brauchst du jede Multiplikation 1Sekunde
Bei 2 HDDs mußt du 1x multiplizieren
1*1 sprich 1s
3HDDs
1*1*1 -> 2s
4HDDs
1*1*1*1 -> 3s
5HDDs
1*1*1*1*1 -> 4sekunden

Wenn du jetzt 3 dieser 5HDD Operationen nimmst:
3*4s-> 12s

Sprich, um die Daten einmal über das Array zu verteilen brauchst du jetzt zB 12sekunden.
Mit 2 5er Blöcken wären es nur 8s
1er -> 4s

Sprich, je mehr HDDs du einsetzt, egal ob um RAID oder im Pool, jedes Mal wird der Spaß langsamer.

Versuche doch mal nur einen RAID Block im Pool zu haben und diesen zu benchen.
Das mach mal mit alle 3 Blöcken. Und anschließend mal mit alles 3 Blöcken gleichzeitig, wenn das geht und danach gemeinsam.
 
Einfaches Beispiel.

du brauchst du jede Multiplikation 1Sekunde
Bei 2 HDDs mußt du 1x multiplizieren
1*1 sprich 1s
3HDDs
1*1*1 -> 2s
4HDDs
1*1*1*1 -> 3s
5HDDs
1*1*1*1*1 -> 4sekunden

Wenn du jetzt 3 dieser 5HDD Operationen nimmst:
3*4s-> 12s

Sprich, um die Daten einmal über das Array zu verteilen brauchst du jetzt zB 12sekunden.
Mit 2 5er Blöcken wären es nur 8s
1er -> 4s

Sprich, je mehr HDDs du einsetzt, egal ob um RAID oder im Pool, jedes Mal wird der Spaß langsamer.
Zfs arbeitet bei mehreren vdevs anders. Ein Stripe/Record wird nur auf ein vdev geschrieben und ungefähr jedes MB das nächste vdev genommen (etwas vereinfacht). Je mehr vdevs im Pool sind sind desto höher sollte der sequentielle Durchsatz werden, solange die CPU nicht das Bottleneck ist.

Vielleicht mal genau auf die Durchsätze der einzelnen Platten schauen mit iostat im Sekundenrythmus. Vielleicht ist da eine dabei, die spinnt, sowas hatte ich vor kurzem.
 
Zfs arbeitet bei mehreren vdevs anders. Ein Stripe/Record wird nur auf ein vdev geschrieben und ungefähr jedes MB das nächste vdev genommen (etwas vereinfacht). Je mehr vdevs im Pool sind sind desto höher sollte der sequentielle Durchsatz werden, solange die CPU nicht das Bottleneck ist.

Vielleicht mal genau auf die Durchsätze der einzelnen Platten schauen mit iostat im Sekundenrythmus. Vielleicht ist da eine dabei, die spinnt, sowas hatte ich vor kurzem.

Ähnlich einem RAID0 üder mehrere RAID5s?

Auffallend ist btw die niedrige CPU last beim letzten Screenshot
 
Du hast jetzt das -2 RAIDz1 hinzugefügt? Und jetzt fragst du dich, warum die Performance langsamer ist, im Vergleich zu dem vorhergehenden Fall mit nur 10Platten?

Je mehr RAIDs du hast, desto größer ist der Berechnungsaufwand. Hinzukommt, je mehr HDDs du im RAID hast, desto aufwendiger ist die Berechnung der Paritäten.

Einfaches Beispiel.

du brauchst du jede Multiplikation 1Sekunde
Bei 2 HDDs mußt du 1x multiplizieren
1*1 sprich 1s
3HDDs
1*1*1 -> 2s
4HDDs
1*1*1*1 -> 3s
5HDDs
1*1*1*1*1 -> 4sekunden

Wenn du jetzt 3 dieser 5HDD Operationen nimmst:
3*4s-> 12s

Sprich, um die Daten einmal über das Array zu verteilen brauchst du jetzt zB 12sekunden.
Mit 2 5er Blöcken wären es nur 8s
1er -> 4s

Sprich, je mehr HDDs du einsetzt, egal ob um RAID oder im Pool, jedes Mal wird der Spaß langsamer.

Versuche doch mal nur einen RAID Block im Pool zu haben und diesen zu benchen.
Das mach mal mit alle 3 Blöcken. Und anschließend mal mit alles 3 Blöcken gleichzeitig, wenn das geht und danach gemeinsam.

Ich behaupte mal frech, dass der Berechnungsaufwand zwar (klarerweise) mehr wird, aber dies durch die CPU mMn kompensiert wird ... CPU ist denk ich kein Bottleneck.

Ich verwende "4k-Platten" .... im hardforum hab ich auch schonmal so ähnliche Werte gesehen, wo der READ Wert auch schlechter ist als WRITE - was ja eigentlich ziemlich unlogisch ist. Aber gut, solang meine gbit-Leitung noch das Bottleneck ist, ist es nicht soooo tragisch.
Ich hab halt etwas Angst davor, dass bei weiteren 5 Platten die Performance noch schlechter wird.

Mittlerweile hab ich ja schon ein paar Konfigurationen probiert (raidz1/raidz2) aber ich bin bis jetzt noch ziemlich unsicher wie sich die 4k-Platten wirklich verhalten bzw. unter welchen Umständen diese Platten im Raid schlechte/gute Performance zeigen.

Ich nehm diese ganze Sache mal einfach so hin und mach mir keine weitere Gedanken. Ich hoffe einfach drauf, dass zukünftige OS-Versionen mit solchen "speziellen" Platten auch mal gut umgehen können ;-) (Muss ja irgendwann mal der Fall sein :d)
 
Weiß jemand von euch ob die performance issue's mit den 4k Sektoren schon addressiert sind bzw. in den nächsten Versionen von NexentaStor gefixt werden? Gibt es die Probleme auch noch in Solaris 11 Express? Baue mir nämlich gerade nen Homeserver zusammen und da sind die WDEARS verbaut...
 
Ich meine in Solaris 11 Express besteht das Problem immer noch.

Derzeitige empfohlene Lösung: ZFS Guru Distribution [1] von Live CD starten, das ist ein FreeBSD. Mit der Distribution den ZFS Pool mit Option "Sector Override: 4k" erstellen. Über GNOP wird je HDD ein virtuelles Device erstellt, dass die 4k Sektor-Größe so an das OS/ZFS kommuniziert. Daraufhin wählt ZFS ein ashift von 12, statt 9, so dass prinzipiell mit 4k gearbeitet wird.

Nach der initialen Erstellung des Pools über diesen GNOP-Trick, bleibt die ashift-value auf 12. Den Pool exportieren, dann z.b. in Solaris 11 Express booten und den Pool importieren und upgraden. Fertig.

Dann hast du prinzipiell einen 4k-Ready ZFS-Pool. Mehr kann man derzeit nicht machen. Ob die variablen stripe-widths in ZFS mit 4k-Platten ein Problem sind, wird noch diskutiert...

Was ich derzeit nicht genau weiß, ist ob man ein 4k-aligned BSD-Slice erstellen muss, und in dem dann den ZFS Pool erstellt (im Gegensatz zu die ganze HDD für den Pool benutzen).

[1] ZFSguru.com
 
Ohje... was für ein gebastel... Danke für den Trick, ich werd es jetzt erstmal ohne das alignment probieren und schauen ob ich mit der performance zufrieden bin.
 
Habe kürzlich meine 5x WD15EADS (non-4k drives) gegen 5x 2TB Samsung F4 (4k Sektoren) getauscht. Unter Nexenta war die Performance anfangs ganz o.k., nachdem der Pool aber halbwegs gefüllt war, lag die Performance über SMB lesend und schreibend nur noch bei rund 50 MB/s (kopieren eines 10GB Files).
Direktes sequentielles Schreiben und Lesen auf dem Pool (z.B. über dd) lieferte weiterhin einwandfreie Performance, ebenso beim Scrubben >>300 MB/s.

Habe dann am Wochenende auf Solaris 11 umgestellt. Merkwürdigerweise war die Performance hier gleich zu Anfang auf dem 50 MB/s-Niveau. Nach langwierigem Kopieren meiner Daten habe ich dann aber festgestellt, daß napp-it offensichtlich per Default die Folder-compression eingeschaltet hat.
Nachdem ich diese wieder deaktiviert habe, liegen die Transferraten lesend und schreibend nun bei rund 100 MB/S (!)...
Hoffen wir mal, daß es auf den Niveau bleibt... :-)

---------- Beitrag hinzugefügt um 12:47 ---------- Vorheriger Beitrag war um 12:40 ----------

Stichwort Solaris 11 - hier leicht off-topic, aber trotzdem im ZFS-Kontext:

Ich möchte einen ZFS-Folder (aktuell per SMB freigegeben) per NFS freigeben und diesen auf einem Ubuntu-Client mounten.
Gibt es hier ein How-To, was ich anstellen muss. Bekomme direkt bei Mounten schon ein "access denied". Hatte ähnliches bereits (mit gleichem Ergebnis) unter Nexenta probiert, dort dann aber das Mounten als root erlaubt. Prinzipiell konnte ich dann mounten, da aber dann alles mit root-Rechten lief, habe ich entnervt aufgegeben.
Wie kann man hier ein rudimentäres User-Mapping aufsetzen. Ich möchte eigentlich nur mit dem User, unter dem auf dem Ubuntu der Apache läuft einen Folder auf der Solaris-Maschine mounten, um dort die Filebase für den Apache ablegen zu können...

Vielen Dank vorab!
 
Kann man eigentlich zuviel scrubben? Hab öfters leider mal checksummenfehler, die ich aber nicht auf eine direkte Platte zurückführen kann. Entweder hat da etwas mit meinem Start/Stop Verfahren ein Problem oder das durchreichen der Platten durch ESXi ist nicht das geilste :-/
 
hallo,
irgendwie finde ich nicht das richtige...
ich habe hier ein ms7380 mit viel zu wenigen sata ports
koennt ihr mir bitte einen sata pcie controller empfehlen, der mit nexenta core 3 laeuft? 2-4 ports, guenstig und in deutschland erhaeltlich soll er sein...

vielen, vielen dank,
david
 
Wieviel Lanes hat Dein PCIe Port denn? PCIe x1? Würde ja generell den Intel SASUC8i mit der IT Firmware für PCIe x8/16 empfehlen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh