[Sammelthread] ZFS Stammtisch

So hab jetzt bei mir doch NexentaCore mit napp-it zum laufen gebracht.

Allerdings habe ich Probleme mit den ACL, gibt es dazu eine kleines HowTo? hab schon gegooglet leider nichts wirkliches herausgefunden.

Was ich gerne hätte wäre das ich zB einen Gäste Ordner erstelle der ohne Account Informationen zugreifen darf.

bzw. dann 2 versch. Gruppen wo eine Gruppe den anderen Ordner nicht sehen darf, leider bekomme ich das nicht hin. Und wenn ich bei den Sicherheitseinstellungen bei "Jeder" auf vollzugriff Verweigern einstelle dann sperre ich mich sogar als Root raus...
obwohl ich davor die Gruppen vom Fileserver hinzugefügt habe.

hat da jemand eine Idee, wie ich das am besten hinbekomme?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo Gea,

vielen Dank für Deine Ausführungen. Gibt es ungefähre Zahlen, was über smb möglich ist, wenn man sich an Deine Hardware Empfehlung gehalten hat, aber keine SSD einsetzt, sondern nur Green Platten? Ich habe das SM-Board mit 16gb reg.ECC, Xeon X3440 und den SASUC8I bestellt.
Ist die 4K Geschwindigkeits-Problematik nur bei einem Einsatz der Platten in einem RAIDZ relevant oder auch bei Einsatz von Mirrors?
Gilt die oft zitierte Empfehlung, wieviele Platten in einem RaidZ oder RaidZ2 verwendet werden sollen nur für 4k-Platten oder sind sie eine allgemeingültige Empfehlung auch bei 512Byte Platten.
Entschuldigt die dummen Fragen.

Nachtrag: sehe ich die Diskussionen zu den Lizenzbestimmungen des neuen ESXi 5 (8gb vram) richtig, das damit dann ein allinone nicht mehr realisierbar ist, bzw. sinnlos, da keine weitere VM ausser dem Filer mehr betrieben werden kann.
Gruß Millenniumpilot
 
Zuletzt bearbeitet:
Gilt die oft zitierte Empfehlung, wieviele Platten in einem RaidZ oder RaidZ2 verwendet werden sollen nur für 4k-Platten oder sind sie eine allgemeingültige Empfehlung auch bei 512Byte Platten.
Die Hitachi 5k300 2000 GB HDD gibt es aktuell gerade für 50,99 € inkl. Versandkosten mit dem Gutschein C7TD68 . Sofern man beim Bestellnamen/Adresse leichte Abweichungen einbaut sind auch mehrere Bestellungen mit dem selben Gutschein keine Problem. Achja diese Platte hat 512 KB Sektoren!

Und ist leise und schnell.

Hitachi 2000 GB Hitachi Deskstar HDS5C3020ALA632 SATA3 online kaufen | Tradoria.de

Der Händler hat bei mir schnell und zuverlässig geliefert
 
Hallo,

die Frage war nicht, wo ich preiswert an 512byte Platten rankomme.
Aber danke für den Tip.
Ich habe aber ca. 10 wdear im Einsatz, die will ich nicht unbedingt alle in den Müll schmeissen. Wenn ein Mirror mit diesen Platten keine 4k Probleme verursacht, dann kann ich diese noch weiterverwenden.
Auf alle Fälle möchte ich eine sequentielle Readperformance von >= 80 MB/s über SMB erreichen.
 
Auf alle Fälle möchte ich eine sequentielle Readperformance von >= 80 MB/s über SMB erreichen.
Das sollte ja nun kein Problem sein bei. Soweit ich das verstanden habe ist der Performanceverlust der 4K Platten im 10% Bereich.

Also ein Z1 oder Z2 aus 10 Platten sollte die 80 MB lesend bei weitem übertreffen und die GB Nic auslasten.
Aber auch ein Mirror aus 2 oder mehr Platten sollte das schaffen.

Viel mehr würde mich die Schreibrate interessieren....
 
Zuletzt bearbeitet:
Hallo,

da hast Du recht, Schreibrate wäre auch wichtig.
Da ich den 8port Controller voll auslasten möchte, wird's wohl ein 3platten RAIDZ und ein 5 Plattem RAIDZ.
Daher auch meine Fage, ob diese Plattenanzahlgrössen der Raidz nur bei 4k-Plattem wichtig sind. wenn es bei 512er Platten diese Beschränkung nicht gibt, würde ich die Platten versuchen zu verkaufen und lieber ein 8Platten RaidZ2 aus den 5k3000 Platten bauen.
 
Bei napp-it gibt es unter Platten die Spalte error.
Error: S:?? H:? T:?

Was bedeuten und sagen die Werte für S, H und T aus?

Zweite Frage
Unter Platten/Diskinfo gibt es den Parameter c1t0d0_ill_request
Was bedeutet der Wert der dahinter steht?

Danke.
 
Der DD Bench schreibt ja eine 10 GB Datei und liest diese wieder. Wenn dieser Benchmark aber z. B. 70 MB/s schreibend anzeigt sollte dann das kopieren einer einzelnen 10 GB Datei von einem Windows Client auf den Pool per SMB oder NFS nicht einen ähnlichen Wert ergeben? Vorrausgesetzt das der Client die Daten schnell genug liefern kann.

banaler Vergleich: Auf der Autobahn fährt es sich schneller als in der Stadt wo es dauernd Ampeln und Brschränkungen gibt.

Testdaten im RAM erzeugen und auf Platte schreiben oder ins Nichts lesen geht natürlich immer perfekt schnell, fast so schnell eben wie es die Platte physikalisch hergibt. Wenn diese Daten dann für ein Serverprotokoll aufbereitet werden müssen, in ip verpackt/ entpackt über ein IP Netz mit Kolissionen verschickt werden um dann wieder über den entsprechenden Client auf die Platte geschrieben werden, so bleibt davon viel weniger übrig und zwar umso weniger je kleiner die Datenpakete sind.

Wenn dann das schreibende Programm noch anweist, dass jeder geschriebene Datenblock bestätigr werden muss, damit der nächste gesendet wird (ESXi + NFS + sync write) dann bremst das nocheinmal. Ein schnelles NFS-SAN datastore für ESXi ist daher um einiges aufwändiger als nur ein einfacher schneller Datenpool, der über SMB oder NFS freigegeben werden soll.

Bei besonders langsamen Platten, wir den green Typen (wenig Energie, wenig Performance) kommen die niedrigen Zugriffszeiten hinzu die bei nicht perfekt sequentiellen Datenströmen nochmal bremsen. Viel RAM kann dieses Performanceproblem langsamer Platten etwas mildern.

Ich habe keine genauer Werte aber gefühlsmäßig würde ich sagen, dass SMB Transfers von ca 50% der Roh-Plattenperformance nicht unnormal sind. Ein Raid-Z1 aus 3-4 Platten kann damit eine Gigabit Leitung füllen (Genügend RAM und CPU vorausgesetzt). Sehr hilfreich bei langsamen Platten ist Hybridspeicher mit schnellem SSD Lesecache (oder zur Beschleunigung von sync-writes auch Schreibcaches)

---------- Beitrag hinzugefügt um 17:28 ---------- Vorheriger Beitrag war um 17:24 ----------

Bei napp-it gibt es unter Platten die Spalte error.
Error: S:?? H:? T:?

Was bedeuten und sagen die Werte für S, H und T aus?

Zweite Frage
Unter Platten/Diskinfo gibt es den Parameter c1t0d0_ill_request
Was bedeutet der Wert der dahinter steht?

Danke.

Das sind Statisktikdaten für die Platten
Soft-Error, Hard-Error und Transfer-Error sowie illegal requests

- wenn diese Werte ansteigen, dann die Platte genauer beobachten,
eventuell eine smart-test durchführen oder die Platte ausbauen und mit einem
Test-Tool des Herstellers testen (das mache ich immer)

Solange die Platte nicht auf failed geht, ist es noch kein Problem für ZFS sondern
nur ein Indiz für künftige Probleme

---------- Beitrag hinzugefügt um 17:42 ---------- Vorheriger Beitrag war um 17:24 ----------

Hallo Gea,

vielen Dank für Deine Ausführungen. Gibt es ungefähre Zahlen, was über smb möglich ist, wenn man sich an Deine Hardware Empfehlung gehalten hat, aber keine SSD einsetzt, sondern nur Green Platten? Ich habe das SM-Board mit 16gb reg.ECC, Xeon X3440 und den SASUC8I bestellt.
Ist die 4K Geschwindigkeits-Problematik nur bei einem Einsatz der Platten in einem RAIDZ relevant oder auch bei Einsatz von Mirrors?
Gilt die oft zitierte Empfehlung, wieviele Platten in einem RaidZ oder RaidZ2 verwendet werden sollen nur für 4k-Platten oder sind sie eine allgemeingültige Empfehlung auch bei 512Byte Platten.
Entschuldigt die dummen Fragen.

Nachtrag: sehe ich die Diskussionen zu den Lizenzbestimmungen des neuen ESXi 5 (8gb vram) richtig, das damit dann ein allinone nicht mehr realisierbar ist, bzw. sinnlos, da keine weitere VM ausser dem Filer mehr betrieben werden kann.
Gruß Millenniumpilot

ZFS kommt eigentlich ganz gut mit jeglicher Plattenanzahl zurecht. Das Optimum einer gleichmäßigen Plattennutzung ist, wenn die Anzahl der Datenplatten (ohne Parität) eine Zweierpotenz (2,4,8,16,32,64,128) darstellt, denn nur dann kann z.B. ein 128 KB Datenblock völlig gleichmäßig auf alle Platten verteilt werden.

4k Platten die sich fälschlicherweise als 512 Byte Typen ausgeben, haben immer ein leichtes Performance-Problem wenn nicht der Pool fest auf 4k gestellt wird (Persönlich würde ich das 4k Problem bei vorhandenen Platten ignorieren aber nach Möglichkeit auch keine kaufen). 100 MB/s an sequentieller SMB Performance sind aber schon drin wenn alles andere stimmt (nic, switch etc).

Zu ESXi 5.
Das ist übel. Entweder bei ESXi 4.1 bleiben, Lizenz kaufen oder zu XEN(Server) wechseln. Der basiert ab der angekündigten
Version 6 auf XEN 4.1 und sollte damit pass-through können (eventuell sogar mit einzelnen Grafikkarten)

---------- Beitrag hinzugefügt um 17:50 ---------- Vorheriger Beitrag war um 17:24 ----------

So hab jetzt bei mir doch NexentaCore mit napp-it zum laufen gebracht.

Allerdings habe ich Probleme mit den ACL, gibt es dazu eine kleines HowTo? hab schon gegooglet leider nichts wirkliches herausgefunden.

Was ich gerne hätte wäre das ich zB einen Gäste Ordner erstelle der ohne Account Informationen zugreifen darf.

bzw. dann 2 versch. Gruppen wo eine Gruppe den anderen Ordner nicht sehen darf, leider bekomme ich das nicht hin. Und wenn ich bei den Sicherheitseinstellungen bei "Jeder" auf vollzugriff Verweigern einstelle dann sperre ich mich sogar als Root raus...
obwohl ich davor die Gruppen vom Fileserver hinzugefügt habe.

hat da jemand eine Idee, wie ich das am besten hinbekomme?

ein ZFS-Folder als Gästeordner freigeben (guestok=ja)
Mit Gästezugriff geht es dann aber ohne Anmeldung, man kann also
auf enthaltene Ordner nichts anderes einstellen.

Ansonsten
einen Ordner normal freigeben und dann den Personen/ Gruppen
die benötigten allow-Rechte geben (keine, lesen, ändern, voll)

Mit deny-Regeln ist es etwas komplizierter.
Das geht schief, wenn es von Windows aus angelegt wird.
Von Solaris aus geht das per CLI oder mit der neuen napp-it ACL-extension
die die Reihenfolge setzen läßt und die auch share-ACL beherrscht.

Windows beachtet zuerst alle deny dann alle allow Regeln
Solaris geht die ACL Liste durch und der erste zutreffende Eintrag bestimmt die Rechte
(so arbeiten auch die Firewalls)
 
Zuletzt bearbeitet:
Hallo,

bis Anfang nächster Woche sollten alle bestellten Teile angekommen sein. Weder CPU noch RAM-Ausbau sollten limitieren. Werde die erreichten Werte für ein Mirror, als auch ein RAIDZ aus 3 Platten dann mal posten. Mich würde dann interessieren, ob mit normalen Festplatten dann signifikant bessere Werte erreicht werden würden und dann erst entscheiden, ob ich alle Platten austausche.
 
Das sind Statisktikdaten für die Platten
Soft-Error, Hard-Error und Transfer-Error sowie illegal requests

- wenn diese Werte ansteigen, dann die Platte genauer beobachten,
eventuell eine smart-test durchführen oder die Platte ausbauen und mit einem
Test-Tool des Herstellers testen (das mache ich immer)

Solange die Platte nicht auf failed geht, ist es noch kein Problem für ZFS sondern
nur ein Indiz für künftige Probleme

Danke für die schnelle Antwort.

Muss aber gleich nachhaken, da in der letzten Stunde die Werte angestiegen sind.
Code:
id	cap	pool	vdev	identify	state	if	busy	error	vendor	product	sn
c1t5000CCA369CA262Bd0	2.00 TB	Error: S:28 H:0 T:0	ATA	Hitachi HDS5C302	-
c1t5000CCA369CBF60Cd0	2.00 TB	Error: S:28 H:0 T:0	ATA	Hitachi HDS5C302	-
c1t5000CCA374F7791Ed0	500.11  Error: S:28 H:0 T:0	ATA	Hitachi HDS72105	-
c1t5000CCA374F780FBd0	500.11  Error: S:56 H:0 T:0	ATA	Hitachi HDS72105	-
c1t50024E9003CE0317d0	2.00 TB	Error: S:28 H:0 T:0	ATA	SAMSUNG HD203WI	-
c1t50024E9003CE031Bd0	2.00 TB	Error: S:28 H:0 T:0	ATA	SAMSUNG HD203WI	-
c1t50024E9003CE0368d0	2.00 TB	Error: S:28 H:0 T:0	ATA	SAMSUNG HD203WI	-
c1t50024E9003CF7685d0	2.00 TB	Error: S:38 H:0 T:0	ATA	SAMSUNG HD203WI	-

Vorher standen alle S-Werte bei S:10, nur bei der 4. Hitachi bei S:55 und die letzte Samsung bei S:30

Erschreckend, während ich diesen Text hier tippe sind die S-Werte nochmals um 2 Punkte angestiegen.
Was ist hier los? Was ist ein Soft-Error?
Lassen sich die Werte zurücksetzen?

Wie kommen die illegal requests zustande?
Für den smart-test, wie ist da der String?
 
Zuletzt bearbeitet:
Hi,

da alle Platten die gleiche Softfehleranzahl melden, sollte es wohl kein Plattenproblem sein, behaupte ich mal als ZFS-Laie.
 
Wie die Werte genau zustandekommen, kann wohl nur ein Entwickler für Disk-Treiber erklären.
Da aber alle Platten Fehler haben ist es sicher kein Plattenproblem sondern ein Treiber/ Controller/
oder Mainboard/ RAM/ CPU Problem.

Ich würde einige Platten mal z.B. an Onboard SATA hängen um zu sehen ob der Fehler da weg ist

---------- Beitrag hinzugefügt um 20:30 ---------- Vorheriger Beitrag war um 18:23 ----------

Ich habe nun die OI 151 Desktop laufen und auch Napp-it installiert. Was nicht klappt ist die Installation der VM-Ware tools. Beim ausführen der vmware installations scriptes kommen jede Menge Fehler das da was mit perl 5 bzw 5.1 nicht zusammenpassen würde.
Installieren der vmware tools mit "apt get ...." klappt auch nicht.

Ich habe eben entdeckt, dass es ein Localisierungsproblem ist
OpenIndiana 151 in englisch hat das Problem nicht

-> OI 151 englisch installieren
 
Ihr glaub es nicht, ich hab den Auslöser gefunden.

Bei meinem LSI-HBA mit 2008 geht die Abfrage der Temperatur mit
Code:
/usr/sbin/smartctl -a -d scsi /dev/rdsk/$drive
ja leider nicht.

Also frage ich die Festplattentemperatur mit dem Befehl ab:
Code:
/usr/sbin/smartctl -a -d sat /dev/rdsk/$drive
Und bei jedem Start dieses Scriptes wird der S-Parameter um eins hochgezählt.

Jetzt habe ich eine Möglichkeit gefunden, die Temperatur der HDD abzufragen, ohne dass dies einen Fehler erzeugt.
Code:
/usr/sbin/smartctl -l scttempsts -d sat /dev/rdsk/$drive

Besteht die Möglichkeit die Fehler-Zähler wieder zurück zu setzen?

@gea
Bei napp-it werden u.a. die Temperaturen auch nicht angezeigt. Kannst und willst du Dies in nächster Zeit realisieren?
IMHO wären auch die Werte von "Power Cycle Min/Max" und Lifetime Min/Max interessant, um so die Plattenkühlung im Auge zu haben.
 
Ich habe eben entdeckt, dass es ein Localisierungsproblem ist OpenIndiana 151 in englisch hat das Problem nicht
-> OI 151 englisch installieren
Ich habe nun die OI 151 desktop in Englisch installiert.

Die Installation der VMWare tools funktkioniert anscheinend auch aber ich kann die VMWare-toolbox nicht öffnen:

bild000u.png


Und auch sonst kann ich z. B. beim mauszeiger keine verbesserungen gegenüber vorher feststellen. Der "normale" Mauszeiger und der "virtuell" Mauszeiger im vsphere Terminalfenster haben einen riesenversatz und die Bedienung mit der maus ist so eine Qual.

Anderes "Problem" in einer Linuxconsole kann ich mit "Pfeil nach oben" die letzten Befehle die ich in der Console eingegeben habe durchscrollen und diese wiederverwenden. Sogar über eine Neustart hinaus (in nexenta).

In der OI Console geht das irgendwie nicht. Oder geht es nur anders?
 
Zuletzt bearbeitet:
Ich habe nun die OI 151 desktop in Englisch installiert.

Die Installation der VMWare tools funktkioniert anscheinend auch aber ich kann die VMWare-toolbox nicht öffnen:

bild000u.png


Und auch sonst kann ich z. B. beim mauszeiger keine verbesserungen gegenüber vorher feststellen. Der "normale" Mauszeiger und der "virtuell" Mauszeiger im vsphere Terminalfenster haben einen riesenversatz und die Bedienung mit der maus ist so eine Qual.

Anderes "Problem" in einer Linuxconsole kann ich mit "Pfeil nach oben" die letzten Befehle die ich in der Console eingegeben habe durchscrollen und diese wiederverwenden. Sogar über eine Neustart hinaus (in nexenta).

In der OI Console geht das irgendwie nicht. Oder geht es nur anders?

Ich habe noch OI_148 und da geht die Toolbox auch nicht.
Code:
root@ripley:~# uname -a
SunOS ripley 5.11 oi_148 i86pc i386 i86pc Solaris
bei gleicher Fehlermeldung
Code:
root@ripley:~# /usr/bin/vmware-toolbox
ld.so.1: vmware-toolbox-gtk: fatal: relocation error: file /usr/lib/64/libgobject-2.0.so.0: symbol g_array_ref: referenced symbol not found
Killed

Der Mauszeiger hat bei OI_148 zwar keinen Versatz reagiert aber nur sehr lahm in der vSphereConsole. Auch bleibt der Mauszeiger im Consolenfenster "eingesperrt", nur über die Tastenkombination wird der Mauszeiger wieder freigegeben.
Den Versatz habe ich, wenn ich auf OI mit einem VNC-Viewer zugreife. Habe für dieses Problem keine Lösung gefunden. Leider.
 
Den Versatz habe ich, wenn ich auf OI mit einem VNC-Viewer zugreife. Habe für dieses Problem keine Lösung gefunden. Leider.
Ich nutze kein VNC sondern LogMeIn aber nutze eben auch einen Remotezugang. Wann soll ich sowas auch sonst machen wenn nicht nebenbei während der Arbeitszeit? :)

Wie kann ich denn im OI den Netzwerktreiber auf VMXNET3 umstellen? Wenn alles erstmal läuft werde ich auf OI ja wohl eh nur selten direkt zugreifen. Das soll einfach im Hintergrund funktionieren.

Hab mir heute nochmal 3 x 2GB Hitachis bestellt und hoffe das das Z1 aus 6 Stück dann auch beim schreiben noch etwas zulegt...
 
Ich nutze kein VNC sondern LogMeIn aber nutze eben auch einen Remotezugang. Wann soll ich sowas auch sonst machen wenn nicht nebenbei während der Arbeitszeit? :)

LogMeIn kenn ich nicht, ist es aber nicht was ähnliches wie der Teamviewer?
Alternativ kannst du auch per SSH mit PuTTY auf OI zugreifen.

Wie kann ich denn im OI den Netzwerktreiber auf VMXNET3 umstellen? Wenn alles erstmal läuft werde ich auf OI ja wohl eh nur selten direkt zugreifen. Das soll einfach im Hintergrund funktionieren.

Ich habe mir beim Anlegen der VM gleich die entsprechende Anzahl an Netzwerkadapter angelegt und Diesen gleich vmxnet3 zugewiesen.
Dann Start der VM mit eingebundenem OI-Iso, wenn beim booten von der iso die VM hängen bleibt, einfach die Space-Taste drücken.
Natürlich werden die Netzwerkadapter bei der Installation nicht erkannt, trotzdem install fertig machen und dann einen Neustart. Vermutlich musst du dir den Neustart erzwingen über vSphere.
Console öffnen
su -
Passwort eingeben, dann kommt die Meldung dass das root-Passwort abgelaufen ist, gib jetzt ein neues root-Passwort ein.
Jetzt die vmware-tools installieren, Neustart und jetzt werden die Netzadapter erkannt und du kannst ihnen eine feste IP zuweisen.

Hab mir heute nochmal 3 x 2GB Hitachis bestellt und hoffe das das Z1 aus 6 Stück dann auch beim schreiben noch etwas zulegt...

Kann ich nichts dazu sagen, da ich meine Pools nur aus Mirrors bestehen.

---------- Beitrag hinzugefügt um 20:24 ---------- Vorheriger Beitrag war um 20:04 ----------

Mich würde mal interessieren wie lange bei euch ein SCRUB dauert.
Weil mich erstaunt hat, ist dass mein archepool bei 80 %, 4,4 TB Füllung über 9 Stunden für einen SCRUB braucht.

Ich stell mal all die notwendigen Daten hier rein, um Vergleiche ziehen zu können.
Code:
root@ripley:~# zpool list
NAME        SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
archepool  5,44T  4,40T  1,04T    80%  1.00x  ONLINE  -
rpool      29,8G  8,80G  20,9G    29%  1.00x  ONLINE  -
sanpool     464G   147G   317G    31%  1.00x  ONLINE  -

root@ripley:~# zpool status archepool
  pool: archepool
 state: ONLINE
 scan: scrub repaired 0 in 9h12m with 0 errors on Mon Jul 18 00:12:51 2011
config:

        NAME                       STATE     READ WRITE CKSUM
        archepool                  ONLINE       0     0     0
          mirror-0                 ONLINE       0     0     0
            c1t50024E9003CE0317d0  ONLINE       0     0     0
            c1t50024E9003CF7685d0  ONLINE       0     0     0
          mirror-1                 ONLINE       0     0     0
            c1t50024E9003CE031Bd0  ONLINE       0     0     0
            c1t50024E9003CE0368d0  ONLINE       0     0     0
          mirror-2                 ONLINE       0     0     0
            c1t5000CCA369CA262Bd0  ONLINE       0     0     0
            c1t5000CCA369CBF60Cd0  ONLINE       0     0     0

root@ripley:~# zpool status sanpool
  pool: sanpool
 state: ONLINE
 scan: scrub repaired 0 in 0h28m with 0 errors on Sun Jul 17 12:28:07 2011
config:

        NAME                       STATE     READ WRITE CKSUM
        sanpool                    ONLINE       0     0     0
          mirror-0                 ONLINE       0     0     0
            c1t5000CCA374F7791Ed0  ONLINE       0     0     0
            c1t5000CCA374F780FBd0  ONLINE       0     0     0

root@ripley:~#  format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       0. c1t5000CCA369CA262Bd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369ca262b
       1. c1t5000CCA369CBF60Cd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369cbf60c
       2. c1t5000CCA374F780FBd0 <ATA-Hitachi HDS72105-A3MA-465.76GB>
          /scsi_vhci/disk@g5000cca374f780fb
       3. c1t5000CCA374F7791Ed0 <ATA-Hitachi HDS72105-A3MA-465.76GB>
          /scsi_vhci/disk@g5000cca374f7791e
       4. c1t50024E9003CE031Bd0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce031b
       5. c1t50024E9003CE0317d0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce0317
       6. c1t50024E9003CE0368d0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce0368
       7. c1t50024E9003CF7685d0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003cf7685
       8. c3t0d0 <VMware -Virtual disk   -1.0  cyl 3913 alt 2 hd 255 sec 63>
          /pci@0,0/pci15ad,1976@10/sd@0,0
 
so hab das jetzt hinbekommen mit den Freigaben Danke gea!
habs einfach so gemacht das ich einfach die hacken bei jeder alle entfernt habe aber keine denied häckchen gesetzt habe.

Somit hat jetzt auch nicht jeder zugriff sonder nur die Gruppe die ich allowed habe.

allerdings habe ich jetzt ein andere Problem.
Ich schätze ich hab bei meinem Mainboard ein Prob. mit einen Sata Port bzw. eventuell auch das Sata Kabel.

Hab jetzt einfach mal das Sata Kabel getauscht aber wie bekomme ich jetzt das jetzt weg das die eine Disk immer Faulted anzeigt obwohl sie laut Bios und auch im POST Screen ersichtlich ist? Smartwerte passen auch alle...

Code:
id 	cap 	pool 	vdev 	state 	error 	product 	sn 	smart_type 	smart_health 	smart_sn 	smart_temp
c1d0 	120.03 GB 	syspool 	basic 	ONLINE 	Error: S:0 H:0 T:0 	- 	5JT4R0NJ 	- 	- 	- 	-
c2t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW09YSB 	disk 	OK 	6XW09YSB 	31 C
c2t1d0 	2.00 TB 	datapool 	raidz 	FAULTED 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW09249 	disk 	OK 	6XW09249 	30 C
c3t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW0ATSE 	disk 	OK 	6XW0ATSE 	28 C
c3t1d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW07GYQ 	disk 	OK 	6XW07GYQ 	37 C
c4t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW0A7E5 	disk 	OK 	6XW0A7E5 	29 C
c4t1d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST2000DL003-9VT1 	5YD0SFT9 	disk 	OK 	5YD0SFT9 	37 C

system release:

SunOS datavault 5.11 NexentaOS_134f i86pc i386 i86pc Solaris - NexentaCore 30 Hardy 804b134

pool overview:

pool: datapool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: none requested
config:

NAME STATE READ WRITE CKSUM
datapool DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
c2t0d0 ONLINE 0 0 0
c2t1d0 FAULTED 0 0 0 too many errors
c3t0d0 ONLINE 0 0 0
c3t1d0 ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0
c4t1d0 ONLINE 0 0 0

errors: 2 data errors, use '-v' for a list

server overview:

uptime : 7:42pm up 2 min(s), 0 users, load average: 0.14, 0.09, 0.03
afp-server : netatalk not installed
afp-avahi : afp advertise service is not installed
apache-server: disabled
iscsi comstar: disabled
ftp-server : online
mysql-server : disabled
ndmp-server : disabled
nfs-server : online
rsync-server : online
smb-server : online
ssh-server : online - PermitRootLogin no

ipf firewall : disabled

kann ich da jetzt im Pool einfach sagen "clear errors".
Sorry aber ZFS ist für mich leider etwas Neuland...

Danke
Jonny
 
so hab das jetzt hinbekommen mit den Freigaben Danke gea!
habs einfach so gemacht das ich einfach die hacken bei jeder alle entfernt habe aber keine denied häckchen gesetzt habe.

Somit hat jetzt auch nicht jeder zugriff sonder nur die Gruppe die ich allowed habe.

allerdings habe ich jetzt ein andere Problem.
Ich schätze ich hab bei meinem Mainboard ein Prob. mit einen Sata Port bzw. eventuell auch das Sata Kabel.

Hab jetzt einfach mal das Sata Kabel getauscht aber wie bekomme ich jetzt das jetzt weg das die eine Disk immer Faulted anzeigt obwohl sie laut Bios und auch im POST Screen ersichtlich ist? Smartwerte passen auch alle...

Code:
id 	cap 	pool 	vdev 	state 	error 	product 	sn 	smart_type 	smart_health 	smart_sn 	smart_temp
c1d0 	120.03 GB 	syspool 	basic 	ONLINE 	Error: S:0 H:0 T:0 	- 	5JT4R0NJ 	- 	- 	- 	-
c2t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW09YSB 	disk 	OK 	6XW09YSB 	31 C
c2t1d0 	2.00 TB 	datapool 	raidz 	FAULTED 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW09249 	disk 	OK 	6XW09249 	30 C
c3t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW0ATSE 	disk 	OK 	6XW0ATSE 	28 C
c3t1d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW07GYQ 	disk 	OK 	6XW07GYQ 	37 C
c4t0d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST32000542AS 	6XW0A7E5 	disk 	OK 	6XW0A7E5 	29 C
c4t1d0 	2.00 TB 	datapool 	raidz 	ONLINE 	Error: S:0 H:0 T:0 	ST2000DL003-9VT1 	5YD0SFT9 	disk 	OK 	5YD0SFT9 	37 C



kann ich da jetzt im Pool einfach sagen "clear errors".
Sorry aber ZFS ist für mich leider etwas Neuland...

Danke
Jonny

-wenn der Fehler nicht mehr besteht, dann ist clear error ok,
ansonsten bleibt die Fehler-Meldung bestehen.

-Ein Scrub-Test machen, Kabel oder port wechseln

Wenn dann der Fehler auch nach einem Power off/on
noch besteht, dann Platte wechseln, eventuell mit Hersteller
low-level tool testen
 
Zuletzt bearbeitet:
Hallo,

hat einer von euch Erfahrungswerte, wieviel ein Intel SASUC8I verbraucht?

Leider finde ich bei Intel keine Angaben dazu!

LG
Ghandalf
 
Aber so sind meine Werte ja auch. Warum sagt mir denn keiner das meine Werte ganz normal für ZFS sind???

Wie passt das mit den DD Bench/Bonnie Werten zusammen bei denen die Schreirate doch viel höher gemessen wird? Das verstehe ich nicht so ganz.

Also alles ein großes Mißverständnis...

Das mit dem sync write off soll ja wohl sehr riskant sein so das ich das besser sein lasse.


Hast Du das sync write off???

Nochmal grundsätzlich: Die Schreibrate bei einem Z1/Z2 wird immer deutlich geringer sein als eine EInzelplatte. Unabhängig davon aus wieviel Platten ein z1 besteht? Also wird sich meine Schreibrate auch mit 6 HDDs im Z1 nicht verbessern richtig?

Wenn das alles so richtig ist wie schaffe ich dann Deine hohe Schreibrate im Benchmark? Sind das allein die SSDs? Müssen es zwei sein oder bringt auch eine schon richtig viel?

Du kannst die Schreibrate im ZFS verbessern wenn du statt 6x HDD in 1x6 raidz in 2x3 raidz aufteilst. Jede raidz- bzw. mirror-Gruppe erhöht den Durchsatz, mehr HDDs in eine raidz-Gruppe packen, erhöht nur die Kapazität. Hier eine ausführliche Aufstellung: NexentaStor Project - Sadly, I think I'd done with NexentaStor - NexentaStor Project
 
Ich scheitere irgendwie daran per SMB freigegebenen Ordnern Rechte zuzuweisen. Die User die ich berechtigen will werden immer nicht gefunden. Den Suchpfad für die User kann ich auch nicht ändern der steht fest auf "openindiana".
Den OI in meine Domäne gehoben habe ich auch schon nur mit dem Ergebnis das ich mich dann gar nicht mehr an der SMB Freigabe anmelden konnte.

Mein Ziel ist eigentlich ganz einfach: Ich möchte SMB Freigaben auf dem OI für User in meiner Windows Domäne berechtigen und dann diese Ordner per DFS auf meinem Windows Server 2008 R2 freigeben.

Gibt es irgendwo genauere Anleitungen wie man das einstellt? Aus der Napp-It Anleitung zu diesem Thema werde ich nicht schlau.
 
Zuletzt bearbeitet:
Ich scheitere irgendwie daran per SMB freigegebenen Ordnern Rechte zuzuweisen. Die User die ich berechtigen will werden immer nicht gefunden. Den Suchpfad für die User kann ich auch nicht ändern der steht fest auf "openindiana".
Den OI in meine Domäne gehoben habe ich auch schon nur mit dem Ergebnis das ich mich dann gar nicht mehr an der SMB Freigabe anmelden konnte.

Mein Ziel ist eigentlich ganz einfach: Ich möchte SMB Freigaben auf dem OI für User in meiner Windows Domäne berechtigen und dann diese Ordner per DFS auf meinem Windows Server 2008 R2 freigeben.

Gibt es irgendwo genauere Anleitungen wie man das einstellt? Aus der Napp-It Anleitung zu diesem Thema werde ich nicht schlau.

Eigentlich ganz einfach (geht aber nicht mit jedem Windows)
gut ist WinXP pro, 2003 aber auch Win7 pro

- Ein ZFS freigeben (guest access aus, permissions 777, root=full)
- als root am share anmelden (oder als user, der auf root id-gemappt ist)
- von Windows aus ACL setzen.

Wenn user nicht angezeigt werden, ist es ein Problem mit Windows,
XP pro oder 2003 probieren.

Andere Windows z.B. win7 ultimate
Ein Benutzer hat berichtet, dass als workaround ein mounten auf
einen Laufwerksbuchstaben mit net use hilft


- Von Solaris aus ist es via CLI möglich aber komplizierter
ich bin gerade dabei eine ACL extension dafür zu entwickeln
(napp-it menü extension)

-Freigabe via DFS - Zweifel ob das geht
 
- Ein ZFS freigeben (guest access aus, permissions 777, root=full)
- als root am share anmelden (oder als user, der auf root id-gemappt ist)
- von Windows aus ACL setzen.
Ich möchte natürlich die User aus meiner AD berechtigen. Diese User gibt es auf dem OI natürlich nicht. Muss ich die dort anlegen oder kann ich nicht diese User berechtigen a la : domain\username?

Das scheint aber nicht zu klappen. Ich habe das Verzeichnis gemappt als Laufwerk Z:. Im Explorer mache ich dann rechte Maustaste -> Eigenschaften -> Sicherheit und sehe dort den Administrator (openindiana\Administrator) und Jeder.

Nun will ich einen User aus meiner Domäne hinzufügen: ALso klick auf bearbeiten -> hinzufügen -> "Geben sie zu verwendenen Objektnamen ein" und dort findet er halt keine User egal wie ich sie eingebe. Und der Suchpfad steht auf "openindiana" und ich kann den nicht umstellen so das er die User in meiner Domäne sucht.

Wenn das jetzt nicht ganz klar ist dann kann ich auch Bilder von jedem einzelnen Schritt machen aber ich hoffe es geht auch so.

Ich hab das Gefühl ich mach da grundsätzlich was falsch :-)

Update 1: AH! Nun habe ich es vielleicht verstanden. Ich bin mit dem OI meiner AD beigetreten womit sich dann auch der SUchpfad im Berechtigungsdialog auf meine DOmäne ändert. Nun sehe ich auch alle meine AD User. Nun probiere ich mal ob da auch so funktioniert wie ich das erwarte.... JA es funktioniert! .-)

-Freigabe via DFS - Zweifel ob das geht
DFS ist schon eine feine Sache wenn man zentral die Ziele von Dateifreigeben umswitchen kann ohne das auf den Clients etwas umgestellt werden muß. Ausserdem siehts im CLient aufgeräumter aus wenn es nur noch ein Laufwerk gibt mit X Unterverzeichnissen die auf X verschiedene Ziele zeigen.

Update 2: Das einfügen eines per SMB freigegebenen Verzeichnisses in das DFS von meinem WinServer2008 ging ohne Probleme, auf den Clients ist es auch automatisch als eins neues Verzeichnis in der DFS Wurzel aufgetaucht. Sieht alles sehr gut aus :-) Bisher sind die Datenplatten halt direkt in meinem Win2008 Server eingebaut und zukünftig soll halt der DC Server2008 auf das OI Storage zugreifen
 
Zuletzt bearbeitet:
Info zu OSX 10.7 + napp-it
(Vorab-Info, ich habe noch kein Lion)

Steve benutzt mit Lion nicht mehr Samba sondern einen eigenen SMB der mit vielen
SMB Servern Probleme hat.

Workaround, der bei einigen funktionieren soll
Verbinden mit dem Menü gehe zu - mit Server verbinden und dann cifs:// server-ip

UND
Lion benutzt bei AFP eine stärkere Verschlüsselung DHX2 für Time Machine. Die wird im Wesentlichen nur
von Apple unterstützt. Das bei Unix üblicherweise benutzte netatalk 2.1 unterstützt das nicht.

Von netatalk gibt es zwar eine stabile Version 2.2 mit Lion support. Die wird jedoch momentan nur
an zahlende Kunden abgegeben. siehe Open Letter to the Netatalk Community | NetAFP

Es gibt allerdings eine freie 2.2 beta4. Ich habe dazu auch einen Installer zum testen. Ich habe noch kein Lion,
konnte deshalb nur Snow testen. Wer mag, kann es testen und Mißerfolg/ Erfolg berichten.

Installation unter NexentaCore, OpenIndiana und Solaris Express 11 mit:
wget -O - www.napp-it.org/afp | perl
 
Zuletzt bearbeitet:
Das mit dem Lion und dem Zugriff auf SMB Freigaben ist wirklich "witzig". EMC Fileserver reagieren da recht allergisch und stürzen dann einfach ab.
 
Info:
NexentaCore wurde auf Version 3.1 upgedatet

Update mit:
apt-get update
apt-clone upgrade

anschliessend unterstützt NexentaCore ZFS V.28 (gleiche ZFS Version wie OpenIndiana)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh