[Sammelthread] ZFS Stammtisch

Wieviel Lanes hat Dein PCIe Port denn? PCIe x1? Würde ja generell den Intel SASUC8i mit der IT Firmware für PCIe x8/16 empfehlen.

wenn ich die grafikslots nehmen kann, dann hab ich 1x 16 oder eben 2x8, aber ich bin mir noch nicht sicher ob die funktionieren, denn ich habe grade nix anderes als eine graka zum ausprobieren da.
der eine pcie x1 ist leider defekt.
die intel waere klasse ist aber ca 100E zu teuer.
ciao,
david
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Problem ist, dass solche billigcontroller nur mangelhaft supportet werden von solchen Systemen.

Es ist also abhängig vom verwendeten OS. Wenn du zB die ausgewachsenen "ZFS-Versionen" nimmst wie Solaris oder nexanta, dann unterstützen du nur bestimmte Controller, da wird es sogar schon problematisch, wenn du nicht den richtigen Proficontroller hast.

Also einfach so nen 0815 SiL Controller nehmen könnte da nach hinten losgehen.
 
Ich möchte einen ZFS-Folder (aktuell per SMB freigegeben) per NFS freigeben und diesen auf einem Ubuntu-Client mounten.
Gibt es hier ein How-To, was ich anstellen muss. Bekomme direkt bei Mounten schon ein "access denied". Hatte ähnliches bereits (mit gleichem Ergebnis) unter Nexenta probiert, dort dann aber das Mounten als root erlaubt. Prinzipiell konnte ich dann mounten, da aber dann alles mit root-Rechten lief, habe ich entnervt aufgegeben.
Wie kann man hier ein rudimentäres User-Mapping aufsetzen. Ich möchte eigentlich nur mit dem User, unter dem auf dem Ubuntu der Apache läuft einen Folder auf der Solaris-Maschine mounten, um dort die Filebase für den Apache ablegen zu können...
Ich habe es noch nicht ausprobiert aber die Rechte hängen doch bei NFS genauso wie bei SMB an den gesetzten ACLs. Ich würde so vorgehen:
Lokalen Benutzer im Solaris einrichten, den NFS benutzen wird.
Über SMB->Windows->Root/Administrator-Anmeldung-am-Solaris die ACL für eben diesen NFS-Benutzer anlegen.
Fertig?

---------- Beitrag hinzugefügt um 19:34 ---------- Vorheriger Beitrag war um 19:31 ----------

die intel waere klasse ist aber ca 100E zu teuer

Ich glaube dann hast du ein Problem. Beste Chancen solltest du dann mit einem FreeBSD haben, check die Hardware-Compatibility und krieg heraus was die billigen ASRock etc für Chips verbauen.

Aber eigtl. solltest du dich auf 100-150 EUR SAS-HBAs einrichten wenn du was BSD/Solaris ZFS-mäßiges fährst :asthanos:
 
das soll ja nur ein testsystem werden, ein teurerer controller ist grad nicht drin.

das hier hab ich noch im web gefunden und hoffe, dass ich einen 2fach controller mit passenden jmicron chip bekomm.

From 16 to 2 ports: Ideal SATA/SAS Controllers for ZFS & Linux MD RAID - Zorinaq

ein raid10 unter openindiana(napp-it) baut man mit hd1 + hd2 als mirror und dann hinzufuegen hd3 + hd4 als mirror, oder?

vielen dank,
david
 
Zuletzt bearbeitet:
das soll ja nur ein testsystem werden, ein teurerer controller ist grad nicht drin.

das hier hab ich noch im web gefunden und hoffe, dass ich einen 2fach controller mit passenden jmicron chip bekomm.

From 16 to 2 ports: Ideal SATA/SAS Controllers for ZFS & Linux MD RAID - Zorinaq

ein raid10 unter openindiana(napp-it) baut man mit hd1 + hd2 als mirror und dann hinzufuegen hd3 + hd4 als mirror, oder?

vielen dank,
david

ich würde in jedem Fall auf einen SAS Controller setzen. Supermicro AOC-USAS-L8i 8-Port SAS Controller gibts bei ebay für unter 90,-- Problemlosigkeit und Unterstützung aller ZFS-OS Varianten auch nach einem Update ist nur damit garantiert.

ansonsten.
Einen Pool aus einem Raid-1 vdev erstellen und ein weiteres raid-1 vdev hinzufügen ergibt ein Raid-10. Weitere Raid-1 vdevs erhöhen die Kapazität und verbessern die Performance erneut.


betr. napp-it und afp


ich bin gerade auf ein Problem mit napp-it und netatalk gestossen.
Ich kann mich von einem Mac (10.5 und 10.6) via afp anmelden und
Dateien und Ordner erstellen. Leere Ordner kann ich auch wieder löschen.

Dateien kann ich umbenennen aber nicht löschen (Zugriff verweigert).
Wenn ich auf Information gehe, sehe ich den User als Eigentümer.
Gehe ich nochmal auf Information, so ist der Eigentümer unbekannt.

Das Problem tritt mit netatalk 2.15 und 2.2 beta auf. Ich habe netatalk
auch probehalber mit und ohne PAM kompiliert und bei den Volume-Einstellungen
mit den options upriv und acls keinen Erfolg gehabt.

Da ich AFP ansonsten nicht benutze, bin ich momentan etwas ratlos.
Vielleicht hat jemand eine Idee.

Howto.
Installieren von Nexenta, OpenIndiana oder SE11
installieren von napp-it mit wget -O - www.napp-it.org/nappit04 | perl
Installieren von afp mit wget -O - www.napp-it.org/afp | perl

anschliessend folder via AFP sharen. Settings siehe Menü services-afp

Gea
 
Zuletzt bearbeitet:
Kann mir wer mit meinen Dateifehlern helfen? Irgendwie versteh ich das Verhalten einfach nicht...
Code:
 scan: scrub repaired 0 in 2h22m with 0 errors on Thu Feb 10 18:51:40 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0    23
            c2t0d0  DEGRADED     0     0    30  too many errors
            c2t1d0  ONLINE       0     0     0
            c2t2d0  DEGRADED     0     0    22  too many errors


 scan: scrub repaired 8.50K in 2h26m with 0 errors on Fri Feb 11 20:10:49 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0    47
            c2t0d0  DEGRADED     0     0    55  too many errors
            c2t1d0  DEGRADED     0     0     0  too many errors
            c2t2d0  DEGRADED     0     0     0  too many errors


 scan: scrub repaired 8.50K in 3h2m with 0 errors on Fri Feb 11 23:16:57 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0    43
            c2t0d0  DEGRADED     0     0    55  too many errors
            c2t1d0  DEGRADED     0     0     0  too many errors
            c2t2d0  DEGRADED     0     0     0  too many errors


 scan: scrub repaired 0 in 2h26m with 0 errors on Sat Feb 12 05:02:10 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0    21
            c2t0d0  DEGRADED     0     0    25  too many errors
            c2t1d0  DEGRADED     0     0     0  too many errors
            c2t2d0  DEGRADED     0     0    22  too many errors


 scan: scrub repaired 3K in 2h26m with 0 errors on Sat Feb 12 19:17:58 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0    21
            c2t0d0  DEGRADED     0     0    55  too many errors
            c2t1d0  DEGRADED     0     0     0  too many errors
            c2t2d0  DEGRADED     0     0    26  too many errors
 
Spontan würd ich da mal CPU, RAM, Motherboard oder Controller Vermuten.
Hast du ECC ram?

Ansonsten mal ne nacht lang Memtest durcheiern lassen.
Oder nen Windows PE + Prime 95 oder sowas.
einen anderen controller / kabel testen.

Oder deine Platten sind alle grütze, was aber sehr unwarscheinlich ist.
 
Zuletzt bearbeitet:
Isn Zotac H55 mit nem i3 530 und 8GB Ripjaws. Da Intel also kein ECC. Die Kiste ist sonst aber total stabil, daher tippe ich nicht auf den Ram oder einen HW defekt.

Das alle Platten, die keine 2 Monate alt sind, Schrott sind halte ich auch für unwahrscheinlich... Evtl. liegts an meinem direkt als RDM durch ESXi durchreichen an die Nexenta VM... Ka :-/

Wollte eigentlich im April auf Sandy Bridge und mATX umbauen, denke dann geh ich auch den Schritt mit dem 100€ PCI-E Controller um es endlich sauber/sicher zu haben. Hoffe halt, dass bis dahin mir meine Daten nich futsch gehen :(
 
kannst du mal Dein syslog zum download ablegen?
bei nexenta core sind das die /var/adm/messages* files
 
Hier mal ein Ausschnitt: Feb 12 14:31:52 fileserver pseudo: [ID 129642 kern

Hab die letzten Tage öfters das ganze runtergefahren, neugestartet, gescrubbt etc. Bin bestimmt schon beim 10ten Scrub...

Wenn der Rechner ansonsten stabil läuft, tippe ich auf ein Problem rund um vt-d oder den durchgereichten Controller.

Was ist es denn für ein Controller?
Auch sind viele Desktop-Boards oder deren Biosse nicht wirklich für vt-d tauglich
siehe http://wiki.xensource.com/xenwiki/VTdHowTo

Mit meinen Serverboards (Intel 5500, 5520, 3420) und LSI 1068/ 2008 geht es ohne Probleme

Gea
 
Zuletzt bearbeitet:
3x Samsung F3 1,5TB Ecogreen hängen an dem H55 Sata Controller. VT-D nutze ich nicht, da die CPU es nicht kann. Ich reiche die 3 Platten direkt als RDM ( Creating RDMs on SATA drives ) an die Nexenta VM durch.

Der letzte Scrub gestern Nacht lief wieder gut durch:
Code:
 scan: scrub repaired 3K in 2h26m with 0 errors on Sat Feb 12 22:02:34 2011
config:

        NAME        STATE     READ WRITE CKSUM
        Data        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            c2t0d0  ONLINE       0     0     0
            c2t1d0  ONLINE       0     0     2
            c2t2d0  ONLINE       0     0     0
 
ich würde in jedem Fall auf einen SAS Controller setzen. Supermicro AOC-USAS-L8i 8-Port SAS Controller gibts bei ebay für unter 90,-- Problemlosigkeit und Unterstützung aller ZFS-OS Varianten auch nach einem Update ist nur damit garantiert.

ich habe jetzt ein angebot bei ebay mit kabel gefunden.

Lieferumfang:
Supermicro Add-on Card AOC-USAS-L8I
2 x Mini SAS Drive & Power x 4 , 1 Meter Kabel

passen die an normale sata platten dran und wo schliesst man diesen riesigen powerstecker an?


vielen dank,
david
 
Bedenke bei der Karte, dass diese verkehrtherum ist. Sprich, das Slotblech passt zB nicht. Auch kann diese Karte sich dann mit einer darüberliegenden Karte ins Gehege kommen.

SATA Platten sollten damit laufen.

Was meinst du mit Powerstecker?
 
Zuletzt bearbeitet:
ich habe jetzt ein angebot bei ebay mit kabel gefunden.

Lieferumfang:
Supermicro Add-on Card AOC-USAS-L8I
2 x Mini SAS Drive & Power x 4 , 1 Meter Kabel

passen die an normale sata platten dran und wo schliesst man diesen riesigen powerstecker an?


vielen dank,
david


Ich vermute mal, dass es sich um ein SAS + power kabel handelt.
Benötigt wird ein ganz einfaches miniSAS 8087 -> 4 x sata kabel z.B.
http://preisvergleich.hardwareluxx.de/a297775.html

http://www.supermicro.com/products/accessories/addon/AOC-USAS-L8i.cfm
Beim Controller darauf achten, dass der nebenliegende Slot normalerweise nicht nutzbar ist. Der Controller ist der billigste überhaupt, aber Supermicro UIO (Spezialslot für 1 HE und 2 HE Gehäuse, um dort zwei Karten übereinander unterzubringen). Der Controller ist falsch herum bestückt. Mit dem Slotblech ist etwas Bastelarbeit notwendig. Bei einem rein intenen Adapter macht es aber sonst keinen Ärger. Normalerweise das Slotblech am Adapter um 180° umbiegen und es passt so halbwegs. Dafür kostet die Karte nur halbsoviel wie eine Intel SASUC8I mit gleichem Innenleben.

Gea
 
Zuletzt bearbeitet:
hallo zusammen,

die controllerwahl gestaltet sich schwierig, der intel eigentlich zu teuer, der lsi gefaellt nicht(wegen dem slotblech umbiegen). jetzt hab ich erstma einen 2 fach mit jmb363 chip bestellt, der laut dieser webseite unterstuetzt wird, weiterzukommen.
Ideal SATA/SAS Controllers for ZFS

jetzt wollte ich nochma wegen der unterstuetzung nachfragen, denn auf den webseiten hab ich nur linux und win treiber gesehen, woher weiss ich denn nun das die karten immer von openindiana/nexenta/opensolaris unterstuetzt werden. ist das wirklich so kritisch mit den updates, denn kann es ja passieren, das auch der chipsatz vom board oder der onboard sata nimmer erkannt werden?

wuerde der Fujitsu RAID 0/1 SAS/SATA LSI MegaRAID 8Port auch gehen?

welcher waere von der leistung her besser?
der supermicro oder der intel, ich muss dazu sagen, dass wir am pcie x16 haengen (wenn das ueberhaupt geht) und das dahinter nur 6x500gb sata platten geplant sind...

ist da dann ueberhaupt noch raid10 moeglich
hd0+hd1=mirror 1
hd2+hd3=mirror 2
hd4+hd5=mirror 3
mirror1 + mirror2 + mirror3

vielen dank,
david
 
Zuletzt bearbeitet:
ich bin gerade auf ein Problem mit napp-it und netatalk gestossen.
Ich kann mich von einem Mac (10.5 und 10.6) via afp anmelden und
Dateien und Ordner erstellen. Leere Ordner kann ich auch wieder löschen.

Dateien kann ich umbenennen aber nicht löschen (Zugriff verweigert).
Wenn ich auf Information gehe, sehe ich den User als Eigentümer.
Gehe ich nochmal auf Information, so ist der Eigentümer unbekannt.

Das Problem tritt mit netatalk 2.15 und 2.2 beta auf. Ich habe netatalk
auch probehalber mit und ohne PAM kompiliert und bei den Volume-Einstellungen
mit den options upriv und acls keinen Erfolg gehabt.

Da ich AFP ansonsten nicht benutze, bin ich momentan etwas ratlos.
Vielleicht hat jemand eine Idee.

Howto.
Installieren von Nexenta, OpenIndiana oder SE11
installieren von napp-it mit wget -O - www.napp-it.org/nappit04 | perl
Installieren von afp mit wget -O - www.napp-it.org/afp | perl

anschliessend folder via AFP sharen. Settings siehe Menü services-afp

Gea

Durch Setzen der ZFS-Eigenschaft nbmand=off
ist das Problem gelöst.

about nbmand=off
set nbmand= off scheint nur ein Problem beim gleichzeitigen Zugriff mit
CIFS und NFS (AFP?) zu sein.

siehe: [cifs-discuss] Implications of turning nbmand off

Dank an Apnar für den Hinweis


Gea
 
@gea, kannst du nochmal was zu meinem post oben sagen, und ist das richtig, dass wenn wir unseren mirror aus 2 platten immer um je zwei erweitern bis wir 6 platten haben, das ein richtiges raid10 ist?

im netz hab ich folgendes gefunden fuer raid 10:

zpool create tank mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6

pool: tank
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t1d0 ONLINE 0 0 0
c8t2d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c8t3d0 ONLINE 0 0 0
c8t4d0 ONLINE 0 0 0
mirror-2 ONLINE 0 0 0
c8t5d0 ONLINE 0 0 0
c8t6d0 ONLINE 0 0 0

ich hab das mal mit oracle sol11 durchgespielt und es schaut eigentlich genauso aus wie oben beschrieben.
spricht eigentlich was fuer sol11 und gegen openindiana oder umgedreht?

ciao und vielen dank,
david
 
@gea, kannst du nochmal was zu meinem post oben sagen, und ist das richtig, dass wenn wir unseren mirror aus 2 platten immer um je zwei erweitern bis wir 6 platten haben, das ein richtiges raid10 ist?

im netz hab ich folgendes gefunden fuer raid 10:

zpool create tank mirror disk1 disk2 mirror disk3 disk4 mirror disk5 disk6

pool: tank
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t1d0 ONLINE 0 0 0
c8t2d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c8t3d0 ONLINE 0 0 0
c8t4d0 ONLINE 0 0 0
mirror-2 ONLINE 0 0 0
c8t5d0 ONLINE 0 0 0
c8t6d0 ONLINE 0 0 0

ich hab das mal mit oracle sol11 durchgespielt und es schaut eigentlich genauso aus wie oben beschrieben.
spricht eigentlich was fuer sol11 und gegen openindiana oder umgedreht?

ciao und vielen dank,
david

zum Controller kann ich nichts sagen, ausser dass vieles unter Solaris nicht oder nicht wirklich problemlos läuft. Deshalb ist es besonders sinnvoll immer die "best are" zu verwenden. Ansonsten Probieren... Meine persönliche Meinung: eher was nehmen, was sicher läuft .

Ansonsten:
Ein klassisches Raid 10 ist ein Stripe aus 2 x Mirror. Obiges Beispiel ist ein Stripe aus 3 Mirrors. Etwas was es bei klassischem Raid meist nicht gibt.

Mehrere Mirrors unter ZFS zu addieren, ist der übliche Weg, wenn einfache Erweiterbarkeit bei bester Performance gewünscht ist. Es dürfen dabei beliebige Platten ausfallen, jedoch nicht beide Platten eines Mirrors, sonst sind die Daten weg. Daher am Besten ein HotSpare mitplanen.

OpenIndiana vs SE 11
OpenIndiana ist OpenSource und basiert auf OpenSolaris Build 148 (die letzte freigegebene Open-Source Version von SUN/Oracle).
SE 11 ist nur für nichtkommerzielle und Demozwecke kostenlos und basiert auf (OpenSolaris) Build 151a (also etwas neuer). Es enthält zusätzlich Verschlüsselung. Beide sind vermutlich zu >98% identisch.

SE11 gilt als stable, OpenIndiana ist momentan eine Entwicklerversion. Die erste stable soll aber noch im Februar kommen. Ich denke, dass OpenIndiana das meistgenutzte ZFS-OS wird (sofern das Projekt nicht scheitert).


Gea
 
Zuletzt bearbeitet:
Irgendwelche inkompatibilitäten Controller-HDD?

Sprich, mal auf nem anderen System versuchen, oder laufen die HDDs zB unter Windows?
 
Glaub langsam, dass meine erste Platte einen Hau hat: scan: scrub repaired 0 in 2h22m with 0 errors o :(

da die Fehler auf allen 3 Platten auftreten, ist es mit ziemlicher Sicherheit kein Plattenproblem. Ich vermute eher dass das RAW device mapping nicht nur nicht offiziell unterstützt wird, sondern eventuell auch problematisch ist.

ich habe da eh ein Verständnisproblem:

1. Die Platten werden vom Sata-Treiber von ESXi angesprochen
und als Raw-Disk durchgereicht. Jetzt wird es aber spannend:

Was trifft zu:
Die Platte wird von ESXi formatiert und komplett als eine Art Disk-Datastore
als komplette Platte zur Verfügung gestellt. Darauf legt Nexenta eine ZFS-Partition an.

oder:
ESXi rührt die Platte nicht an und reicht sie komplett durch.
Sie wird "nativ" als ZFS-Platte benutzt.

Im ersten Fall hat es nicht nur eine schlechte Performance sondern auch das
Problem, dass die Plattenkontrolle durch Nexenta sehr schlecht ist, ich denke
nur an den Aufwand, den Solaris beim syncronen Schreiben treibt.
Auch kann der Pool nicht einfach an einem anderen ZFS-Rechner importiert werden.

Im zweiten Fall hat es lediglich Performance-Abstriche wegen den zwei
Abstraktionsebenen (virtualisierter Nexenta SCSi-Treiber -> ESXI-Sata-Treiber -> Disk)
Hinzu können aber Timing-Probleme kommen. (Sind die Daten tatsächlich
auf der Platte, wenn ESXi dies bestätigt oder finden hier seitens ESXi
Performanceoptimierungen statt - mit der Folge, dass Nexenta Probleme bekommt.


Wie auch immer:
Ich denke nicht, dass RDM einen optimalen Weg darstellt, um ein StorageOS
zu virtualisieren.

Zum Testen würde es sich anbieten, Nexenta direkt (auf eine kleine Bootplatte oder USB)
zu installieren bzw. eine OpenIndiana Live-CD zu booten um dann zu sehen, ob es immer
noch Plattenprobleme gibt.

Gea
 
Zuletzt bearbeitet:
Erstmal Danke für alle eure Einschätzungen!


da die Fehler auf allen 3 Platten auftreten, ist es mit ziemlicher Sicherheit kein Plattenproblem. Ich vermute eher dass das RAW device mapping nicht nur nicht offiziell unterstützt wird, sondern eventuell auch problematisch ist.
Das hoffe ich auch am ehesten :)

ESXi rührt die Platte nicht an und reicht sie komplett durch.
Sie wird "nativ" als ZFS-Platte benutzt.
Das ist der Fall als virtuelle RDM ( RDM mapping of local SATA storage for ESXi « David Warburton ). Die Platten werden 1:1 durchgereicht und nicht angerührt. D.h. man kann die Platten auch nehmen und ausbauen. (noch nicht probiert, aber so les ichs mal raus)
Ich kann auch per smartctl auf die SMART Werte zugreifen (keine Fehler).

Werde evtl. mal die ganzen SMART Tests durchlaufen lassen. Hab halt relativ viele Spinups, da es kein 24/7 Server ist.
Code:
root@fileserver:/dev# smartctl -a /dev/rdsk/c2t2d0 -d sat,12 -T permissive
smartctl 5.39.1 2010-01-28 r3054 [i386-pc-solaris2.11] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     SAMSUNG HD154UI
Serial Number:    S1XWJDWZ511284
Firmware Version: 1AG01118
User Capacity:    1,500,301,910,016 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 3b
Local Time is:    Tue Feb 15 18:00:20 2011 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Error SMART Status command failed
Please get assistance from http://smartmontools.sourceforge.net/
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                 (19034) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 255) minutes.
Conveyance self-test routine
recommended polling time:        (  33) minutes.
SCT capabilities:              (0x003f) SCT Status supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   071   071   011    Pre-fail  Always       -       9480
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       128
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   253   253   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       14023
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       682
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       0
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       127
 13 Read_Soft_Error_Rate    0x000e   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0033   100   100   000    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   073   064   000    Old_age   Always       -       27 (Lifetime Min/Max 14/27)
194 Temperature_Celsius     0x0022   070   063   000    Old_age   Always       -       30 (Lifetime Min/Max 14/31)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       8762469
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   100   100   000    Old_age   Always       -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       322         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Im zweiten Fall hat es lediglich Performance-Abstriche wegen den zwei
Abstraktionsebenen (virtualisierter Nexenta SCSi-Treiber -> ESXI-Sata-Treiber -> Disk)
Hinzu können aber Timing-Probleme kommen. (Sind die Daten tatsächlich
auf der Platte, wenn ESXi dies bestätigt oder finden hier seitens ESXi
Performanceoptimierungen statt - mit der Folge, dass Nexenta Probleme bekommt.)
Performance geht eigentlich soweit. Also Gigabit ist am Limit ;)
Timing könnte ein Problem sein ja.

Wie auch immer:
Ich denke nicht, dass RDM einen optimalen Weg darstellt, um ein StorageOS
zu virtualisieren.
Ja, werde im April den Weg über einen HBA und vt-D gehen.

Zum Testen würde es sich anbieten, Nexenta direkt (auf eine kleine Bootplatte oder USB)
zu installieren bzw. eine OpenIndiana Live-CD zu booten um dann zu sehen, ob es immer
noch Plattenprobleme gibt.
Gute Idee. Mal sehen wann ich die Zeit finde, habe noch ne alte 80er Platte rumliegen.
 
Ich bin's mal wieder :-)
Hat jemand von euch mal mit einem Win 2008r2 als Host + VMware Workstation 7.1.3 + Nexenta, OSOL, Openindia VM, am laufen gehabt? Sehr interessieren würde mich da, ob das mit dem durchmappen der Physikalischen HHD's an die ZFS VM funktioniert, um die vmdk's zu umgehen. Wichtig auch das es keine IDE-Drives sind, sonder SCSI, wegen der 4 Platten Begrenzung in VMware. Ich will halt unbeding ein Windows als Hostsystem, weil der Server 24/7 laufen soll und mit Windows immer noch der niedrigste Stromverbrauch zustande kommt.

Wenn das alles nicht funzt, muss ich wohl in sauren Apfel beißen und Gea's Konfig, mit Solaris als Host, nachbauen :-(


MfG
 
Zuletzt bearbeitet:
Ich bin's mal wieder :-)
Hat jemand von euch mal mit einem Win 2008r2 als Host + VMware Workstation 7.1.3 + Nexenta, OSOL, Openindia VM, am laufen gehabt? Sehr interessieren würde mich da, ob das mit dem durchmappen der Physikalischen HHD's an die ZFS VM funktioniert, um die vmdk's zu umgehen. Wichtig auch das es keine IDE-Drives sind, sonder SCSI, wegen der 4 Platten Begrenzung in VMware. Ich will halt unbeding ein Windows als Hostsystem, weil der Server 24/7 laufen soll und mit Windows immer noch der niedrigste Stromverbrauch zustande kommt.

Wenn das alles nicht funzt, muss ich wohl in sauren Apfel beißen und Gea's Konfig, mit Solaris als Host, nachbauen :-(


MfG

ich glaube nicht, das mit dieser Lösung weniger Energieverbrauch verbunden ist, als mit einer Lösung, die auf ESXi aufbaut. Auch verbraucht Windows + VMware Workstation bald 1 GB RAM für sich selbst, erheblich mehr als das mini-OS ESXi. Ein direkter Plattendurchgriff wird vermutlich gar nicht gehen und nur dann macht ZFS Sinn. Richtig gut funktioniert das nur mit I/O Virtualisierung vt-d und das geht nur bei ESXi und entsprechender Hardware. Auch sollte Solaris als 64 Bit installiert werden, was so nicht gehen dürfte. Auch ist Windows + VMware Workstation verglichen mit ESXi eine ziemlich schlechte Virtualisierungsumgebung.
 
Zuletzt bearbeitet:
Haha :-D

sobald endlich meine Teile hier sind teste ich mal in wie weit sich der stromverbrauch zwischen windoof, solaris, esxi unterscheidet ;-)
 
Meine Beobachtung ist, dass ESXi da nicht so geil ist. Ist aber auch vollkommen klar, ist ne abgespeckte Version des ESX und halt mal Business Software. Da zählt Performance, sonst nix...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh