[Sammelthread] ZFS Stammtisch

Kurze Frage: Kann man einen ZIL-Cache im Nachhinein hinzufügen? Sprich Raid Z2 erstellen, mit Daten füttern (sprich produktiv) und wenn die Performance nicht passt einen dedicated ZIL Cache via z.B. mirrored SSDs hinzufügen?
Ist das möglich oder kann hier Datenverlust auftreten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein zusätzliches ZIL kann man jederzeit ohne Probleme einem Pool hinzufügen oder entfernen. Es muss auch kein Mirror sein, da bei einem Ausfall auf den ZIL Speicher auf den Pool internen ZIL zurückgeschaltet wird. Es bremst dann halt bei einem Ausfall. Auch darf bei einem ZIL-Ausfall dann nicht gleichzeitig der Rechner abstürzen sonst droht ein Datenverlust von 5s.

Aber:
Ein ZIL ist kein Cache sondern ein Log device. Es wird nur im Fehlerfall z.B. nach einem Stromausfall ausgelesen. (ZFS cached automatisch die letzten 5s Schreibvorgang - mit oder ohne extra ZIL und macht daraus einen großen sequentiellen Schreibvorgang)

Ein ZIL wird nur bei sicherem syncronen Schreiben benutzt. Da muss jeder einzelne Schreibvorgang vom ZIL bestätigt werden damit der nächste erfolgen kann. Für einen normalen Filer ist es also nicht notwendig. Wichtig ist es bei Datenbanken oder sehr großen Files z.B. VMs bei ESXi und NFS.

Ein ZIL muss extrem schnell sein und geringste Latenzen haben. Mit einer alten SSD als ZIL ist es langsamer als ohne ZIL
 
Zuletzt bearbeitet:
Danke, System wird ein Home-ESXi (napp-it all-in-one ;)), von daher werdens wohl auch SSD(s) ... wollte nur vorher nachsehen ob es bezügl. Performance überhaupt notwendig ist und dann werden wohl schon Daten drauf sein.
 
Was ist eigentlich der aktuelle Stand zu TRIM mit SDDs bei Mirrors/Stripes/RaidZ/ZIL/L2ARC unter den Solaris-Varianten? Wo werden die Discard-Befehle durch gereicht, wo nicht? Ja ich weiß, Enterprise-SSDs haben mehr Overprovisioning so dass TRIM nicht ganz so wild ist, sie laufen damit aber trotzdem schneller und besonders für alle Consumer-SSDs ist es sehr interessant.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@pfaelzer Lies nochmal meinen Beitrag, zweite Zeile

Hat danach ohne Probleme funktioniert.
Jetzt habe ich das ganze auch einmal getestet.

1. USB-Stick drin, auf dem das Ganze zu Beginn installiert wurde
2. USB-Stick raus (neue)
System fährt hoch und funktioniert

1. USB-Stick raus, auf dem das Ganze zu Beginn installiert wurde
2. USB.Stick drin (neue)
Beim Booten beklomme ich die Info "Bad PBR sig". Was könnte denn hier das Problem sein?

EDIT:
ich habe gemerkt, das ich mit der "RETURN" Taste weiter komme. Allerdings, wenn nur der 2. USB-Stick drin ist findet er wohl keinen Bootloader.
Wenn ich wieder beide Sticks drin habe kommt nun IMMER dieser "Bad PBR sig" Fehler, denn ich mit "RETURN" weiter klicken muss.

Also irgendwas muss da wohl noch nicht ordentlich funktionieren.
 
Zuletzt bearbeitet:
Hallo,

wenn ich snapraid 5.2 unter OmniOS 5.11 (VM, ESXI 5.5, via Nappit, OmniOS 6de5e81) starte, so bricht snapraid mit folgendem Fehler ab:

root@Nappit:~# /usr/local/bin/snapraid sync
Self test...
Loading state from /rpool/content...
Scanning disk d01...
Scanning disk d02...
Low Memory

Die VM hat 23552 MB Ram zur Verfügung, kein Limit bez. CPU - ESXI 5.5 läuft auf einem Xeon E3-1245 mit 32 GB ECC-RAM
Snapraid 5.0 konnte ich erfolgreich testen, allerdings waren da noch fast keine Daten am Server ...

Irgendeine Idee warum zu wenig Speicher vorhanden sein soll bzw. was da falsch laufen könnte bzw. was ich kontrollieren könnte, um dem Fehler auf die Spur zu kommen?

Danke - Bertl

snapraid.conf:

# Example configuration for snapraid

# Defines the file to use as Parity storage
# It must NOT be in a data disk
# Format: "parity FILE_PATH"
parity /srp01/p01/parity

# Defines the file to use as Q-Parity storage
# If specified, it enables a double failures protection like RAID6
# It must NOT be in a data disk
# Format: "q-parity FILE_PATH"
2-parity /srp02/p02/2-parity
3-parity /srp11/p11/3-parity
4-parity /srp12/p12/4-parity

# Defines the files to use as content list
# You can use multiple specification to store more copies
# You must have least one copy for each parity file plus one. Some more don't hurt
# They can be in the disks used for data, parity or boot,
# but each file must be in a different disk
# Format: "content FILE_PATH"
content /rpool/content
content /srp01/p01/content
content /srp02/p02/content
content /srp11/p11/content
content /srp12/p12/content

# Defines the data disks to use
# The order is relevant for parity, do not change it
# Format: "disk DISK_NAME DISK_MOUNT_POINT"
disk d01 /srd01/d01/
disk d02 /srd02/d02/
disk d03 /srd03/d03/
disk d04 /srd04/d04/
disk d05 /srd05/d05/
disk d06 /srd06/d06/
disk d07 /srd07/d07/
disk d08 /srd08/d08/
disk d11 /srd11/d11/
disk d12 /srd12/d12/
disk d13 /srd13/d13/
disk d14 /srd14/d14/
disk d17 /srd17/d17/
disk d18 /srd18/d18/

# Excludes hidden files and directories (uncomment to enable).
# nohidden

# Defines files and directories to exclude
# Remember that all the paths are relative at the mount points
# Format: "exclude FILE"
# Format: "exclude DIR/"
# Format: "exclude /PATH/FILE"
# Format: "exclude /PATH/DIR/"
exclude *.bak
exclude *.unrecoverable
exclude /tmp/
exclude /lost+found/
exclude /unprotected/

# Defines the block size in kibi bytes (1024 bytes).
# Default value is 256 -> 256 kibi bytes -> 262144 bytes
# Format: "block_size SIZE_IN_KiB"
block_size 256

# Automatically save the state when synching after the specied amount
# of GiB processed.
# This option is useful to avoid to restart from scratch long 'sync'
# commands interrupted by a machine crash.
# The SIZE argument is specified in gibi bytes -> 1073741824 bytes
# Default value is 0, meaning disabled.
# Format: "autosave_size SIZE_IN_GiB"
autosave 500

snapraid status:

root@Nappit:~# /usr/local/bin/snapraid status
Self test...
Loading state from /rpool/content...
Using 3256 MiB of memory.

Files: 510524
Fragmented files: 0
Excess fragments: 0
Files size: 28106 GiB
Parity size: 3494 GiB

96% *
*
*
*
*
*
*
48% *
*
*
*
*
*
*
0% *____________________________________________________________________+
69 days ago of the last scrub 69

The oldest block was scrubbed 69 days ago, the median 69, the newest 69.

WARNING! The array is NOT fully synched.
You have a sync in progress at 0%.
No rehash is in progress or needed.
No silent error detected.
 
root@Nappit:~# ulimit -a
core file size (blocks, -c) unlimited
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
open files (-n) 256
pipe size (512 bytes, -p) 10
stack size (kbytes, -s) 10240
cpu time (seconds, -t) unlimited
max user processes (-u) 29995
virtual memory (kbytes, -v) unlimited

root@Nappit:~# vmstat 5 10
kthr memory page disk faults cpu
r b w swap free re mf pi po fr de sr f0 ro s0 s1 in sy cs us sy id
0 0 0 23200884 22419640 65 569 0 0 0 0 113 -0 1 1 -0 668 4174 537 1 0 99
0 0 0 23151676 22368552 36 158 0 0 0 0 0 0 0 0 0 588 3779 569 1 0 99
0 0 0 23151676 22368556 53 371 0 0 0 0 0 0 0 0 0 641 3542 401 1 0 99
0 0 0 23151676 22368584 84 257 0 0 0 0 0 0 0 0 0 706 4176 473 1 0 99
0 0 0 23151676 22368600 44 222 0 0 0 0 0 0 0 0 0 681 3452 436 1 0 99
0 0 0 23151676 22368600 30 149 0 0 0 0 0 0 0 0 0 636 3755 592 1 0 99
0 0 0 23151676 22368600 44 223 0 0 0 0 0 0 0 0 0 630 3411 408 1 0 99
0 0 0 23151676 22368600 30 150 0 0 0 0 0 0 0 0 0 642 3459 437 1 0 99
0 0 0 23151672 22368596 53 371 0 0 0 0 0 0 0 0 0 640 3593 418 1 0 99
0 0 0 23151672 22368584 84 256 0 0 0 0 0 0 0 0 0 692 4004 418 1 0 99


lg Bertl
 
Zuletzt bearbeitet:
Woher stammt das binary? Ist das evtl. nur 32bit?

Versuch mal "file /usr/local/bin/snapraid".
 
Hallo,

ich habe gerade testweise auf snapraid 5.0 downgegraded: snapraid sync funktioniert wieder -> dürfte ein Problem mit snapraid 5.2 sein.

Werde das hier weiterverfolgen:
https://sourceforge.net/p/snapraid/discussion/1677233/thread/fb179e1b/

lg Bertl

PS: habe snapraid selbst installiert mit:
wget http://sourceforge.net/projects/snapraid/files/snapraid-5.2.tar.gz
tar xzvf snapraid-5.2.tar.gz
cd snapraid-5.2
./configure
make
make check
make install

root@Nappit:~# file /usr/local/bin/snapraid
/usr/local/bin/snapraid: ELF 32-bit LSB executable 80386 Version 1, dynamically linked, not stripped

-> ist das ein Problem? (Ausgabe von file oben f. snapraid-5.0.tar.gz)
 
Zuletzt bearbeitet:
Na ich würde es mal direkt auf das 32bit binary schieben. Bau doch mal ein 64bit binary.
 
Bei Solaris ist ZFS das originäre Dateisystem. Wenn man also die Platte zum Backup in OmniOS nutzen möchte, dann auf dieser Platte einen ZFS Pool anlegen und den Mirror darauf sichern (per Replication oder rsync). Anschließen den Pool exportieren und Platte entfernen. Für das nächste Backup Pool importieren und erneut sichern.

Hauptvorteil: ZFS Sicherheit (Prüfsummen), LZ4 Komprimierung und Snapshots (vorherige Versionen)
Die Platte kann man man im laufenden Betrieb in einem Wechselrahmen ein/ausstecken (M1015 ist hotplugfähig).


Alternative:
Platte in einem USB Gehäuse einbauen und am PC anschließen und NTFS formatieren.
Dann Daten von einem OmniOS SMB share auf diese Platte syncronisieren (Ich würde robocopy nehmen, ist bei Windows dabei und kopiert nur geänderte Dateien/ syncronisiert den Inhalt zweier Ordner).

Hallo, ich möchte nochmal auf dein Vorschlag eingehen.
Ich habe nun im ML310e die M1015 an Napp-it im ESXi durchgereicht. 2x3TB im Mirror und einem Pool (NAS). Des Weiteren habe ich 2x1TB mit je einem Pool (Backup1/Backup2).
Ob ich letztendlich 2 Festplatten für das Backup nehme weiß ich noch nicht. Hab es jetzt erst einmal so angelegt.
Nun habe ich die Aufgabe "replicate" gefunden.
Eine Frage vorweg. Ist dies eine kostenlose Funktion? Oder nur in den 30 Tagen freigeschaltet?
Mit dieser Option kann ich nun ZFS Dateisysteme/Pools auf einen anderen Pool sichern.
Was ich jetzt noch nicht so richtig verstehe ist das mit den Snapshots etc. Und was für Optionen es alles gibt.
Ich habe nun beide Optionen ausprobiert. Dazu eine Datei erstellt (*.txt) und dann immer mal wieder etwas am Inhalt geändert. Danach das Backup manuell gestartet. Die Änderungen wurden übernommen, aber wie komme ich an die vergangen Versionen? Gibt es zu dem Thema deutsche Infos? Mit Englisch tu ich mir etwas schwer.
 
Nun habe ich die Aufgabe "replicate" gefunden.
Eine Frage vorweg. Ist dies eine kostenlose Funktion? Oder nur in den 30 Tagen freigeschaltet?
Mit dieser Option kann ich nun ZFS Dateisysteme/Pools auf einen anderen Pool sichern.
Was ich jetzt noch nicht so richtig verstehe ist das mit den Snapshots etc. Und was für Optionen es alles gibt.
Ich habe nun beide Optionen ausprobiert. Dazu eine Datei erstellt (*.txt) und dann immer mal wieder etwas am Inhalt geändert. Danach das Backup manuell gestartet. Die Änderungen wurden übernommen, aber wie komme ich an die vergangen Versionen? Gibt es zu dem Thema deutsche Infos? Mit Englisch tu ich mir etwas schwer.

Replicate
ist kostenlos in napp-it für manuelle lokale Replikationen, kostet aber als highspeed Option übers Netzwerk. Alternativ gibt es aber CLI Kommandos oder kostenlose Scripts.

Replikationen sind 1:1 Kopien eines Dateisystems. Es arbeitet inkrementell mit snapshots. Bei Änderungen werden also nur geänderte Datenblöcke übertragen.

Bei der Erstellung einer Replikationsaufgabe kann man über keep (bezieht sich auf die Snap-Nummer) oder hold (Anzahl von Tagen) die Anzahl der Snaps einstellen. An die snaps kommt man entweder über das Dateisystem im Ordner /pool/dateisystem/.zfs/snapshots oder über eine SMB Freigabe und "vorherige Version"

Deutsch..
Ich habe erst mit napp-it meine Englischkenntnisse wieder aufgefrischt und biete nun napp-it primär in Englisch an. Die Ursache: In Deutschland nimmt jeder der Geld hat und was Gutes will netapp. Die anderen was teures von Dell oder HP - Hauptsache es gibt zwei Stunden Reaktionszeit. Ich habe zwar auch hier Nutzer bei Großbetrieben oder Universitäten. Das ist aber mit USA was ganz anderes. Da sind 90% meiner Nutzer auch bei größeren Firmen, Universitäten oder staatlichen Behörden (nein nicht NSA).

Nur als Beispiel. Im führenden US IT-Forum SSDs & Data Storage - [H]ard|Forum hat mein Thread demnächst 1 Million hits und ist mit riesigem Abstand Nr1. Dort gilt: Ohne ZFS - war da noch was???

Hier ist die häufigste Frage nicht wie schnell oder wie sicher sondern geht es noch billiger oder mit 2 Watt weniger was ja auch nur billiger bedeutet weil ja das mit Nachhaltigkeit nicht verwechselt werden darf.

Hier in D bedeutet das entweder etwas Englisch lernen oder hier fragen. Dieses Forum ist das einzig wirklich relevante deutsche ZFS Forum (Kunststück, es gibt kaum was anderes).
 
Zuletzt bearbeitet:
Ja da lese ich auch öfters mal aber dort gibt schon heftige Beispiele wenn ich da 150TB und mehr zuhause lese :)

Wir haben in der Firma mit 550 User gerade mal Netapp Metrocluster mit ca 24 TB Storage :) und davon sind nur 3,5 TB Cifs Daten der rest VMs incl Snapshots.

Ich bin gerade am überlegen mir meinen N40L von WHS 2011 auf ZFS oder alternativen (noch nicht sicher welches Produkt) umzustellen und dort meine Privaten Daten (max 2TB) und Ablage für ISOs sowie vielleicht auch paar VMs abzulegen da ich meinen ML310e öfters Platt mache für verschiedene Tests (ESXi,Hyper-V usw).

Die Frage ist ist es sinnvoll mit Mirrors (raid10) zu arbeiten oder würde man über das LAN eh kein großer Unterschied zwischen Mirror und Raidz merken ?

Welche Platten würdet ihr empfehlen habe hier im Moment nur ältere SATAII Platten und bin mir nicht sicher ob ich mir wirklich gleich 4x4TB Platten holen soll.
 
Hallo gea,
danke für die ganze Infos! Find es ja sehr interessant und ne klasse OS, sofern ich das jetzt schon beurteilen kann.

So wie ich das lesen, werden aber keine automatisiere Aufgaben unterstützt, oder? Habe das mal mit snap und replicate getestet und leider geht das erst nach manuellem Start los.

.... Muss ich mich doch mal wieder um das Englisch kümmern :d.
 
Ist es empfehlenswert 2 externe USB Platten an den MicroServer anzuschließen und zu betreiben? (OmniOS) Oder gibt es da irgendwelche bedenken wegen der Datensicherheit?
 
Kannst du ruhig machen solange es ordentliche Festplatten mit vernünftigen Gehäusen sind die im Dauerbetrieb nicht zu warm werden oder ein internes Raid oder so ein Murks haben, warum nicht.
Vergiss aber nicht dass USB2.0 nur ca. 35MB/s macht und daher die Performance nicht wirklich optimal ist. Außerdem solltest du die über USB angeschlossenen Festplatten nicht zusammen mit den über SATA angeschlossenen Festplatten zusammen in ein Raid packen aufgrund der stark unterschiedlichen Datenübertragungsraten.
 
Zuletzt bearbeitet:
Die Sache ist die dass mein Vater ebenfalls ein NAS möchte. Eine Option wäre halt das ganze in mein bestehendes NAS zu integrieren. Durch 2 gespiegelte USB Festplatten hätte man so eine gewisse Trennung. Die Alternative wäre die 3 "Haupt"HDDs (a 3TB) gegen welche mit 4TB auszutauschen.

Ich weiß noch nicht was sinnvoller ist. Besser nutzen ließe sich der Platz natürlich wenn man nur einen großen Pool hätte

Wieweit ist man mittlerweile eigentlich mit OwnCloud bei OmniOS? Läuft das schon zuverlässig
 
Zuletzt bearbeitet:
Du kannst zur Trennung auch einfach ein extra Dateisystem für deinen Vater anlegen, zfs create meinpool/daddy, da brauch es keiner exta Pools oder Festplatten. Den DVD-Laufwerk-Anschluss kannst du auch zum Anschluss einer Festplatte nutzen indem du einen Wechselrahmen einbaust, siehe http://www.hardwareluxx.de/community/f101/hp-proliant-n36l-n40l-n54l-microserver-752079.html.

ownCloud an sich läuft leider immer noch nicht wirklich zuverlässig und ist auch recht unsicher, installieren kannst du es natürlich, warum nicht.
 
Zuletzt bearbeitet:
ja das mit dem dateisystem weiß ich, die überlegung war nur eine physische Trennung der Daten zu haben.

Also ist owncloud noch nicht produktiv einsetzbar? Würde gern auch per Android und iOS auf die Daten drauf zugreifen können (Dokumente, Bilder etc). Aber wenn ich es installier dann will ich es auch nutzen können ohne Zahnschmerzen.

Bin son bisschen auch am überlegen ob ich nicht was komplett eigenständiges kaufe, etwas das ohne große Kenntnisse zu benutzen und zu warten ist, OmniOS erfordert ja doch eine gewisse Einarbeitung.
 
Zuletzt bearbeitet:
Was soll die physische Trennung der Daten für Vorteile haben? Mir erschließt sich der Sinn nicht ganz, das bringt auch aus Sicherheitsgründen keinen Vorteil.
Wenn du irgendwann mal ausziehst sendest du auf das neue Gerät einfach den aktuellen ZFS Snapshot und löschst die alten Daten, geht doch ganz einfach.

Also ist owncloud noch nicht produktiv einsetzbar? Würde gern auch per Android und iOS auf die Daten drauf zugreifen können (Dokumente, Bilder etc)
Im Produktiveinsatz im Unternehmen auf gar keinen Fall, für zu Hause, okay, vielleicht denkbar. Aber mach dich auf viel Wartungsaufwand gefasst. Es gab in der Vergangenheit immer mal wieder Bugs und Updates die zum Datenbankverlust oder Datenverlust führten, mal ganz davon abgesehen von den vielen Sicherheitslücken von denen auch noch nicht alle geschlossen worden sind. Ich habe meine ownCloud-Installation daher wieder verworfen.
Siehe dazu hier:
Du suchst Alternativen für OwnCloud? Hier findest du sie! - Kovah.de Blog (April 2013)
Alternativen zu OwnCloud - Eine Übersicht - Kovah.de Blog (November 2013).
Ist aber auch etwas OT hier, möchte nicht zu sehr hier drin abdriften, für mehr machst du am besten einen separaten Thread auf.
 
Zuletzt bearbeitet:
Was soll die physische Trennung der Daten für Vorteile haben? Mir erschließt sich der Sinn nicht ganz, das bringt auch aus Sicherheitsgründen kann Vorteil.
Wenn du irgendwann mal ausziehst sendest du auf das neue Gerät einfach den aktuellen ZFS Snapshot und löschst die alten Daten, geht doch ganz einfach.
Ja okay dann müsste ich nur 3 3TB Verkaufen und mir 3 4TB dafür anschaffen. 2x 1TB oder 2TB kaufen als mirror ist sicherlich auch nciht viel billiger letztendlich. 4 HDDs im RaidZ1 kann ich ja nur machen wenn ich den Pool neu erstelle
 
Ich würde gerne meine ZFS-Bootdisk auf einem ESXi datastore mirroren, leider bekomme ich (via napp-it) immer denselben Fehler, egal was ich tue.

Config des Systems:

ESXi auf USB Stick
- datastore1: napp-it VM mit main disk (physikalisch SSD 1) und zweiter disk (eingebunden aus datastore2)
- datastore2: idente VM mit zweiter, gleich großen disk (physikalisch SSD 2) und der main disk (eingebunden aus datastore1)

Gestartet wird napp-it von der VM aus datastore1 (vorerst), aber wenn ich die Disk auf die zweite mirroren will ...
Code:
fdisk -B c2t1d0p0

ok



prtvtoc /dev/rdsk/c2t0d0s0 | fmthard -s - /dev/rdsk/c2t1d0s0

Partition 0 not aligned on cylinder boundary: "       0      2    00      16065  62846280  62862344"



zpool attach -f rpool c2t0d0s0 c2t1d0s0

cannot open '/dev/dsk/c2t1d0s0': I/O error



installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c2t1d0s0

stage2 written to partition 0, 283 sectors starting at 50 (abs 12594)
stage1 written to partition 0 sector 0 (abs 12544)



Please check poolstate (resilvering).
:shake:
 
@gea: wie updated man AMPO von der alten Version auf die aktuelle (unter OmniOS aktuelle Version)? Einfach den Installer aufrufen (wget -O - www.napp-it.org/ampo04 | perl) oder lässt das Altlasten im System?
 
Zuletzt bearbeitet:
Antwort Radio Eriwan:
Ja, im Prinzip Installer nochmal laufen lassen - aber

- ampo ist ein Community Projekt
- ampo 04 wurde mir gestern von zos (a German Guy) gemailt - schaut eventuell auch hier vorbei-
siehe auch Owncloud for OmniOS

- wer ampo04 als erster updated, darf als erster von allen Fehlern berichten oder Erfolg vermelden.
Eine Betaphase gibt es nicht. Wenn eine Zeitlang niemand meckert wird aus ampo04 der default ampo Installer.

ansonsten gibt es ja boot-environments um auf die alte Version zu gehen.
 
Update zum Problem von vorhin:

Wenn ich EXAKT (sprich gleiche geometry) dieselbe Disk aus der napp-it VM verwende (via VMWare gecloned, damit sich die UUID ändert) - hab sie mittlerweile auch via dd zeroed - für den Mirror bekomme ich die folgende Fehlermeldung:

Code:
fdisk -B c2t1d0p0

ok



prtvtoc /dev/rdsk/c2t0d0s0 | fmthard -s - /dev/rdsk/c2t1d0s0

fmthard: Partition 2 specifies the full disk and is not equal
full size of disk.  The full disk capacity is 62862345 sectors.
fmthard: Partition 2 specified as 62894475 sectors starting at 0
	does not fit. The full disk contains 62862345 sectors.
fmthard:  New volume table of contents now in place.



zpool attach -f rpool c2t0d0s0 c2t1d0s0

invalid vdev specification
the following errors must be manually repaired:
/dev/dsk/c2t1d0s0 is part of active ZFS pool rpool. Please see zpool(1M).



installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c2t1d0s0

stage2 written to partition 0, 283 sectors starting at 50 (abs 16115)
stage1 written to partition 0 sector 0 (abs 16065)



Please check poolstate (resilvering).

What the fu..? Ich versteh's einfach nicht ... will die disk einfach nicht gemirrored werden oder was zur Hölle ist da los? :mad:
 
Die häufigsten Probleme wenn man versucht die Bootdisk vom OmniOS od OI zu spiegeln sind:

Ich würde folgendes versuchen:

- zweite Platte (minimal) zu klein:
Eine neue virtuelle Platte anlege (nicht alte klonen).

- Platten sind unterschiedlich z.B. zweite Platte ist 4k; erste Platte ist 512B
Wenn möglich eine zweite virtuelle Platte auf dem ersten datastore anlegen
 
Na ich würde es mal direkt auf das 32bit binary schieben. Bau doch mal ein 64bit binary.

Hallo,

mein Problem hat sich praktisch von selbst gelöst - ich hab' Version 5.1 installiert - funktioniert - dann testweise nochmals 5.2 & siehe da, keine Fehlermeldung mehr -> ev. wurde der Fehler durch das OmniOS-Update doch behoben ... (5.2 installiert -> Fehler - Update OmniOS -> immer noch Snapraid-Fehler -> 5.0 installiert OK -> 5.1 installiert OK -> 5.2 neu kompiliert OK)

Eines würde mich trotzdem interessieren: genügen für ein 64bit binary lediglich zusätzliche Parameter beim Kompilieren oder müssen auch die Scripts angepasst werden? (hab' gestern über 1h danach gegoogelt, aber nichts Verwendbares gefunden -> wenn da Preface - Solaris 64-bit Developer's Guide die Lösung dafür versteckt ist, dann düfte es schon recht aufwendig für einen Test sein, vor allem für einen Unix-Anfänger wie mich ;-)

lg Bertl
 
Wenn ich eine komplett frische virtuelle disk mit z.B. 32 GB erstelle (napp-it disk hat 30) bekomme ich trotzdem denselben Fehler (Partition 0 not aligned on cylinder boundary und I/O error von zpool)?

Die zweite Disk auf den ersten Datastore zu legen macht ja keinen Sinn, weil es ja ein Mirror werden sollte - für den Fall dass Disk 1 defekt wird.

Beide datastores liegen auf quasi identischen disks (beides Intel X-25M Postville 160 GB SSDs), datastore wurde gleich angelegt.
Ich verstehe nicht wirklich was hier das Problem ist?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh