[Sammelthread] ZFS Stammtisch

Ich habe hier ein Problem mit meinem ZFS Pool (ZFS on Ubuntu). Ich habe einen neuen Kernel installiert, mit welchem ZFS scheinbar nicht kompatibel war. Deswegen habe ich dann wieder einen älteren Kernel installiert (3.11.7). Jedenfalls läuft ZFS selber, allerdings sehe ich nirgendwo die pools. Mit zpool list erscheint die Meldung no pools available. Ein Import ist auch nicht möglich, da es keine Pools findet. Die Festplatten sind in /dev/disk/by-id alle sichtbar (allerdings nur ata-..., ich habe im Kopf, dass ich den Pool mit SCSI Pfad erstellt habe, kann mich aber auch täuschen).
Ich verzweifle hier langsam und hoffe, dass mir hier jemand helfen kann.

Grüsse
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Passen bei Dir noch die Ergebnisse von blkid ? Sprich passen die Partitionen? ( TYPE="zfs_member")
 
Hallo Play,

Du könntest, nach dem Ausschlussverfahren, dein System mit einer OmniOS-CD booten.
OmniOS stable

Wenn Du von dieser CD bootest, kannst Du nach Auswahl der Sprache (18 für Deutsch) in dem folgenden
Menü mit der "3" die Shell auswählen. Dort funktionieren die Befehle "zpool" und "zfs" weitestgehend gleich.
Wenn dort dein Pool angezeigt wird bzw. importiert werden kann, dann weißt Du, dass es an deinem Ubuntu Linux liegt.

Ich selbst benutze zwei raidz2 pools, erstellt mit Openindiana damals, mittlerweile mit Debian Wheezy + ZFSonLinux.
Dort habe ich den "default" Debian Kernel drin.

Edit: "init 5" entspricht dem "init 0" bei Linux. ;)

Gruß
mlampe
 
Zuletzt bearbeitet:
Danke für eure Antworten. Die Partitionen passen und werden scheinbar auch alle erkannt. Gute Idee mit dem OmniOS, ich werde das mal testen. Ich hoffe doch sehr, dass es an meinem Linux liegt.

edit: Ich habe jetzt mit OmniOS gestartet und mit zpool import wurde mir der Pool angezeigt. Ich habe allerdings bei Linux ZFS schon paar mal neu installiert, was könnte hier die Ursache sein?
 
Zuletzt bearbeitet:
Hi zusammen,

habe Napp-It in der aktuellen Version am laufen und habe ein kleines Problem mit powertop...
Habe die Suche bemüht aber nichts gefunden ...


root@Napp-it-13b:~# powertop -d 1
Segmentation Fault (core dumped)
root@Napp-it-13b:~# pstack core
core 'core' of 4923: powertop -d 1
fffffd7fff24a1db string_to_decimal (fffffd7fffdff9f8, 7fffffff, 0, fffffd7fffdf fa00, fffffd7fffdffc48, fffffd7fffdffc38) + 4b
fffffd7fff274616 strtod (0, fffffd7fffdffcb0) + 56
00000000004049e9 main () + 1d9
00000000004046ec _start () + 6c
root@Napp-it-13b:~# pmap core
core 'core' of 4923: powertop -d 1
0000000000400000 44K r-x-- /usr/bin/amd64/powertop
000000000041B000 4K rw--- /usr/bin/amd64/powertop
000000000041C000 36K rw--- [ heap ]
FFFFFD7FFBA80000 256K r-x-- /lib/amd64/libcurses.so.1
FFFFFD7FFBAC0000 24K rw--- /lib/amd64/libcurses.so.1
FFFFFD7FFBAC6000 12K rw--- /lib/amd64/libcurses.so.1
FFFFFD7FFF180000 24K rwx-- [ anon ]
FFFFFD7FFF190000 4K rwx-- [ anon ]
FFFFFD7FFF1A0000 4K rwx-- [ anon ]
FFFFFD7FFF1B0000 4K rwx-- [ anon ]
FFFFFD7FFF1C0000 1492K r-x-- /lib/amd64/libc.so.1
FFFFFD7FFF345000 40K rw--- /lib/amd64/libc.so.1
FFFFFD7FFF34F000 20K rw--- /lib/amd64/libc.so.1
FFFFFD7FFF360000 4K rwx-- [ anon ]
FFFFFD7FFF370000 4K rw--- [ anon ]
FFFFFD7FFF380000 4K rw--- [ anon ]
FFFFFD7FFF390000 4K rwx-- [ anon ]
FFFFFD7FFF398000 328K r-x-- /lib/amd64/ld.so.1
FFFFFD7FFF3FA000 12K rwx-- /lib/amd64/ld.so.1
FFFFFD7FFF3FD000 8K rwx-- /lib/amd64/ld.so.1
FFFFFD7FFFDFD000 12K rw--- [ stack ]
total 2340K

Ist das schon irgendwie ein bekanntes Problem?
Habe die AllinOne VM von Gea runtergeladen (und dann aktualisiert).
 
Das System läuft wieder, bin ich froh. Habe alles deinstalliert und auf dem Weg dahin noch das System ausversehen zerschossen und mit chroot repariert :shot: Hauptsache es läuft wieder.
 
Hallo Play,

Hat sich erledigt. Hatte den Edit-Eintrag nicht gesehen.

Freut mich dass es nun wieder läuft.

Gruß
mlampe
 
könnt ihr bitte über die config drüberschauen bevor bestellt wird?
NEU!

die vorhandende config wird aufgelöst
Openindiana 148 mit Napp-it
MSI 7380 (nforce 750)
Intel C2D 6550@2,33ghz (Sockel 775)
4GB Ram
1x SAMSUNG HD160HJ, systemplatte


NAME STATE READ WRITE CKSUM CAP Product
esxi DEGRADED 0 0 0
mirror-0 ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
c4t1d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
mirror-1 ONLINE 0 0 0
c4t7d0 ONLINE 0 0 0 500.11 GB WDC WD5000AAKS-0
c4t3d0 ONLINE 0 0 0 500.11 GB ST3500418AS
mirror-2 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0 500.11 GB ST3500418AS
c4t5d0 ONLINE 0 0 0 500.11 GB Hitachi HDS72105
logs
c2t0d0p3 UNAVAIL 0 0 0
c2t0d0p1 UNAVAIL 0 0 0
cache
c2t0d0p0 ONLINE 0 0 0 60.02 GB INTEL SSDSC2CT06
c2t0d0p2 FAULTED 0 0 0
spares
c4t6d0 AVAIL 1 TB WDC WD10EFRX-68J WD RED

es sollen 3 500gb hdds zu einem 3 way mirror und die drei wd red 1tb zu einem weiteren 3 way mirror zusammengefasst werden. die ssd möglicherweise als log device. der rest fliegt erstmal raus.
achso der plan ist ist eigentlich die 3 500ér auf dem SuMi AOC-USAS-L8i SAS laufen zu lassen als reinen datenpool. und die drei wd red am sata 6g controller vom board anzuschliessen, die ssd übrigens auch.

ist das so ok? auch von der geschwindigkeit her? oder könnte man das flinker gestalten? es soll eigentlich nicht mehr geld ausgegeben werden, ausser für einen switch, wenn das back-to-back link agr. nicht funktioniert.

edit: statt nfs soll iscsi eingestzt werden.

vielen vielen dank,
david
 
Zuletzt bearbeitet:
Hi,

also von den technischen Daten der Komponenten passt alles zusammen, ob das dann auch alles funktioniert wirst du uns dann nach Zusammenbau und Inbetriebnahme berichten ;)

Ich kann zu ASUS Serverboards nichts berichten, zumindest im Desktopbereich geniessen Sie einen guten Ruf. Ich habe ASUS aber auch dort nicht im Einsatz. Ich persönlich hätte wohl eher ein Supermicro Board gewählt, aber das wäre nur meinen persönliche Entscheidung. Rein von den technischen Daten passt das ASUS Board super, das wir uns da nicht falsch verstehen jetzt.

LG Reiner
 
Hinweis zum LSI 1064: Der Controller unterstützt keine 3TB Festplatten. Falls das später mal von Relevanz sein sollte.

Viele Grüße
 
Hey,

ich habe napp it to go über einen USB Stick "installiert" Also ein Mirror davon erstellt. Dann den USB Stick rausgezogen und nicht weiter verwendet.

Nun möchte ich gerne das der RPool auf der SSD den gesamten Speicherplatz nutzt. Wie kann ich da vorgehen? Ich habe nur finden können das autoexpand=on sein muss beim rpool. Leider bekomme ich trotzdem Meldungen das nicht genug Speicherplatz vorhanden ist.

Also ? Wie muss ich da vorgehen

root@omnios:/dev/dsk# zpool status -v
pool: rpool
state: ONLINE
scan: resilvered 7.30G in 0h5m with 0 errors on Thu Nov 14 20:48:35 2013
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c3d1s0 ONLINE 0 0 0

errors: No known data errors
 
hallo nochmal,


und wie fahre ich nochmal den all-in one sauber runter? also das omnios und den esxi zusammen, oder ging das garnicht?
danke,
david


In folgender Reihenfolge
- Sonstige VMs herunterfahren
- Storage VM herunterfahren
- ESXi herunterfahren

Wenn überall VMware Tools installiert sind:
- Startup/ Shutdown Reihenfolge in ESXi einstellen
- ESXi herunterfahren (ESXi kümmert sich um die Reihenfolge)
 
Hallo!

Ich wollte in den nächsten Tagen mal die Arbeitsspeicherverteilung meiner VMs überprüfen und ggf. optimieren und neu verteilen, da sich in letzter Zeit einiges bei mir geändert hat.

Beim groben überfliegen heute ist mir aufgefallen, dass meine Nappit VM 12 GB Speicher zugewiesen hat. Gehe ich auf Ressourcenzuteilung steht bei "belegt" auch die 12 GB, bei "aktiv" allerdings schwankt das bei mir so zwischen 1-2 GB nur. Ich dachte ZFS nutzt den freien Arbeitsspeicher komplett als Schreib-, Lesecache. Interpretiere ich das "aktiv" falsch oder wird der Speicher tatsächlich nicht richtig genutzt und ich muss etwas anders konfigurieren?

In den VM Einstellungen -> Ressourcen ->Arbeitsspeicher steht die Reservierung auf 12 GB, das hatte ich nichts extra so konfiguriert. Jetzt ist mir aufgefallen dass bei beiden VMs, bei denen ich die LSI Controller durchgereicht habe der gesamte eingestellte Arbeitsspeicher als Reservierung eingetragen wurde. Bei den anderen VMs ist das nicht so und er ist auf 0. Weiss jemand wieso das automatisch so eingetragen wird? Sollte man "gesamten Arbeitsspeicher reservieren (Alle gesperrt)" noch zusätzlich aktivieren und falls ja welche Auswirkungen hat das?

Grüße sendet das verwirrte Ich
 
Zuletzt bearbeitet:
Hinweis zum LSI 1064: Der Controller unterstützt keine 3TB Festplatten. Falls das später mal von Relevanz sein sollte.

Viele Grüße

DANKE. das wäre schon wichtig, es gibt immerhin schon eine 3tb hdd.

- - - Updated - - -

In folgender Reihenfolge
- Sonstige VMs herunterfahren
- Storage VM herunterfahren
- ESXi herunterfahren

Wenn überall VMware Tools installiert sind:
- Startup/ Shutdown Reihenfolge in ESXi einstellen
- ESXi herunterfahren (ESXi kümmert sich um die Reihenfolge)

dankeschön, das funktioniert super. jetzt brauch ich nur noch einen Controller für die Festplatten.

Übrigens meine All-In-One Whitebox mit VT-D(TEST&SPIELERECHNER&NAS)
MSI X58 Pro-E
Intel Core I7 920
Intel CT Gigabit Desktop
3x2Gb Corsair XMS2
ESXI + Openindiana-VM auf 2,5" Hdd
Test: OpenINDIANA USB STICK (sehr langsam)

btw: unterstützt omnios oder openindiana schon usb3 ?

Dankeschön,
David

falls einer einen passenden preiswerten Controller übrig hat, dann bitte bei mir melden.
 
hallo @all,

Frage:
Kann mir jemand sagen ob NAP-IT To Go mit einem HP N54L+1 Intel Nic für eine Mehrbenutzerumgebung (4-6 Clients) geeignet ist? Hat da jemand Erfahrung sammeln können?
Es geht um gleichzeitigen Zugriff auf das System.

Ich kenne das System nur in einem Singel User Umfeld und da ist die Performance sehr gut.

Gruß
 
Hi @Gea,

ich hab heute aus versehn auf Rollback geclicked. Leider weis ich jetzt nicht was passiert ist... es kam keine weitere Abfrage. Wenn ich es richtig verstehe wird der Stand der Daten auf meinen letzten Snapshot zurück gesetzt ?? Mein letzter Snapshot ist eine Woche her :-(... Ist überhaupt etwas passiert ? Finde nichts im Log...

Gruß
 
@gea:

16.11.2013 fix: UUID error message in AFP sharing

Hast du dazu Details, was das Problem verursachte und was geändert wurde, muss man die AFP Shares neu anlegen?
 
[F] SMB Freigaben im Netz lassen sich mit Win8 nicht öffnen

Ich habe im Netzwerk einen Server der mit SMB Netzwerkfreigaben erstellt. Diese werden unter Win8pro auch angezeigt, jedoch beim Klick darauf will er einen Benutzernamen und ein Passwort. Unter Win7 und Vista kann ich auf die gleichen Freigaben zugreifen ohne Eingabe von Benutzer und Passwort. Der Server läuft unter Omnios mit Napp-It und nutzt den dort integrierten SMB-Server (Win2000).
Wo hakt es hier? Die SMB Freigabe ist für everyone@... funktioniert bei den anderen Win-Versionen ja auch richtig.
Probeweise angelegte Nutzer im Server machen die Sache aber auch nicht besser. Ich könnte mir die Haare raufen.
 
@brigadeleiter
USB3 wird noch nicht unterstützt


@GuNa
wenn mehrere Clients gleichzeitig auf einer Festplatte arbeiten, kann es schon langsam werden.
Das passiert regelmäßig aber nur wenn weniger als 2 GB RAM vorhanden sind.

Ab 4GB (richtig gut sind 8-16GB) werden alle Lese und die Schreibvorgänge der letzten 5s im RAM gecacht.
In der Regel wird man gar nicht merken, dass andere auch mit dem Storage arbeiten.
(Ausnahme vielleicht, wenn alle gleichzeitig Video schauen wollen, da wäre noch mehr RAM ganz gut)

zum napp-it Menüpunkt rollback
Da kommt nur eine Info, mit welchem Befehl auf der Kommandozeile ein Rollback vorgenommen werden kann


@automatenraum
UUID war eine Funktion für netatalk v.2. Das ist mit dem aktuellen netatalk3 obsolet (netatalk2 wird nicht mehr unterstützt).
Der Aufruf von UUID war aber noch im Script und führte dann in der älteren 0.9e1 preview zu einer Fehlermeldung


@the_pi_man
Ist denn guest allowed=on gesetzt?
Die ACL everyone bedeutet ja nur dass alle authentifizierte Benutzer Zugriff haben

unter Windows7 ware es so, dass man einen Solaris User mit gleichem Passwort wie bei Windows anlegen konnte
und damit die Passwortabfrage übergehen konnte. Mit Win8 habe ich das noch nicht getestet.

Ansonsten: Probleme gibt es oft, wenn user mappings ohne Domäne gesetzt sind.
(Bei Workgroups sind die Solaris user auch die User, mit denen man sich per SMB enmeldet, ein MAPPING MACHT DANN )
 
Zuletzt bearbeitet:
@gea
Danke für Infos, werde ich heute testen. guest allowed=on habe ich testweise auch ausprobiert, aber eigentlich soll sich ja jeder Benutzer an seiner Freigabe anmelden müssen. Muss ich wohl nochmal eine Test-Session machen.
 
@gea

Vielen Dank für Deine Antwort!!
Der HP hat 8 GB und wird mit 4 HGST 7.200 U/min Festplatten ausgestattet sein und mit 2 NIC's sollte es dann zu keinen nennenswerten Engpässen dann kommen.

Gruß
 
@gea
Mein Problem war tatsächlich der Parameter guest bei der SMB-Freigabe. Merkwürdig das es beim ersten Ausprobieren nicht funktioniert hat. Hab jetzt nachträglich alles umgestellt und voilà - funktioniert! Endlich läuft mein XBMC wieder...
Nächster programmpunkt ist das nur die Benutzer auf die Ablagen zugreifen sollen, für die sie gedacht sind. Also bleibt noch etwas Frickelarbeit übrig.
 
Zuletzt bearbeitet:
ähm, kann das sein, das es gar keine unterstützung für die netzwerkkarte Intel I210AT gibt?

ESXi (All-In-One):
ESXI 5.5 with Intel Intel I217V

Illumos (seit einem Monat enthalten):
https://illumos.org/issues/4090

OmniOS:
Re: [OmniOS-discuss] i210 support in bloody
Sie ist also bereits in OmniOS bloody

Ich gehe mal davon aus, dass die nächste OmniOS stable
(November/Dezember 2013) die unterstützen wird.


OI 151.a8
meines Wissens noch nicht drin.
 
puh, dann besteht ja noch hoffnung. eigentlich sollte openindiana genutzt werden und das hatte ich auch schon probiert (151a8), genauso wie solaris 11.1 ohne erfolg. also test ich mal das omnios bloody.

danke gea.


edit: bloody funktioniert auch nicht einfach so, möglicherweise kann man die irgendwie nachinstallieren.
 
Zuletzt bearbeitet:
puh, dann besteht ja noch hoffnung. eigentlich sollte openindiana genutzt werden und das hatte ich auch schon probiert (151a8), genauso wie solaris 11.1 ohne erfolg. also test ich mal das omnios bloody.

danke gea.


edit: bloody funktioniert auch nicht einfach so, möglicherweise kann man die irgendwie nachinstallieren.

Omniti bereitet gerade die nächste stable vor.
Eventuell ist es da drin.

Ansonst ca 20 Euro für eine ältere Intel pci-e 1x Karte investieren.
 
hi
ich hab hier 4x4TB und würd gern die neu befüllen mit zfs als basis.
größtenteils sind die daten nicht unbedingt wichtig so dass redundanz zweitranging ist ggü speicherplatz.
allerdings gibt es "kerndaten" von ca 1TB die definitiv verfügbar sein müssen. auch wenn eine platte abschmiert.
wie würdet ihr das anlegen? irgendwelche tips?
 
Logo! Partitionierung aller 4 HDDs mit GPT table: part1:500GB part2:Rest

2-fach redundant für Netto 1TB:
zpool create -o ashift=12 -O compression=lz4 kerndaten raidz2 sda1 sdb1 sdc1 sdd1
..und der Rest ohne Redundanz:
zpool create -o ashift=12 -O compression=lz4 alletandere sda2 sdb2 sdc2 sdd2

..und da ich es gerade erst gemacht habe: So installiert man ZFS auf Ubuntu:

apt-add-repository ppa:zfs-native/stable
apt-get update
apt-get install ubuntu-zfs
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh