[Sammelthread] ZFS Stammtisch

Würdet ihr ZFS produktiv einsetzen, und wenn ja unter welchen Randbedingungen.
Überlege im moment einen Filer auf Nexenta store basis zu kaufen, da mir die ZFS features ganz gut gefallen, aber ich den ZFS Linux implementierungen nicht ganz über den Weg traue.
Support ist mir auch ganz lieb, da ich nicht endlos Zeit investieren kann um Probleme an einem Storage System zu lösen und da ich bisher kaum praktische Erfahrung mit ZFS habe.
Soll über NFS ca. 60 Rechner in einem Schulungsraum mit home-Verzeichnissen versorgen. Evtl. wird auch zentral installierte Software auf einem NFS share abgelegt.
Verspreche mir gerade von read caches eine Menge, da bei Veranstaltungen teilweise von allen Rechnern aus mit den gleichen Daten gearbeitet wird. Es kommt auch vor, dass zu beginn einer Veranstaltung zentral hinterlegte Daten auf alle home-verzeichnisse kopiert werden. Ist natürlich schön, wenn bei 90min. Schulung das Kopieren wenig Zeit in Anspruch nimmt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mirror / Striped Pool

Hallo zusammen,

bin neu im ZFS Bereich und habe eine kurze Frage:

Zum Testen habe ich eine VM aufgesetzt (Nexentastor Community Edition). Später im Live-Betrieb soll ein ZFS Pool erstellt werden aus 4 Festplatten (2x Striped und das ganze als Mirror a la Raid10)

Ich habe einen Test Pool angelegt mit 2 Festplatte -> Redunancy None.
Danach habe ich im Pool jeder Festplatte über "attach new disk" eine 2te hinzugefügt.

Ist die Konfiguration so richtig ? Anbei noch ein Screenshot.

Vielen Dank.

Gruß Snap

Unbenannt.JPG
 
Hallo zusammen,

bin neu im ZFS Bereich und habe eine kurze Frage:

Zum Testen habe ich eine VM aufgesetzt (Nexentastor Community Edition). Später im Live-Betrieb soll ein ZFS Pool erstellt werden aus 4 Festplatten (2x Striped und das ganze als Mirror a la Raid10)

Ich habe einen Test Pool angelegt mit 2 Festplatte -> Redunancy None.
Danach habe ich im Pool jeder Festplatte über "attach new disk" eine 2te hinzugefügt.

Ist die Konfiguration so richtig ? Anbei noch ein Screenshot.

Vielen Dank.

Gruß Snap

Anhang anzeigen 229508

Naja, eigentlich ist es "hintenrum". Ein Pool besteht aus gestripten vdevs. Normal würde man einfach 2 RAID1-vdevs in einen Pool packen.
 
Kann mir jemand sagen, ob man unter omnios einen Printserver (z.B. CUPS) zum laufen bekommt?
Suche schon eine Weile im Internet, aber habe bis jetzt nichts passendes gefunden.
 
Kann mir jemand sagen, ob man unter omnios einen Printserver (z.B. CUPS) zum laufen bekommt?
Suche schon eine Weile im Internet, aber habe bis jetzt nichts passendes gefunden.

Sieht so aus, dass Cups entfernt wurde
(OmniOS=Minimales Storage OS)

ReleaseNotes
-> r151002f

---------- Post added at 17:39 ---------- Previous post was at 17:23 ----------

Würdet ihr ZFS produktiv einsetzen, und wenn ja unter welchen Randbedingungen.
Überlege im moment einen Filer auf Nexenta store basis zu kaufen, da mir die ZFS features ganz gut gefallen, aber ich den ZFS Linux implementierungen nicht ganz über den Weg traue.
Support ist mir auch ganz lieb, da ich nicht endlos Zeit investieren kann um Probleme an einem Storage System zu lösen und da ich bisher kaum praktische Erfahrung mit ZFS habe.
Soll über NFS ca. 60 Rechner in einem Schulungsraum mit home-Verzeichnissen versorgen. Evtl. wird auch zentral installierte Software auf einem NFS share abgelegt.
Verspreche mir gerade von read caches eine Menge, da bei Veranstaltungen teilweise von allen Rechnern aus mit den gleichen Daten gearbeitet wird. Es kommt auch vor, dass zu beginn einer Veranstaltung zentral hinterlegte Daten auf alle home-verzeichnisse kopiert werden. Ist natürlich schön, wenn bei 90min. Schulung das Kopieren wenig Zeit in Anspruch nimmt.

nur ein paar Anregungen:
Mit Support-Option gibt es Solaris basierte (stable, nicht beta) ZFS Betriebssysteme von
- NexentaStor
- OmniOS
- Oracle

NexentaStor wird meist zusammen mit zertifizierter Hardware vertrieben
Oracle hat eigene Hardware
OmniOS is nur Software. Läuft aber auf der gleichen Hardware wie Nexenta (fast immer SuperMicro Systeme)
Von diesen drei Optionen ist OmniOS die einzige Option, die auch kostenfrei kommerziell genutzt werden kann

Ohne viel Vorerfahrung würde ich immer eine Appliance nehmen (Konfiguration über Web-UI),
das gibt es bei Nexentastor oder als napp-it appliance für die beiden anderen.

Eine gute Anlaufstelle sind neben Oracle die Händler, die sich auf SuperMicro oder NexentaStor spezialisiert haben
(Google z.B. Nexentastor Shop oder SuperMicro shop). Die liefern auch Storage Hardware ohne OS.
Auf jeden Fall einen "soliden" Distributor wählen
 
Sieht so aus, dass Cups entfernt wurde
(OmniOS=Minimales Storage OS)

ReleaseNotes
-> r151002f

Finde OmniOS super interessant, aber nutze eben den CUPS von Openindiana, die Funktionalität brauche ich einfach. Hat sich da schon jemand was gebastelt?
bzw: Kann ich nicht einfach das Repo von Openindiana hinzufügen und das von dort aus installieren?
 
Zitat von Snap
Hallo zusammen,

bin neu im ZFS Bereich und habe eine kurze Frage:

Zum Testen habe ich eine VM aufgesetzt (Nexentastor Community Edition). Später im Live-Betrieb soll ein ZFS Pool erstellt werden aus 4 Festplatten (2x Striped und das ganze als Mirror a la Raid10)

Ich habe einen Test Pool angelegt mit 2 Festplatte -> Redunancy None.
Danach habe ich im Pool jeder Festplatte über "attach new disk" eine 2te hinzugefügt.

Ist die Konfiguration so richtig ? Anbei noch ein Screenshot.

Vielen Dank.

Gruß Snap

Anhang 229508
Naja, eigentlich ist es "hintenrum". Ein Pool besteht aus gestripten vdevs. Normal würde man einfach 2 RAID1-vdevs in einen Pool packen.

Bedeutet was? hintenrum = falsch, schlecht oder einfach nur anders :)

Mir geht es vor allem um die Ausfallsicherheit / Performance.

Danke im voraus!

Gruß
 
Bedeutet was? hintenrum = falsch, schlecht oder einfach nur anders :)

Es kommt das Gleiche raus, ist aber von hinten durch die Brust ins Auge. Im Endeffekt hast du jetzt das richtige Ergebnis.

zpool create foo mirror disk1 disk2 mirror disk3 disk4 oder zpool create foo mirror disk1 disk2; zpool add foo mirror disk3 disk4 wäre der "normale" Weg.
 
nur ein paar Anregungen:
Mit Support-Option gibt es Solaris basierte (stable, nicht beta) ZFS Betriebssysteme von
- NexentaStor
- OmniOS
- Oracle

NexentaStor wird meist zusammen mit zertifizierter Hardware vertrieben
Oracle hat eigene Hardware
OmniOS is nur Software. Läuft aber auf der gleichen Hardware wie Nexenta (fast immer SuperMicro Systeme)
Von diesen drei Optionen ist OmniOS die einzige Option, die auch kostenfrei kommerziell genutzt werden kann

Ohne viel Vorerfahrung würde ich immer eine Appliance nehmen (Konfiguration über Web-UI),
das gibt es bei Nexentastor oder als napp-it appliance für die beiden anderen.

Eine gute Anlaufstelle sind neben Oracle die Händler, die sich auf SuperMicro oder NexentaStor spezialisiert haben
(Google z.B. Nexentastor Shop oder SuperMicro shop). Die liefern auch Storage Hardware ohne OS.
Auf jeden Fall einen "soliden" Distributor wählen

Danke für die Antwort, Nexenta hat auf den eigenen Webseiten in einigen Referenz-Systemen Dell Hardware verbaut. Die Dell Geräte finden sich auch in den Kompatiblitätslisten. Da ich bei Dell ganz gute Konditionen bekomme wäre das schon interessant. Leider habe ich gestern niemanden bei nexenta erreicht, der mir mal klar definieren kann, wo der support anfängt und wo er aufhört.
Bzw. wo ich mit dem Dell support wieder meine Reibereien haben könnte, hatte mal Storage von denen, bevor die sich mal wirklich mit Problemen beschäftigen kann ich wieder gefühlte 23 Firmware updates einspielen (ganz toll wenn es nur einen älteren nexenta zertifizierten stand geben sollte) , die mit dem Problem nix zu tun haben, während mir die Anwender im Nacken sitzen. Aus dem Blickwinkel würde ich Nexenta Software+Hardware bei einem Ansprechpartner kaufen.
Vorteil von den Dell Kisten ist auch, dass ich davon nahezu baugleiche Systeme als ESX-server verwende und bei Hardwareproblemen ersatzteile greifbar hätte.
Supermicro baut zwar auch schöne Hardware, aber eher im HPC bereich, als für Storage Systeme.
 
Danke für die Antwort, Nexenta hat auf den eigenen Webseiten in einigen Referenz-Systemen Dell Hardware verbaut. Die Dell Geräte finden sich auch in den Kompatiblitätslisten. Da ich bei Dell ganz gute Konditionen bekomme wäre das schon interessant. Leider habe ich gestern niemanden bei nexenta erreicht, der mir mal klar definieren kann, wo der support anfängt und wo er aufhört.
Bzw. wo ich mit dem Dell support wieder meine Reibereien haben könnte, hatte mal Storage von denen, bevor die sich mal wirklich mit Problemen beschäftigen kann ich wieder gefühlte 23 Firmware updates einspielen (ganz toll wenn es nur einen älteren nexenta zertifizierten stand geben sollte) , die mit dem Problem nix zu tun haben, während mir die Anwender im Nacken sitzen. Aus dem Blickwinkel würde ich Nexenta Software+Hardware bei einem Ansprechpartner kaufen.
Vorteil von den Dell Kisten ist auch, dass ich davon nahezu baugleiche Systeme als ESX-server verwende und bei Hardwareproblemen ersatzteile greifbar hätte.
Supermicro baut zwar auch schöne Hardware, aber eher im HPC bereich, als für Storage Systeme.

Mir bekannte Probleme bei Dell und Solaris
- Dell-Platten werden nicht erkannt (Dell eigene Firmware)
- Controller werden nicht erkannt bzw. können nicht auf HBA/IT Firmware umgeflasht werden
(obwohl es sich um LSI Controller handelt)

mein Fazit: Dell ja, aber keine Dell Platten und Original LSI HBA Controller nehmen
SuperMicro ist ansonsten die absolute Nr. 1 Empfehlung für Solaris Storage Systeme
 
Habe mal bei Dell und einem Dell Partner angefragt, die schauen sich mal intern um, ob irgendwer in der Lage ist, DELL+Nexenta+Support aus einer Hand anzubieten.
Muss doch wen geben, der sich damit mal auseinandergesetzt hat, wenn die Beispielkonfigurationen auf der Nexenta Webseite auf DELL Systemen basiert. Der Nexenta Vertrieb ist auch nur zu ihren GMT - 07:00 Zeitzonen Geschäftszeiten gut zu erreichen.
 
Habe mal bei Dell und einem Dell Partner angefragt, die schauen sich mal intern um, ob irgendwer in der Lage ist, DELL+Nexenta+Support aus einer Hand anzubieten.
Muss doch wen geben, der sich damit mal auseinandergesetzt hat, wenn die Beispielkonfigurationen auf der Nexenta Webseite auf DELL Systemen basiert. Der Nexenta Vertrieb ist auch nur zu ihren GMT - 07:00 Zeitzonen Geschäftszeiten gut zu erreichen.

Ich hatte mal mit dem Dell Systemhaus ProgX zu tun. Die hatten sich intensiver mit ZFS, Solaris und OpenIndiana beschäftigt.
 
Wenn ich zfs copies auf dem rpool auf 2 gestellt habe, ich dieses aber erst logischerweise nach der OI und napp-it-Installation getan habe, wie bekomme ich es nun hin dass nicht nur neue Dateien jetzt zwei mal auf dem rpool angelegt werden, sondern auch die Daten davor (die Dateien die schon auf de rppol sind bevor ich cpoies=2 gesetzt habe)? Reicht ein scrubbing?

PS: Wenn ich Napp-it updaten will, muss ich dann einfach den gleichen Befehl wie zur "erst-installtion" nochmal ausführen und es wird automatisch ein Update gemacht oder wird dass alles neu-installiert?
 
Zuletzt bearbeitet:
Wenn ich zfs copies auf dem rpool auf 2 gestellt habe, ich dieses aber erst logischerweise nach der OI und napp-it-Installation getan habe, wie bekomme ich es nun hin dass nicht nur neue Dateien jetzt zwei mal auf dem rpool angelegt werden, sondern auch die Daten davor (die Dateien die schon auf de rppol sind bevor ich cpoies=2 gesetzt habe)? Reicht ein scrubbing?

PS: Wenn ich Napp-it updaten will, muss ich dann einfach den gleichen Befehl wie zur "erst-installtion" nochmal ausführen und es wird automatisch ein Update gemacht oder wird dass alles neu-installiert?

1.
Das ist korrekt, copies=2 wirkt nur bei anschließenden Schreibvorgängen.
Ansonsten: Wenn höhere Sicherheit gebraucht wird, dann immer einen Boot ZFS-Mirror anlegen

Scrubbing reicht ansonst nicht. Das entdeckt zwar Fehler, kann die aber ohne Redundanz nicht reparieren.

2.
napp-it Update per wget=Neuinstallation (alte Einstellungen/Jobs bleiben erhalten)
napp-it Update per Web-UI=Update des napp-it Web-UI (ohne Tools und OS Konfiguration, Einstellungen bleiben auch erhalten)
 
Hallo gea,

also wäre ein napp-it Update per wget immer der bessere Weg, da dann immer komplett? Nicht das mir nach dem Update per Web-UI irgendein Tool oder eine OS-Konfig fehlt.
 
Hallo gea,

also wäre ein napp-it Update per wget immer der bessere Weg, da dann immer komplett? Nicht das mir nach dem Update per Web-UI irgendein Tool oder eine OS-Konfig fehlt.

Der wget- Weg ist bei Updates 0.8 -> 0.9 oder bei Problemen notwendig.
Ein Mini-Update z.B. 0.9b1->b2 ist per Web-UI (About - Update) einfacher.
 
Danke für die schnelle Antwort!
Bei mir reicht dann also ein "Mini-Update".

Mir ist klar das scrubbing ohne redundanz nichts reparieren kann. (Habe es aber trotzdem nicht ganz verstanden^^. Also wenn ich jetzt copies=2 setzte und dann ein scrubbing auf dem rpool mache, habe ich dann die "alten" Daten 2mal auf der Platte nach dem scrubbing?)
 
Zuletzt bearbeitet:
Scrubbing liest lediglich alle Daten und tested die Prüfsumme. Es legt keine Dateien an.
Am Besten ist eine 2.te Bootplatte als ZFS mirror.

(OI Server und vor allem OmniOS laufen auch sehr gut auf zwei schnellen USB Sticks als ZFS Boot-Mirror mit 16GB und atime=off)
 
ZFSonLinux 0.6.1, die ersten Non-RC-Version, wurde released! Nun mit offiziellen Packages für Arch Linux, Debian, Fedora, Funtoo, Gentoo, RHEL / CentOS / SL, Sabayon, SprezzOS und Ubuntu.

ZFS on Linux

Announcemessage:
Today the ZFS on Linux project reached an important milestone with the
official 0.6.1 release! Over two years of use by real users has
convinced us ZoL is ready for wide scale deployment on everything from
desktops to super computers.

Weiter im Spoiler:
As always tarballs are available from zfsonlinux.org.

http://archive.zfsonlinux.org/downloads/zfsonlinux/spl/spl-0.6.1.tar.gz
http://archive.zfsonlinux.org/downloads/zfsonlinux/zfs/zfs-0.6.1.tar.gz

To simplify the installation and management of ZFS we have set up new
repositories for Debian, Fedora, and RHEL/CentOS. They can be found at
the following URLs.

Debian: Add to /etc/apt/sources.list
deb http://archive.zfsonlinux.org/debian wheezy main
deb-src deb http://archive.zfsonlinux.org/debian wheezy main

Fedora: See ZFS on Linux for directions.
rpm http://archive.zfsonlinux.org/fedora/$releasever/$basearch
srpm http://archive.zfsonlinux.org/fedora/$releasever/SRPMS

RHEL/CentOS: See ZFS on Linux for directions.
rpm http://archive.zfsonlinux.org/epel/$releasever/$basearch
spms http://archive.zfsonlinux.org/epel/$releasever/SRPMS

In addition to the usual bug fixes the 0.6.1 release introduces a new
property called 'snapdev'. The 'snapdev' property was introduced to
control the visibility of zvol snapshot devices and may be set to
either 'visible' or 'hidden'. When set to 'hidden', which is the
default, zvol snapshot devices will not be created under /dev/.
To gain access to these devices the property must be set to 'visible'
This behavior is analogous to the existing 'snapdir' property.

Other significant changes include:
* Added Linux 3.9 compatibility
* Added snapdev property to control visibility of zvol snapshots.
* Disabled old on-disk format warning for `zpool status -x`.
* Enabled zfs_arc_memory_throttle_disable by default.
* Improved slab object reclaim behavior.
* Fixed disk cache flushing for 2.6.37 and newer kernels.
* Fixed hot spare functionality.
* Git <id>-<hash> included in release for working builds.
* Updated dkms and kmod compliant packaging.
* Added man pages for splat, fsck.zfs, mount.zfs, zhack,
zinject, zpios, ztest, and zpool-features.


----------------------- SPL Change Log ---------------------------
Brian Behlendorf (16):
Fix atomic64_* autoconf checks
Disable automatic log dumping
Remove INSTALL
Fix spl_config.h install permissions
Add KMODDIR to install target
Remove custom install-data-local for headers
Remove ARCH packaging
Merge branch 'build-system'
Merge branch 'linux-3.9'
Change spl-kmod-devel install path
Refresh RPM packaging
Remove spl-dkms conflict with spl-kmod
Use requested kernel for dkms builds
Use 'git describe' for working builds
Provide ${kmodname}-devel-kmod for yum-builddep
Tag spl-0.6.1

Darik Horn (1):
Create splat man page

Ned Bass (1):
Refresh links to web site

Richard Yao (8):
Fix HAVE_MUTEX_OWNER_TASK_STRUCT autotools check on PPC64
Linux 3.9 compat: Include linux/sched/rt.h
Linux 3.9 compat: Do not depend on f_vfsmnt
Linux 3.9 compat: vfs_getattr takes two arguments
Linux 3.9 compat: set_fs_root takes const struct path *
Drop support for 3 argument version of set_fs_pwd
Linux 3.9 compat: Switch to hlist_for_each{,_rcu}
Do not call cond_resched() in spl_slab_reclaim()

----------------------- ZFS Change Log ---------------------------
Brian Behlendorf (35):
Add zpool-features(5) man page
Fix 1M references in zpool-features.5
Cast 'zfs bad bloc' to ULL for x86
Remove unused machelf.h header
Update the zfs.8 "ZFS Volumes as Swap" section
Add explicit MAXNAMELEN check
Fix broken RPATH in spec file
Enable zfs_arc_memory_throttle_disable by default
Leaf vdevs should not be reopened
Remove wholedisk check from vdev_disk_open()
Fix hot spares
Replace libexecdir with datadir
Fix zfs_config.h install permissions
Add KMODDIR to install target
Add --with-dracutdir configure option
Remove ARCH packaging
Retire ZFS.RELEASE file
Fix zdb.8 macro warning
Merge branch 'build-system'
Remove COPYING
Change zfs-kmod-devel install path
Configure --with-spl{-obj} auto-detect cleanup
Refresh RPM packaging
Add metaslab_debug option
Add zio_ddt_free()+ddt_phys_decref() error handling
Add spl-dkms dependency to zfs-dkms
Add missing dependencies
Refresh dracut module setup
Remove zfs-dkms conflict with zfs-kmod
Use BUILD_DEPENDS option for dkms builds
Use requested kernel for dkms builds
Use 'git describe' for working builds
Provide ${kmodname}-devel-kmod for yum-builddep
Include init scripts in packages
Tag zfs-0.6.1

Darik Horn (3):
Create mount.zfs, zinject, and zpios man pages.
Create fsck.zfs and zhack man pages.
Fix minor typos and update marketing copy.

Eric Dillmann (1):
Add snapdev=[hidden|visible] dataset property

Etienne Dechamps (2):
Use -Werror for all kernel configure tests.
Remove the bio_empty_barrier() check.

George Wilson (1):
Merge zvol.c changes from PSARC 2010/306 Read-only ZFS pools

Michael Gebetsroither (1):
Import ztest.1 man page.

Ned Bass (2):
Switch KM_SLEEP to KM_PUSHPAGE
Refresh links to web site

Richard Yao (5):
Fix function relocations in libzpool
Make spa.c assertions catch unsupported pre-feature flag pool
versions
Eliminate runtime function pointer mods in autotools checks
Constify structures containing function pointers
Linux 3.9 compat: Undefine GCC_VERSION

Tim Connors (1):
-x shouldn't warn about old on-disk format or unavailable features

--
Thanks,
Brian

Achtung! Vor Installation der offiziellen Pakete selbst gebaute Pakete aus einer PPA oder Sourcen vorher manuell deinstallieren!
 
Zuletzt bearbeitet:
ZFS Tuning und was rennt am Besten

Ich habe ein paar Tuning Massnahmen und Best-Use Regeln zusammengefasst.
napp-it.org

Wenn jemand etwas wichtiges vermisst...
 
Ich habe ein paar Tuning Massnahmen und Best-Use Regeln zusammengefasst.
napp-it.org

Wenn jemand etwas wichtiges vermisst...

Die Links unter "check settings in nic-driver" verweisen beide zu Hardforum.

Danke für den Link von cyberexplorer. Das sind mal gute infos. Wenn du in der Richtung noch mehr hast würde ich mich freuen, wenn du die posten könntest. Ist immer schwierig aus der ganzen Masse an Blogeinträgen/Artikeln wirklich gute Sachen herauszufiltern.

/edit: was hat es mit den 16k Frames auf sich? Hast du das schonmal getestet? Der e1000 geht ja bis max. 16k

root@linda:~# dladm show-linkprop -p mtu net0
LINK PROPERTY PERM VALUE DEFAULT POSSIBLE
net0 mtu rw 1500 1500 1500-16362
 
Zuletzt bearbeitet:
/edit: was hat es mit den 16k Frames auf sich? Hast du das schonmal getestet? Der e1000 geht ja bis max. 16k

Ich vermeide Jumbo Frames nach Möglichkeit. Es kann aber in besonderen Einzelfällen schon sinnvoll sein (bis zu 30% mehr Performance).
Normalerweise würde ich eher auf 10 Gbe gehen falls mehr Performance gebraucht wird (und Jumboframes und Nic Bündelung vermeiden).
Jumbo Frames

Danke für den Hinweis auf den Linkfehler.
 
Hat eigentlich schon jemand dieses "gute Stück" mit ZFS ausprobiert?
https://www.alternate.de/html/product/HighPoint/Data_Center_7280,_Controller/956296/?
32 Platten klingt eigentlich gut, könnte mir Vorstellen, daß da die PCI-e X8 Schnittstelle zum "Flaschenhals" wird
PCI-e 2.0 x8 = ca 4000 MB/s
32 Platten * 120 MB/s = 3840 MB/s (und es gibt Platten die höhere Transferraten haben)

In einem anderen Forum habe ich gelesen, daß Smartwerte nicht durchgereicht werden....
Laut HP von Highpoint sind Treiber für FreebSD (also Nas4Free, FreeNAS) vorhanden, von Solaris (Illumos) habe ich allerdings nix gesehen.

Wäre eigentlich ein Schöner preiswerter Conti für's Lian-Li D8000 (wobei man da ja nur maximal 30 Platten reinbekommt - ohne eigene Umbauarbeiten - 20 Platten direkt + 10 Platten via zwei 5in3 Backplanes )
Wobei sich das preislich nur Wenig zum IBM 1015 nimmt, wenn man's hochrechnet.
 
Zuletzt bearbeitet:
Das ist ein simpler Sata Port-Multiplier.
Von sowas würde ich selbst unter Windows abraten.
Wenn dann einen SAS Expander nehmen.

- Zumal es vom Preis grob so teuer ist wie
1 x SAS Controller z.B. IBM 1015 + 24/32 Port LSI/Intel Expander oder
4 x IBM 1015
 
Hallo zusammen,

Ich benutze seit längerer Zeit OpenIndiana als ZFS basiertes NAS system. Ich habe bisher die Live-Version 151a7 mit napp-it installiert. Nie Probleme gehabt.
Nun habe ich mich entschlossen und die OpenIndiana 151a7 TEXT Installation gewählt, da ich den Desktop nicht länger brauche,...

Mein Problem:

Ich habe auf den Pools Ordner / Dateien, die ein ä, ö oder ü enthalten. Wenn ich mich an der Console anmelde, dann werden diese Umlaute nicht mehr korrekt dargestellt. Wenn ich von einem Windows-PC aus auf diese dateien/Ordner per verbundenem Netzlaufwerk schaue, dann ist alles ok.

Ich habe schon in der /etc/default/init die Einstellungen kontrolliert. Es ist dort de_DE.UTF-8 ausgewählt. Ebenfalls habe ich per napp-it die Sprache ausgewählt und auch schon rebootet.

Ich weiß nicht mehr weiter. Bitte helft mir.
Es ist leider dringend.


EDIT: Ich benutze als Hardware das Supermicro X8SIL-F (IPMI FW: 2.66) und verbinde mich auf die Console per IPMI.


Vielen Dank
Gruß
mlampe
 
Zuletzt bearbeitet:
Ich habe nun endlich auch einen Server mit OpenIndiana und ein paar Fragen dazu. Bei mir ist napp-it installiert und im Server steckt eine M1015 mit der IT-Firmare. Allerdings kann ich die daran angeschlossenen Festplatten nirgends sehen, also auch nicht bei Initialize Disks oder so. Kann ich mit einem Befehl testen, ob der Controller überhaupt erkannt wird? Beim Starten des Computers wird er angezeigt.

Mit /usr/X11/bin/scanpci wird ein LSI Logic controller angezeigt, dann stellt sich mir die Fragen, wieso es die Platten nicht anzeigt..

n2iYOqY.png
 
Zuletzt bearbeitet:
Welche Platten sind denn dran, und mit welchem Kabel hast du sie verbunden?
 
Es sind 5 Hitachi 5k4000 dran. Alle hängen an einem 3Ware SFF8087 Kabel.
 
Genauer Typ? Da gibts schlauerweise zwei, und du brauchst den Forward-Typ (CBL-SFF8087OCF-xxM)
 
CBL-SFF8087OCR-06M, also den falschen, super. Jetzt hoffe ich mal, dass sie die Kabel ohne Plastikverpackung zurücknehmen. Da kann ich noch lange nach Fehlern suchen, wenn es schon an den Kabeln scheitert.

Vielen Dank für deine Hilfe!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh