[Sammelthread] ZFS Stammtisch

Blöde Frage: Kann ich den in Napp-It einen iSCSI Share auch via PW absichern (am besten über die GUI)?

Vielen Dank!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin ich muss nochmal nerven.
Wollte noch eine Napp-It Installation aufsetzen da sind mir 2 Dinge aufgefallen.
1.) HIER gibt es zwei Image/Templates. Die Template von May ist aktueller aber nicht mal halb so gross, warum ? Fehlen hier Zusatzaddons oder wurde das System absichtlich schlanker gemacht wegen der Performance ?

2.) Solaris 11.4 gibt es ja schon in Beta. Lohnt es sich auf der kostenlosen 11.4 Beta eine Installation zu wagen und dieser zu vertrauen bzw. richtig nutzen ?
Solaris kostet Geld soweit ich weiss, in wieweit ist die Beta beschränkt, habt Ihr Erfahrungen ?
 
1. Das neuere Template ist nur in der Größe optimiert. Beidesmal ist es jeweils ein normales OmniOS mit napp-it

2. Solaris 11.4 gibts seit zwei Monaten als Final.
Man kann die kostenlos herunterladen, darf sie aber dann nicht kommerziell nutzen.
 
1. Das neuere Template ist nur in der Größe optimiert. Beidesmal ist es jeweils ein normales OmniOS mit napp-it

2. Solaris 11.4 gibts seit zwei Monaten als Final.
Man kann die kostenlos herunterladen, darf sie aber dann nicht kommerziell nutzen.

Ist auch für Privat gedacht. Weisst du ob es auch ne fertige Tamplate für ESXI gibt ? Finde nur was für Virtualbox.
 
Ich habe leider keine Erlaubnis zur Re-Distribution von Solaris.
Ein fertiges ESXi Storageservertemplate wie für OmniOS kann es daher nicht geben.

Ist aber nicht zu schwierig. Für eine vergleichbare Muster-Installation muss man
- Solaris 11.4 auf ESXi 6.7u1 installieren (ich würde eine 30G Partition nehmen)
mit e1000 vnic für Management und vmxnet3 für LAN, DHCP

wenn man mit ZFS Cluster spielen möchte, die Bootdisk auf Sata
und dazu ein LSI SCSI vcontroller (sas mode, shared=physical)

- Vmware Tools installieren (die "Originalen" aus ESXi 6.7u1)
- TLS installieren (wenn man Alerts via sicherem Mail braucht)
- napp-it per wget online installer installieren
- Ein Basis Tuning durchführen Menü System > Appliance Tuning
(optimiert die Einstellungen auf > 1G Netzwerke)

Das Ergebnis dann als Template exportieren. Man kann davor auch noch weiteres anpassen.
 
Zuletzt bearbeitet:
+++ Hier stand Fragestellung zu NVME Einbindung ... Problem mitlerweile gelöst +++


NVMe 1.2 is supported.
1.3 may work when you uncomment

#strict-version=0;

and eventually
#ignore-unknown-vendor-status=1;

in /kernel
 
Zuletzt bearbeitet:
Solaris 11.4 werde ich dann demnächst testen hab jetzt für einen anderen zweck noch eine VM mit Omnios augesetzt alles top soweit. Weil aber meine erste NAS nach der ersten Einstellung und Installation aber ohne Probleme lief bis jetzt bin ich etwas aus der Übung.

Wie kann man nochmal im ACL die Unterordner also Sub-Directorys beim ACL/User automatisch miteinbinden ??? ICh glaube nicht dass ich damals jede Subdirectory einzeln die ACL gesetzt habe ...

EDIT: Sorry habs gefunden!
 
Zuletzt bearbeitet:
Eine etwas ungewöhnlichere Frage:

Da ich einen Effizienzfetischist bin und die Lösung zunächst nur privat nutzen werde, habe ich mich auf die Kombination ESXI 6.7 U1 + (Oracle Solaris + napp-it) eingeschossen. Das NAS hat zwei HBAs, die mittels PCIe Passthrough an die Solaris VM durchgereicht werden sollen (mit 6.7 U1 soll das ja mit PCH-Controllern wieder gehen) einmal C236-PCH-SATA und einmal ein LSI3008 im IT-Mode.

Am Intel PCH-SATA befindet sich der 24/7-Dauerspeicher, am LSI hängt ein SAS3-Expander mit einem Festplattengehäuse, in dem jeweils 8 HDDs ein verschlüsseltes RAIDZ2 für separat gelagtere Sicherungen bilden sollen. Alle 8 HDDs lassen sich gleichzeitig ein-/ausschalten. Kann ich dieses 8er Set sauber/ordentlich im laufenden Betrieb wechseln, ohne das System herunterfahren oder neustarten zu müssen?

Wie immer vielen Dank für die Anregungen!
 
Zuletzt bearbeitet:
Der LSI 3008 macht problemloses Hotplug - mit oder ohne Expander (wobei ich das mit Sata Platten am Expander testen würde. Eine "halblebige" Sata Platte kann den ganzen Expander blockieren)

Ein hot-plug für ein disk-replace ist also unkritisch. Nimmt man alle Platten oder das ganze Jbod weg, sollte man den Pool vorher exportieren. Sonst gibts jede Menge errors und alert mails.
 
Weiß jemand wie ich CentOS 6.5 als LX Zone "installiert" bekomme? Ich benötige genau diese Version, leider scheinen die Images die es gibt aber alle Neuer zu sein.
 
Also CentOS 6.6 scheint das älteste zu sein. Ich guckmal ob ich es vielleicht doch nicht anders hinbekomme. Möchte edomi installieren, das Installationsskript spuckt aber Haufenweise Fehler aus wenn es nicht CentOS6.5 bekommt. Ich denke hängt mit den Paketen zusammen die andere Versionsnummern dann besitzen.
 
Spannendes Konzept. Muss ich mich mit etwas Ruhe (also frühestens irgendwann nach Weihnachten ;) ) einmal mit beschäftigen!

Zu wenig Zeit für so vieles. :(
 
Ein "simple" ZFS Cluster Konzept für Solaris gibt es bereits seit 10 Jahren
http://www.osdevcon.org/2009/slides/high_availability_with_minimal_cluster_torsten_frueauf.pdf

In einer ersten Fassung habe ich das auch auf iSCSI und barebone nodes aufgebaut neige aber stark zu SAS und vCluster. Der entscheidende Ansatz das billig und einfach zu machen liegt darin das auf ESXi Basis aufzubauen und das Failover in eine Web-UI einzubauen. Damit sinkt der Einstiegspreis von 10k auf 2k Euro für ein lauffähiges System und es ist recht simple in der Konfiguration. Der Hardware Mehraufwand zu einem einfachen Storage ist eigentlich nur der zweite HBA und SAS Platten statt Sata.
 
Zuletzt bearbeitet:
brainstorming

hoi board

es steht folgendes zur verfuegung:
- Supermicro X11SSH-CTF
- E3-1225 v6
- 2x8gb kingston supermicro certified reg.ecc ram
- 2x XF1230-1A0240 am Intel C236
- 4x HGST HUH721212ALN600 (spaeter nochmal 4)
- xigmanas 11.2.0.4 - Omnius (revision 6229) embedded auf usb-pen
- 2x10gb-t uplink auf HPe switch
- apc smart-ups

rolle dieser box: bereitstellung von iscsi-targets welche von windows servern als backup-volumes genutzt werden.
gesichert wird von sechs windows 2008r2 und 2016 servern mit windows-server-sicherung.

angedacht ist ein raid-z1 vdev aus den 4 sata platten am lsi
spaeter wird dann entweder ein zweites raid-z1 vdev erstellt oder
ein raid-z2 vdev aus allen acht erstellt.

soweit der ist zustand.
ich grueble wegen dem modus des lsi. dieser ist im iR mode aber xigmanas hat die platten gefunden und gelistet ohne, dass ich etwas im menue des lsi konfiguriert habe.
ist es mitlerweile nicht mehr notwendig den controller auf iT modus zu flashen und kann ich es so lassen?

und ich bin mir nicht sicher, wie ich die beiden SSDs am besten einsetzen kann.
da hoffe ich auf tipps vom stammtisch.
 
Ein LSI Controller im IR Modus kann die Platten auch einzeln direkt zur Verfügung stellen.

Nachteil von IR
Es wird ein anderer Treiber benutzt.
Der wird nicht so oft eingesetzt, ist umfangreicher wegen der Raid-Funktionen
(eventuell langsamer, eventuell mehr Fehlerquellen)

Zumindest unter Solaris: Es werden portbasierte Plattennamen gezeigt (c1t0d0=controller 1 erster Anschluß) statt der WWN Nummern. Die bleiben wie die Macadresse einer Netzwerkkarte selbst bei einem Serverwechsel identisch - Für mich ein k. o. Kriterium bei vielen Platten.

Ein SSD Pool macht am meisten Sinn als VM Storage oder L2Arc
Für ein Slog ist die Seagate SSD eher zu langsam.
 
Zuletzt bearbeitet:
Moin zusammen,
ich mal wieder.
Wie sich herausstellt habe ich mich bei der benötigten HDD-Größe für mein Medienlager dezent verschätzt.
Situation:
Napp-it 026
Pool mit 2x3 TB HDDs als Mirror/RAID 1

Gibt es eine Möglichkeit den Mirror ohne Datenverlust aufzulösen? Wenn ja, wie?
Letztlich liegt da nichts, was ich nicht reproduzieren könnte und nur weil ein RAID 1 cooler ist (2x Lesegeschwindigkeit bringt bei mir nicht wirklich nen Vorteil) will ich nicht noch ne neue Platte dazu werfen. 6 statt 3 TB würden die Anforderungen mehr als erfüllen.
 
Wenn die Frage lautet wie man von Raid-1 mit 3TB auf Raid-0 mit 6TB kommt

1. Disk remove -> Basic vdev
2. Pool extend basic -> Raid-0 mit 6TB


Ein Plattenausfall bei Raid-0 und alles ist weg.
Ich nehme aber an das das bekannt ist.
 
Zuletzt bearbeitet:
Danke dir. Ja klar, das ist bekannt. Wichtige Daten werden aber sowieso gebackupt. Im Fall der Fälle wäre das also einfach nur ärgerlich, aber nicht lebensbedrohlich.

Edit: Schmeckt mir halt trotzdem nicht. Ich versuche erst mal einige Daten auszulagern oder zu komprimieren. 300-500 GB reichen eigentlich schon. Das ist ja das, was mich so fuchst :d
 
Zuletzt bearbeitet:
6 TB beim kleinsten Problem zu verlieren ist schon böse.

Ich würde Storage niemals ohne Redundanz betreiben.
Also eher einen weiteren Mirror hinzufügen oder nach Backup einen Raid-Z1 Pool aus drei Platten erstellen.
 
Moin habe ein irritierendes Problem bei Erstellung eines Pools von 4x 10TB HDD

1) die Platten sind 100% ok
2) die Platten werden als RDM innerhalb ESXI durchgereicht ( werden auch mit voller Kapazität erkannt)
3) In Napp IT unter Menü "Disks" werden Sie auch noch mit je 10TB erkannt
4) Wird ein Pool mit je 2x "Mirror" (passiert auch in jeder anderen Form Basic, RaidZ etc) erstellt hat jede Platte im Pool nur noch 1.2TB
5) In Napp IT "Disk" werden Sie weiterhin mit 10TB angezeigt, auch unter pool

pool: HDD_Internal
state: ONLINE
scan: none requested
config:

NAME STATE READ WRITE CKSUM CAP Product /napp-it IOstat mess SN/LUN
HDD_Internal ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0 10 TB WDC WD100EFAX-68 S:0 H:0 T:0 1DGP8SXZ
c2t3d0 ONLINE 0 0 0 10 TB WDC WD100EFAX-68 S:0 H:0 T:0 7PKTUPPC

Der Pool selber jedoch:

HDD_Internal 5000 1.09T/ 1.1TB 544K - 113G 1.06T [1.1T /1.2T] 1.00x wait off off ....
 
zu 2.
Wird ein SAS HBA benutzt um die Platten als Raw Disk durchzureichen?
Das ist die von ESXi 6.7 offiziell unterstützte Methode

Oder via Sata Controller und manuellem RDM per Console (unsupported)


Als nächstes würde ich die Platte neu initialisieren.
Das kann man per napp-it Disk > initialise machen, auf der Console per fdisk
oder an einem anderen Rechner. Ideal wäre es wenn man eine nicht-ZFS Partition anlegt, z.B. FAT32


Auch könnte man OmniOS testhalber direkt installieren um zu prüfen ob das Problem da weg ist, es also mit ESXi zusammenhängt.
 
In HDD Initial habe ich über das Napp IT Menüe aufgeführt, die paltten standen dort als 1.2TB drin, danach wieder 10TB
=> Pool erstellt, gleiche Probleme

=> anderen Sas Controller , direkt angebunden per Passthough Problems gelöst

Unglaublich
 
Hallo zusammen,

ich möchte für die Arbeit einen Fileserver auf ZFS Basis beschaffen. Anwendungszweck ist ein klassischer Fileserver/Archiv, nur wenige Mitarbeiter werden gleichzeitig aktiv darauf arbeiten. Von ihm sollen keine VMs gestartet werden, wobei die Option natürlich interessant ist. Geplant ist ein Case mit 16 HDDs im Vollausbau, wobei initial nur 2 eingebaut werden. Angeschlossen via Gigabit, da wir noch keine Infrastruktur für 10G haben. Außerdem ist vorerst kein SLOG oder L2ARC geplant, es würde alles direkt über die Platten gehen. Ggf. wird ein SLOG/L2ARC später im Vollausbau ergänzt.

Dazu würde ich gerne eure Meinung zu 2-3 Punkte hören:

1. Als CPU hätte ich einen E3-1230v6 mit initial 16GB ECC RAM genommen. Wieviel Leistung kann ich davon erwarten?

2. In der näheren Auswahl befinden sich Gehäuse (Supermicro8 36BE1C-R1K23B, Chenbro RM31616E) mit 12Gb/s SAS-Expander, angeschlossen an einem 9300-4i HBA. Wie verhalten sich SAS-Expander bei ZFS in der Praxis? Ich habe natürlich eine geringere Brandbreite gegenüber einem HBA mit dedizierten Ports, aber fällt das bei einem RAID mit nur HDDs auf?
Ich habe gelesen das insb. SATA Platten Probleme mit SAS-Expandern machen. Doch bei den aktuellen Preise habe ich überlegt direkt SAS Platten zu nehmen. Hier tendiere ich aktuell zwischen der WD Ultrastar DC under Seagate Exos E, beide in der 4K native Variante.

Eine komplette Freiheit bei der Auswahl der Komponenten habe ich nicht, da der Server zusammengebaut bei einem passenden Händler gekauft wird. Insb. die Garantie auf die Hardware ist für uns als kleine Firma wichtig.
Mein Budget ist bei maximal 2500€ netto für den Server + SSDs fürs OS, HDDs sind getrennt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh