[Sammelthread] ZFS Stammtisch

Ist Solaris Express eigentlich free ?
ZFS-Encryption könnte mich dazu bewegen von meiner Nexentastor abzurücken (bis dort Verschlüsselung unterstützt wird):asthanos:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verschlüsselung sollte mit geli auch unter Nexenta funktionieren
aber wohl nur in der Core+Napp-it und mit einigen Shell commands / skriptanpassungen.


die Express ist Free to use license AFAIK wie das mit dem 90 Tage limit ist weiss ich nicht.

Die Verschlüsselung sollte nach dem Erscheinen des "Richtigen" Solaris 11 auch in nexenta eingebaut werden können.
Aber das wird dann Mitte 2011 sein.
 
Hab das NCP-Form danach durchforstet, aber nichts zum Thema geli gefunden. Hast du bitte mal nen Link zu ner HowTo für mich ?
Danke
 
Argh GELI war unter BSD...
Ich meinte LOFI!

LOFI HOWTO

Im prinzip musst man Jede Platte einzeln blockverschlüsseln und auf
den Blockveschlüsselten devices macht man dann das ZFS.

Napp-It kann übrigens auch unter Solaris Express laufen (Mit Einschränkungen)
Ich setze es unter Open Indiana ein.
 
Zuletzt bearbeitet:
ich bin zwar neu hier, möchte aber folgendes beitragen:

Solaris Express: freier Download, es darf aber nur zu Testen und nicht "produktiv" eingesetzt werden

Verschlüsselung ist derzeit nur bei Oracle Solaris erhältlich (war im letzten freien Build 147 noch nicht enthalten), gibt es also (noch) nicht bei Nexenta* oder OpenIndiana

gespiegelte Bootlaufwerke gehen bei Nexenta*
einfach beim Installieren 2 Platten wählen

Hardware-RaidController bei ZFS sind unnötig, ja sogar murks
Lsi 1068 und LSI 2008 sind eigentlich die Einzigen, die man empfehlen kann
(die Billigen von Supermicro - 8xSAS für gut 100,--, von Intel oder die Teuren von LSI - egal)

ZFS und low power/ low performance passen nicht zusammen.
(Die Features von ZFS kosten halt was)

wenn ZFS, dann was Neueres mit Solaris Kernel

Storage mit ZFS ist für jeden, der mit Storage zu tun hat, einer Offenbarung.
Wenn es das nicht gäbe, müsste es erfunden werden.

Comstar Iscsi
ultra flexibel, leider nicht ganz einfach für Einsteiger,
folgende 4 Schritte bringen es aber zum Laufen

1: Logical Unit anlegen (quasi die virtuelle Platte)
2: Target anlegen (das was der eigene Computer sieht, für 0..n Logical Units)
3. Target Group anlegen und Targets als Member hinzufügen
4: Ein View für jede Logical Unit auf die Target-Groups setzen,
erst dann erscheinen diese bei den Targets

ZFS+ Apple Time Machine entweder via iSCSI oder besser
über AFP (ist bei napp-it dabei)

napp-it (meine freie Web-UI) läuft neben Nexenta*, OpenIndiana jetzt
auch auf Solaris Express (ab Version 0.4 pre)



gea
 
Zuletzt bearbeitet:
Willkommen im LUXX!
Schön das du dich hier her gefunden hast.
Deine GUI ist wirklich gute Arbeit!
Vor allem das sie so schön flexibel und Portabel ist.
Die unterstützung von Express finde ich gut da ich das als nächstes Testen will.
Währe cool wenn du Express auch weiter supporten würdest.
 
Zuletzt bearbeitet:
Moin,

jetzt möchte ich auch nochmal was zum Thema beitragen:
- Solaris 11 Express ist in der Tat nicht kostenlos - sprich: Du darfst es evaluieren. Allerdings kann man es - so wie ich es verstanden habe ohne zeitliches Limit einsetzen.

Mal Butter bei die Fische: Wie sind doch hier ALLES Privatnutzer, ergo spricht nichts gegen einen dauerhaften Einsatz im privaten Umfeld. So ganz klar ist Oracle da aber auch nicht in Ihrer Aussage.

@gea: Übrigens: Supertolle GUI Dein napp-it!
 
Ich spiele gerade mit Napp-It und Sol11 rum.
Klappt soweit alles recht gut. - Gute arbeit Gea
Habe da noch ein Problem mit einem netzwerktreiber der
sobald ich das Interface in Napp-It anklicke sofort Kernelpanic verursacht.
Was für Commands nutzt das anklicken eines Netzwerkinterfaces unter System->Netzwerk?
Das problem hatte ich aber auch schon unter Indiana.
[man sollte wohl keine Netzwerkkarten von Brocade kaufen -.-]

Nov 17 19:15:03 Filer ^Mpanic[cpu3]/thread=ffffff01cfe2a800:
Nov 17 19:15:03 Filer genunix: [ID 683410 kern.notice] BAD TRAP: type=e (#pf Page fault) rp=ffffff00084dc910 addr=ffffffffc068e000
Nov 17 19:15:03 Filer unix: [ID 100000 kern.notice]
Nov 17 19:15:03 Filer unix: [ID 839527 kern.notice] dladm:
Nov 17 19:15:03 Filer unix: [ID 753105 kern.notice] #pf Page fault
Nov 17 19:15:03 Filer unix: [ID 532287 kern.notice] Bad kernel fault at addr=0xffffffffc068e000
Nov 17 19:15:03 Filer unix: [ID 243837 kern.notice] pid=1581, pc=0xfffffffffb85af27, sp=0xffffff00084dca08, eflags=0x10217
Nov 17 19:15:03 Filer unix: [ID 211416 kern.notice] cr0: 8005003b cr4: 6f8
Nov 17 19:15:03 Filer unix: [ID 624947 kern.notice] cr2: ffffffffc068e000
Nov 17 19:15:03 Filer unix: [ID 625075 kern.notice] cr3: 104dfa000
Nov 17 19:15:03 Filer unix: [ID 625715 kern.notice] cr8: c
Nov 17 19:15:03 Filer unix: [ID 100000 kern.notice]
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] rdi: ffffffffc068e000 rsi: cff15d8c rdx: 4
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] rcx: 19fc080b r8: cff15d94 r9: ffffffffc057c2c8
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] rax: 0 rbx: 4 rbp: ffffff00084dca70
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] r10: fffffffffb85ad44 r11: 7 r12: ffffff01cff15d94
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] r13: ffffff01d07cf508 r14: ffffff01cff15c90 r15: 1
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] fsb: 0 gsb: ffffff01cea60080 ds: 4b
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] es: 4b fs: 0 gs: 1c3
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] trp: e err: 2 rip: fffffffffb85af27
Nov 17 19:15:03 Filer unix: [ID 592667 kern.notice] cs: 30 rfl: 10217 rsp: ffffff00084dca08
Nov 17 19:15:03 Filer unix: [ID 266532 kern.notice] ss: 0
Nov 17 19:15:03 Filer unix: [ID 100000 kern.notice]
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dc7f0 unix:die+10f ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dc900 unix:trap+1799 ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dc910 unix:cmntrap+e6 ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dca70 unix:bzero+3a7 ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcaf0 mac:mac_get_prop+e7 ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcb90 dld:drv_ioc_prop_common+3ae ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcbd0 dld:drv_ioc_getprop+2a ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcc80 dld:drv_ioctl+190 ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcd00 genunix:cdev_ioctl+6c ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcd40 specfs:spec_ioctl+5a ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcdc0 genunix:fop_ioctl+7b ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcec0 genunix:ioctl+18e ()
Nov 17 19:15:03 Filer genunix: [ID 655072 kern.notice] ffffff00084dcf10 unix:brand_sys_syscall32+17a ()
Nov 17 19:15:03 Filer unix: [ID 100000 kern.notice]
Nov 17 19:15:03 Filer genunix: [ID 672855 kern.notice] syncing file systems...
Nov 17 19:15:03 Filer genunix: [ID 904073 kern.notice] done
Nov 17 19:15:04 Filer genunix: [ID 111219 kern.notice] dumping to /dev/zvol/dsk/rpool/dump, offset 65536, content: kernel
Nov 17 19:15:12 Filer genunix: [ID 100000 kern.notice]
Nov 17 19:15:12 Filer genunix: [ID 665016 kern.notice] ^M100% done: 154075 pages dumped,
Nov 17 19:15:12 Filer genunix: [ID 851671 kern.notice] dump succeeded

Verschlüsselung hat auch sehr gute Performance.
Absolut Transparent
320mb/s per CIFS über 10Gbit, bisher ohne tuning - da geht noch was :coolblue:
 
Zuletzt bearbeitet:
nappit deaktiviert nwam und aktiviert network-physical (manuelle konfiguration).

ansonsten.
einfach auf edit klicken, dann kann man sehen (script ist in perl), was beim anklicken passiert. falls ein unterprogramm aufgerufen wird, z.b. &zfslib_list, so findet man diese routinen in der gleichnamigen bibliothek z.b. zfslib.pl unter /var/web-gui/data/sunos/_lib

am schnellsten kann man die libs mit mc (midnight commander) anschauen; der wird von napp-it immer mitinstalliert und wird mit mc auf der console gestartet.

ansonst
network:=intel nics

gea
 
Zuletzt bearbeitet:
Mal ein paar Fragen,
Wie sieht es mit der Fehlerkorrektur (scrub) bei einem zpool ohne raidz aus? (also im prinzip raid0)
Wenn scrub einen Fehler findet, kann dieser behoben werden?

Ich plane gerade etwas um und überlege kein raidz mehr zu machen ... da die Daten auch noch wo anders auch gespeichert sind.

Wenn bei einem "raid0" eine Platte Fehler bringt ist der ganze zpool kaputt?!
 
1. Kurze antwort: NEIN Die checksums stellen nur fest das die Datei kaputt ist

2. in einem Pool ist dann nur die daten wech die auf der Kaputten platte sind.
2.1 Wenn es nur ein paar defekte sektoren sind dann sind nur die Betroffenen dateien Kaputt.

3. Wichtige Dateien kann man mit copys=2 auf zwei Festplatten verteilen (RAID1)
 
Zuletzt bearbeitet:
2. in einem Pool ist dann nur die daten wech die auf der Kaputten platte sind.
2.1 Wenn es nur ein paar defekte sektoren sind dann sind nur die Betroffenen dateien Kaputt.

Diese "Logik" versteh ich noch nicht ... ich dachte, jede "Datei" wird auf alle Platten verteilt gespeichert?!
Zumindest, wenn ich etwas auf einen Pool speichere gibt es auf allen Platten Schreibvorgänge?!
 
Kann ich die Checksummen (MD5?) irgendwo auslesen? Indiziere gerade meine Files per "md5sum", aber das is nich multiCPU fähig und eiert recht lange rum...
 
@Brummbär:
Die checksummen sind auf den Datenblöcken
und nicht auf kompletten Dateien.
Also werden sie dir nicht viel nützen.
@baldi:
Jo war wohl etwas vorschnell.
Die Metadaten sind auf jeden fall Doppelt vorhanden.
Die Datenblöcke werden aber gestriped da hast du recht
das es beim Ausfall dann keinen Zugriff mehr gibt.
 
Hallo! Ich glaube, ich bin jetzt soweit. Mein dicker 3ware Controller soll weg, ich muss auf 2TB HDDs upgraden und denke, ich werde mich jetzt mal an ZFS wagen. Hab die letzten Tage immer mal etwas Zeit damit verbracht mir Projekte zu suchen, bei denen man mal Ideen aufgreifen kann, was die Hardware angeht. Leider habe ich da bisher nur ein wirklich aktuelles Projekte (Der Dockmaster von DieTa) gefunden.
Ich plane nun ein RaidZ mit 6x2TB HDDs, das später auch gern auch noch Gesellschaft eines zweiten RaidZ bekommen soll. Geht ja schon bei den Mainboards los. 6 SATA Ports sind so das gängige Maximum, aber wohin dann mit einer potenziellen OS Platte? Ich möchte jetzt noch nicht gleich nen Controller dazu kaufen, nur um eine Platte mehr anzuschließen.
Habt ihr vielleicht ein paar Tipps wonach ich mich richten kann?
Vielen Dank schon mal! :wink:
 
Zuletzt bearbeitet:
Hi DerXero,

ich habe hier ein ähnliches Projekt realisiert wie DieTa es bei sich stehen hat.

AMD AthlonII 610e
Asus M4A89GTD PRO
8GB DDR3 ECC
2*500GB
4* 1,5TB
Intel E1000

Jedoch läuft auf dem Server ESXi.
Darunter sitzt die NexentaStor-VM die über die 1,5TB-Platten ein RAIDZ legt und das per ISCSI an den ESX durchreicht.
Hier liegen weitere VMs, unter anderem eine mit 3TB-VMDK ,die per Truecrypt verschlüsselt ins LAN geshared wird.

Jetzt wo Solaris Express 11 Verschlüsselung unterstützt wäre das sicher auch ein Ansatz.

Wenn du wirklich nur eine NAS brauchst, dann empfehle ich dir Nexentastor oder NexentaCore mit napp-it.

Homebrew-Hardware auszusuchen ist immer etwas tricky bei Solaris-Systemen.
ZFS liebt viel RAM, insbesondere wenn man Dedup nutzen will.
Hinzu kommt dass man ECC-Ram verwenden sollte und da ist man im Home-Bereich schnell bei ASUS.
 
Ich plane nun ein RaidZ mit 6x2TB HDDs, das später auch gern auch noch Gesellschaft eines zweiten RaidZ bekommen soll. Geht ja schon bei den Mainboards los. 6 SATA Ports sind so das gängige Maximum, aber wohin dann mit einer potenziellen OS Platte? Ich möchte jetzt noch nicht gleich nen Controller dazu kaufen, nur um eine Platte mehr anzuschließen.

Natürlich kommt es sehr stark darauf an was Du investieren willst und wofür du das Gesamtsystem nutzen möchtest.

Wenn es ein "reine" storageBox sein kann, könntest Du auf ein desktop verzichten und ein
als Basis nehmen. Diese können dann über
verwaltet werden

Wenn Du nicht über 12TB kommst ist nexentaStor Community Edition NexentaStor Project - CommunityEdition - NexentaStor Project sicher eine beachtenswerte Alternative.

Näheres kann ich Dir nur zu einer rein NCP basieren Lösung sagen, da ich nur diese bei mir in Benutzung habe. Als Bootmedium kannst Du 2 (schnelle) 8GB USB sticks nehmen, NCP installiert da drauf wunderbar und das läuft klaglos seit Jahren bei mir. Ist natürlich beim booten nicht sooo rasend schnell, aber wer bootet so'ne Kiste schon oft? Und diese Lösung "verbraucht" keinen der wertvollen SATA ports ;-).

Das Mainboard (insbesondere NICs) und die HBAs musst Du sorgfältig wählen, da Solaris da etwas zimperlich ist.
Aber es gibt mittlerweile schon gute partlists, z.B. von
 
Zuletzt bearbeitet:
zur Bgrifflichkeit:

zfs online-scubbing macht zwei Sachen:

Prüfung, ob die Daten noch in Ordnung sind (mit oder ohne Raid), wenn nicht:

Platten sind in Ordnung, es handelt sich um einen Paritätsfehler, der aufgrund der
ZFS-Checksumme über alle Platten/ Controller hinweg korrigiert werden kann. Dies ist ein typischer Langzeitfehler (Datenrost) der dadurch auftritt, dass gespeicherte Bits mit einer gewissen statistischen Warscheinlichkeit kippen. (z.B. wegen Radioaktivität). Ohne Scrubbing werden diese Fehler erst dann entdeckt, wenn ein Lesen fehlschlägt (wird bei einem konventionellem Raid typischerweise bei einem fehlgeschlagenen Rebuild nach einem Plattenausfall bemerkt) oder bei anderen Dateisystemen bei offline-filechecks.

Dieses Online-Scrubbing/ Datenrefresh mit checksums über alle Controller und Platten eines Pools ist für mich übrigens eins der wichtigsten Kriterien für den Einsatz von ZFS. Empfohlen wird ein wöchentliches scrubbing bei Consumer-platten, ein monatliches bei Enterprise-Festplatten.

Festplatte ist ausgefallen:
Die Daten können nur bei Redundanz wiederhergestellt werden (nicht also bei Raid-O)
Der Vorgang der Wiederherstellung des Raid nach dem Wechsel der ausgefallenen Festplatte heisst bei ZFS resilvering und kann durch ein scrubbing manuell gestartet werden.

Raid-0 ist bei den aktuellen Festplattenpreisen, insbesondere bei ZFS eigentlich nicht sinnvoll. Irgendwann passiert es, dass die aktuellen Daten eben nicht auf dem Backup sind. (Ausserdem ist das Backup dann kein Backup sondern die einzige Sicherung)
 
Zuletzt bearbeitet:
Hallo,

ich betreibe momentan ein RAID-5 mit fünf WD15EADS an einem 3ware-Controller. Der Server wird primär als Datengrab für meine Video-Sammlung und als NAS für meine SAT-Receiver verwendet. Des weiteren läuft darauf ein Mail-Server und ein Streaming-Server für die Musiksammlung.
Als Host-System findet aktuell Win 2008 Server R2 Verwendung (incl. AD), der Mail-Server läuft als virtuelle Maschine (Hyper-V) ebenfalls unter Win 2008 R2. Zusätzlich läuft eine Ubuntu-Instanz unter Hyper-V als Web-Server-

Folgendes ist geplant:
- Als Host soll zukünftig ESXi eingesetzt werden
- Virtualisierung des aktuellen Hosts (bereits getestet, läuft)
- Umwandlung der Mail-Server Hyper-V-Maschine in eine VM-Ware-Maschine (getestet)
- falls umsetzbar, möchte ich meine PCIe-SAT-Karte per VT-d an eine virtuelle Maschine mit VDR oder MythTV durchreichen (hat das schon mal jemend gemacht?)

Als Fileserver soll zukünftig Nexenta (entweder als Community- oder als Core-Edition) zum Einsatz kommen.
Dazu meine Fragen:

- Muß ich auch hier den Plattencontroller (LSI oder Intel) der PCIe-Passthrough an die virtuelle Maschine durchreichen? Anderfalls "sieht" Nexenta den Controller ja gar nicht, oder?

- Ich lese immer, daß Nexenta ESXi die VMs per iSCSI zur Verfügung stellt. Wie geht das? Die Nexenta-VM muß dann vermutlich auf einer lokalen Platte liegen und als erste gestartet werden. Wie geht es weiter?

- Zum Thema ZFS: Das Konstrukt mit Nexenta soll wie gesagt den 3ware-Controller ersetzen. Bietet ZFS ähnliche Features wie ein Hardware-RAID-Controller in Bezug auf die Erweiterung bestehender Set (z.B. beim Hinzufügen von neuen Platten)?

Beste Grüße
Oliver
 
Passthrough ist für einen Virtualisierten Fileserver
unter VMWARE dringend zu empfehlen.
Sonst ist die Performance doch schon sehr beinträchtigt.


Eine PCI-E Satkarte kannst du Sicherlich per VT-D Weiterreichen.
Bei PCI wirds schon schwieriger, kann aber auch funktionieren.
AFAIK muss man dann den kompletten PCI Bus an die VM weiterreichen, bei PCI-E ist ja jeder slot ein einzeln adressierbarer "Bus".

ISCSI
Man kann ein Virtualisierten Fileserver als ISCSI target für den Host nutzen.
Jedoch muss natürlich die Fileserver VM eine Richtige Virtuelle HD erhalten.
 
Zuletzt bearbeitet:
- Muß ich auch hier den Plattencontroller (LSI oder Intel) der PCIe-Passthrough an die virtuelle Maschine durchreichen? Anderfalls "sieht" Nexenta den Controller ja gar nicht, oder?

Ja, Korrekt

- Ich lese immer, daß Nexenta ESXi die VMs per iSCSI zur Verfügung stellt. Wie geht das? Die Nexenta-VM muß dann vermutlich auf einer lokalen Platte liegen und als erste gestartet werden. Wie geht es weiter?

Einfach in Nexenta ein NFS-Share oder iSCSI-Target anlegen und in ESXi als Datastore importieren. Ich nehme immer NFS und share das auch per CIFS um die VM's einfach kopieren oder klonen zu können.

- Zum Thema ZFS: Das Konstrukt mit Nexenta soll wie gesagt den 3ware-Controller ersetzen. Bietet ZFS ähnliche Features wie ein Hardware-RAID-Controller in Bezug auf die Erweiterung bestehender Set (z.B. beim Hinzufügen von neuen Platten)?

ZFS arbeitet zunächst mit Datenpools, nicht mit einzelnen Raid-Sets. Pools bestehen aber aus Raidsets (oder einzelnen Platten). Pools lassen sich einfach um weitere Raidsets erweitern. Die einzelnen Raids können jedoch nur mit Umwegen wachsen. (andere Vorgehensweise). ZFS Pools sind aber controllerunabhängig und können fast beliebig gross werden. Im Fehlerfall, können die Platten einfach in einen anderen Rechner mit beiebigen Controllern gesteckt werden, um den Pool zu importieren - mach das mal einer mit Hardware-Raid. Software-ZFS-Raid ist auf moderner Hardware zudem schneller.

Gea
 
Zuletzt bearbeitet:
ZFS arbeitet zunächst mit Datenpools, nicht mit einzelnen Raid-Sets. Pools bestehen aber aus Raidsets (oder einzelnen Platten). Pools lassen sich einfach um weitere Raidsets erweitern. Die einzelnen Raids können jedoch nur mit Umwegen wachsen. (andere Vorgehensweise). ZFS Pools sind aber controllerunabhängig und können fast beliebig gross werden. Im Fehlerfall, können die Platten einfach in einen anderen Rechner mit beiebigen Controllern gesteckt werden, um den Pool zu importieren - mach das mal einer mit Hardware-Raid. Software-ZFS-Raid ist auf moderner Hardware zudem schneller.

Dazu habe ich noch eine Frage, die mir noch nicht 100%ig klar ist.
Wenn ich jetzt einen Datenpool mit 4 Raid5-Arrays erstelle und irgendwann wird 1 Raid-Array kaputt (2 Platten fallen aus) ist dann der komplette Pool zerstört oder nur ein Teil der Daten?
 
ZFS arbeitet zunächst mit Datenpools, nicht mit einzelnen Raid-Sets. Pools bestehen aber aus Raidsets (oder einzelnen Platten). Pools lassen sich einfach um weitere Raidsets erweitern. Die einzelnen Raids können jedoch nur mit Umwegen wachsen. (andere Vorgehensweise). [...]
Gea

Also verstehe ich das richtig: Möchte ich zu meinen bestehenden 5 Platten einfach eine hinzufügen, dann ginge das bei Hardware-RAID problemlos.
Bei ZFS hingegen könnte ich die einzelne Platte als "Raidset" dem Pool hinzufügen. Für diese hätte ich dann aber keine Redundanz, oder? Folglich müsste man mindestens zwei, aus Effizienzgründen eher drei neue Platten hinzufügen, über diese ein Raidset aufbauen und dieses dem Pool hinzufügen, richtig?

Gibt es irgendeine Möglichkeit, ein bestehendes Raidset mit weiteren Platten zu erweitern?

Gruß
Oliver
 
Ein Pool besteht aus Virtuellen block Devices (VDEV).
das können einzelne Platten, Mirrors oder RAIDZs sein.

RAIDZ VDEVs können nicht um weitere Platten erweitert werden.
(Bei Mirrors gehts aber das vergrössert natürlich die Kapazität nicht)

Es wird aber daran gearbeitet. (seit über 3 Jahren xD)
Ebenso können Teile eines Pools (VDEVs) nicht wieder entfernt werden.

Vdevs können wachsen aber nicht schrumfen.
d.h ein VDEV das auf ein HW RAID liegt das per Online Capacity Expansion erweitert wird geht.

RAIDZs VDEVs können durch ersetzen aller platten durch grössere erweitert werden.
(zwischendurch jeweils rebuild)
 
Zuletzt bearbeitet:
Hallo Leute,
wir würden gerne in unserer Firma mal NexentaStor testen. Einsatzgebiet wäre die Anbindung an ESX, Citrix XenServer und für die Ablage von Backups/Exports. Gibt es irgendwo sowas wie einen Sizeing/Peformance Guide, oder irgendwelche veröffentlichten Projekte wo man sich mal einen schematischen Aufbau mit konfig Tipps holen kann? Habt ihr Tipps worauf man achten soll etc? Interessieren würde mich auch, ob der Einsatz von SSD's sinvoll ist. Habe da schon bissel was zu gelesen, dass man z.B. eine SSD als Log-Partition nutzen soll usw. vllt Irgendwelche Erfahrungen dazu?
 
Hi,

im Nexenta wiki steht einiges zu der empfohlene Hardware.

SSDs sind vor allem als schnelle Schreib/Lese Caches sehr sinnvoll.
Es kommt natürlich immer darauf an, wie das ganze angebunden wird.
Für eine normale 1GBit Verbindung bringen SSDs eher wenig.

Ich bau vermutlich diese Woche noch ein 10 TB NAS auf Nexentastor Basis zusammen und beschäftige mich deswegen damit.

Generell gilt:
64bit ist Pflicht
ZFS brauch CPU Leistung (ATOM o.ä. fällt weg).
Ram wird massiv als Cache verwendet... je mehr desto besser.

Alles andere hängt schwer vom Einsatz Zweck ab.

Gruß,

Psych
 
Bei meinem in #169 beschriebenen Szenario (primärer Einsatz als Medienarchiv) gibt es natürlich (insb. Nachts) erhebliche Perioden ohne oder nur seltenen Zugriffen.
Meinen RAID-Controller konnte ich z.B. so konfigurieren, daß nach 60 Min. ohne Zugriff die Platten in den Standby gehen und so nicht unerheblich Strom sparen. Wie sieht es mit solch einem Feature bei ZFS aus (oder wäre das eher ein Nexenta-Feature)? Wird sowas unterstützt und funktioniert es in der Praxis auch?
 
@Negotiator:
Ist Problemlos möglich.
Habe das hier unter Solaris 11 umgesetzt und die Disks gehen Brav aus.


Wie das in der Webgui von Nexenta aussieht weiss ich nicht.
In NAPP-IT gibt es zwar energie einstellungen aber da
fehlt irgenwie eine spezielle einstellung dafür.
(könnte aber sein das wenn man es Global festlegt für alle Platten gilt).

@Sumatrabarbe
Für diesen Einsatzweck je nach Anzahl der VM's:
  • 1-2x Potente CPU
  • SO VIEL RAM WIE NUR IRGENT MÖGLICH
  • 2x SLC SSD gemirrord für ZIL (WICHTIG für RANDOM schreib Performance)
  • 2-4x MLC für L2ARC (Optional)
  • Backend entweder 7k2 SATA oder 10-15k SAS als Mirror Konfiguriert (Je nach Budget und Kapazitätsanforderungen)

Auf die ZIL SSD's ist in einem Solchen einsatzzweck NICHT ZU VERZICHTEN.
Schlage da die Intel X25-E 32gb vor -> auf Hohe Random schreibtleistung achten.
Man kann aber für tests auch das ZIL komplett deaktivieren um die Performance wie mit SSD zu testen.
 
Zuletzt bearbeitet:
Hi,
Ich bau vermutlich diese Woche noch ein 10 TB NAS auf Nexentastor Basis zusammen und beschäftige mich deswegen damit.

Wenn du darüber hier mal berichten würdest, würde ich mich sehr freuen! :wink:

Hab jetzt für mich beschlossen, dass es wohl nicht wirtschaftlich wäre meine 1,5TB HDDs mit 50% Verlust zu verkaufen nur um auf 2TB zu gehen. Habe mir jetzt überlegt damit und mit 3 zusätzlichen 2TB Platten zwei RaidZ zu einem Pool zusammen zu fügen. Was meint ihr? Dann müsste ich nur den Controller und wohl Board+CPU+RAM ersetzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh