[Sammelthread] ZFS Stammtisch

Also ich hab aus meinen 4 HDDs einen striped mirror vdev zpool, einfach

zpool create TANK mirror hdd1 hdd2
zpool add TANK mirror hdd3 hdd4

ergibt:
Code:
pool: TANK
 state: ONLINE
 scan: none requested
config:

        NAME         STATE     READ WRITE CKSUM
        TANK      ONLINE       0     0     0
          mirror-0   ONLINE       0     0     0
            hdd1      ONLINE       0     0     0
            hdd2      ONLINE       0     0     0
          mirror-1   ONLINE       0     0     0
            hdd3      ONLINE       0     0     0
            hdd4      ONLINE       0     0     0

So hast du jeweils 2 HDDs im Raid 1 und die beiden Raid 1 laufen dann zusammen als Raid 0 = sehr guter Speed, hab da auch eine ganz nette Seite zu dem Thema: ZFS RAID levels » ZFS Build

@antilope114 Danke!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einfach aus Interesse gefragt: Was würde ich denn mit vier Platten am besten ein Mirroring konzipieren?

Wie AG1M schon schrieb, ein klassisches Raid10 oder was ZFS zusätzlich ermöglicht einen three-way mirror. Also die Daten auf drei HDDs gespiegelt, auf der vierten HDD kannst du dann z.B. snapshots/Backups anlegen. Wenn es dir auf max. Geschwindigkeit ankommt.
 
Meine Status eMails von napp-it haben seit Mai nicht mehr das Tagesdatum sondern immer 01.01.1970 12:23 Uhr.
Ich vermute mal, dass sich dies nach einem Update geändert hat. Habe z.Zt. 0.8h installiert.

Wie kann ich das Datum wieder gerade biegen?

napp-it macht am Datum ohne Zutun garnichts.
OI/Solaris macht am Datum ohne Zutun garnichts

-> Es wird das Bios Datum als default benutzt.
vermutlich ist lediglich die Batterie leer.

also Batterie tauschen und Bios Zeit neu stellen oder
Zeit per ntp stellen

Es hat jetzt ein bisschen länger gedauert. :sleep:

Inzwischen wurde die Batterie ausgetauscht.
Bios, vSphere und OI_148 zeigen alle das aktuelle Tagesdatum und -.zeit an.

Die Statusmeldungen haben aber als Erstellungsdatum immer noch den "Samstag, 30. Dezember 1899, 00:00:00"

@gea, liegt es dann doch an napp-it - beim generieren der eMail?
 
Es hat jetzt ein bisschen länger gedauert. :sleep:

Inzwischen wurde die Batterie ausgetauscht.
Bios, vSphere und OI_148 zeigen alle das aktuelle Tagesdatum und -.zeit an.

Die Statusmeldungen haben aber als Erstellungsdatum immer noch den "Samstag, 30. Dezember 1899, 00:00:00"

@gea, liegt es dann doch an napp-it - beim generieren der eMail?

Napp-it hat mit dem Datum nichts zu tun.
Ein Datum in der Mail wird z.B. von zpool status geliefert. Das Datum der Mail stammt vom Mailserver.
Ich würde mal den Header der Mail anzeigen lassen. Da setzt jeder an der Auslieferung beteiligte Mailserver
einen Zeitstempel. Vielleicht kann man daran erkennen, wo das Datum herkommt.
 
Mein 3TB Pool (1 mirror vdev) ist zu 90% voll, daher werde ich demnächst einen zweiten vdev hinzufügen.

Frage: Werden bereits vorhandene Daten von vdev 1 auf vdev 2 verteilt, sodass die beiden vdevs eine ähnliche Kapazitätsauslastung (im Beispiel dann also jeweils ca. 45%) haben? Oder greift der Verteilmechanismus des Raid 10 dann nur für Daten, die neu hinzukommen?
 
Hallo

@antilope114
die Daten werden nicht durch einen speziellen Mechanismus verteilt, sondern verteilen sich "von selbst" durch COW, funktioniert natürlich nur wenn Daten gelesen und wieder geschrieben werden. Werden Daten immer nur dazu geschrieben, dann in Zukunft fast nur auf das neue vdev.

Gruß
Ron
 
Es hat jetzt ein bisschen länger gedauert. :sleep:

Inzwischen wurde die Batterie ausgetauscht.
Bios, vSphere und OI_148 zeigen alle das aktuelle Tagesdatum und -.zeit an.

Die Statusmeldungen haben aber als Erstellungsdatum immer noch den "Samstag, 30. Dezember 1899, 00:00:00"

@gea, liegt es dann doch an napp-it - beim generieren der eMail?

Napp-it hat mit dem Datum nichts zu tun.
Ein Datum in der Mail wird z.B. von zpool status geliefert. Das Datum der Mail stammt vom Mailserver.
Ich würde mal den Header der Mail anzeigen lassen. Da setzt jeder an der Auslieferung beteiligte Mailserver
einen Zeitstempel. Vielleicht kann man daran erkennen, wo das Datum herkommt.

Das ist mal der Header:

Received: (qmail 30119 invoked from network); 15 Jun 2012 15:00:04 +0200
Received: from hsi-kbw-xxx-xxx-xxx-xxx.hsi8.kabel-badenwuerttemberg.de (HELO localhost.localdomain) (xx.x.xx.xxx)
by plesk84.42systems.eu with SMTP; 15 Jun 2012 15:00:04 +0200
From: oi@xyz.de
To: layerbreak@xyz.de

Subject: * napp-it status and logs from oi
X-CTCH-RefID: str=0001.0A0B020A.4FDB32E0.00B4,ss=1,re=0.000,fgs=0
MIME-Version: 1.0

Alle anderen eMails kommen aber mit dem richtigen Datum an, also vermute ich dass doch OI oder napp-it das falsche Datum setzt.
 
Das ist mal der Header:

Received: (qmail 30119 invoked from network); 15 Jun 2012 15:00:04 +0200
Received: from hsi-kbw-xxx-xxx-xxx-xxx.hsi8.kabel-badenwuerttemberg.de (HELO localhost.localdomain) (xx.x.xx.xxx)
by plesk84.42systems.eu with SMTP; 15 Jun 2012 15:00:04 +0200
From: oi@xyz.de
To: layerbreak@xyz.de

Subject: * napp-it status and logs from oi
X-CTCH-RefID: str=0001.0A0B020A.4FDB32E0.00B4,ss=1,re=0.000,fgs=0
MIME-Version: 1.0

Alle anderen eMails kommen aber mit dem richtigen Datum an, also vermute ich dass doch OI oder napp-it das falsche Datum setzt.

Ich kann da nichts ungewöhnliches entdecken.
Die Mailfunktion von napp-it basiert auf

Code:
 $text="Alert/ Error on $host from $date $hour\:$min\n\n$text";


 # sending mail via module Net::SMTP see http://perldoc.perl.org/Net/SMTP.html

  use Net::SMTP;

  my $mailer = Net::SMTP->new($server) || &mess('could not connect smtp-server $server');
  if (($user ne "") && ($pw ne "")) {
    $mailer->auth ($user,$pw);
  }
  $mailer->mail($from);

  @to=split(/,/,$to);
  foreach $t (@to) {
    $mailer->to($t. "\n") || &mess("send error to $t ");
  }

  $mailer->data();
  $mailer->datasend("From: $from\n");
  $mailer->datasend("To: $to\n");
  $mailer->datasend("Subject: $sub\n\n");

  $mailer->datasend("$text\n");
  $mailer->dataend();

  $mailer->quit;

Da wird auch nur from, to, subject und text an das smtp Modul übergeben.
Das Datum steht nur im Text der Mail.

Da mir auch kein weiterer derartiger Fall bekannt ist, muss es sich auf jeden Fall um
ein lokales Problem oder um ein Problem OI -> Mailserver handeln.
 
Ich kann da nichts ungewöhnliches entdecken.
Da mir auch kein weiterer derartiger Fall bekannt ist, muss es sich auf jeden Fall um
ein lokales Problem oder um ein Problem OI -> Mailserver handeln.

Ich hab jetzt mal auf den umgestellt und siehe da das Datum stimmt wieder.:banana:
Bis 30.04. hat immer alles funktioniert, habe keine Ahnung warum mein SMTP-Server jetzt das Datum verbiegt. :kotz::wut:
------------------------------------------------
EDIT:
Falschmeldung.
SMPT-Test in napp-it meldet mit dem richtigen Datum, aber nicht den Status-Bericht, der ist wieder 30.12.1899 bei immer noch Yahoo-SMTP-Server.

Jetzt versteh ich gar nichts mehr.
 
Zuletzt bearbeitet:
Kleine Frage in die Runde:

1. Wie sichert Ihr eure ZFS Pools (meine jetzt so Daten ab 2+ TB Aufwärts)
2. Und worauf sichert ihr?
3. Wie sind da die Geschwindkeiten/Möglichkeiten usw.


z.Z. sichere ich per rsync vom System 1 auf System 2 via Gigabitlan, da das 2. System etwas schwach ist mit einer Intel Atom CPU, leider nur max. 55-60 MB/s mit rsync trotz Daemonmodus.
 
über LAN sichern geht am schnellsten mit zfs send/receive und mbuffer statt ssh.
Damit hat auch der Atom keine Lastprobleme.
 
Es kommt darauf an. Üblicherweise ist Backup über LAN auf eine zweite/dritte Maschine an
einem anderen physikalischen Ort gut, sicher und schnell.

Es gibt dann drei Möglichkeiten:

1. Replikation (1:1 Duplikat) eines Dateisystems mit zfs send
Dabei werden alle Eigenschaften, snaps, ACL, Volumes, share attribute etc kopiert. Da zfs send incrementell und blockbasiert arbeitet, kann man damit fast realtime replikationen z.B. bis zu jeder Minute machen.

Während der Replikation ist das Ziel aber nicht verfügbar. Als Übertragungsprotokoll ist ssh (sicher, langsam) oder mbuffer oder netcat (sehr schnell, unverschlüsselt) möglich. Mit mbuffer habe ich schlechte Erfahrung. Da hatte ich nach einigen hundert GB häufig Verbindungsabbrüche und nehme daher netcat.

2. Filebasiert
Die schnellste Möglichkeit ist tar über netcat zumal damit auch Solaris ACL übertragen werden können.
Rsync ist das übliche Verfahren, ist aber relativ langsam und sichert keine Solaris/Windows ACL.
Sollte mit snaps auf dem Ziel kombiniert werden.

3. Auf einem Client
Ich syncronisiere teilweise im Terabyte Bereich Ordner mit mehreren 100 Tausend Files mit robocopy (kostenlos bei Win 7 dabei). Ultrastabil und schnell und vor allem kann es auch ACL sichern. Sollte mit snaps auf dem Ziel kombiniert werden.


Darüber hinaus gibt es weitere zentral managebare Lösungen z.B. ndmpcopy oder Lösungen diverser Backuphersteller (z.B. Amanda)
 
Zuletzt bearbeitet:
Besten Dank ihr beiden :)

Zu dem tar ist es da auch so Möglich wie bei rsync eine Spiegelung zu machen, so dass ich nicht alles bei Änderungen kopieren muss, sondern immer automatisch abgelichen wird? Also wie bei rsync
Code:
rsync -av --delete
immer den gleichen Stand zu haben?

Gibt es da ein paar nette FAQs / Bestpratice / Beispiele für zfs send mit netcat und tar?

Und Robocoby nutze ich auch, super stabil und erfüllt seinen Zweck :)
 
Zuletzt bearbeitet:
Besten Dank ihr beiden :)

Zu dem tar ist es da auch so Möglich wie bei rsync eine Spiegelung zu machen, so dass ich nicht alles bei Änderungen kopieren muss, sondern immer automatisch abgelichen wird? Also wie bei rsync
Code:
rsync -av --delete
immer den gleichen Stand zu haben?

Gibt es da ein paar nette FAQs / Bestpratice / Beispiele für zfs send mit netcat und tar?

Und Robocoby nutze ich auch, super stabil und erfüllt seinen Zweck :)

Bei tar kann man nur eine Dateiliste der zu sichernden Daten angeben. Der Rest muss leider manuell gemacht werden. (Oder per scripte automatisiert werden, recht aufwändig).

Zu zfs send gibt es eine Reihe von kostenlosen scripten (Googeln oder auch in diesem thread vorgestellt).
Hauptnachteil von zfs send und tar ist, dass man auf beiden Seiten aktiv werden muss.
Ohne eine "Fernsteuerung" ist es nicht so einfach oder erfordert Zeit syncron halten und cron-jobs oder eben ssh (langsamer)
 
Zuletzt bearbeitet:
Alles klar danke, dann weiß ich schon wieder etwas neues :)
 
Guten morgen,

kleine Frage gibt es bei ZFS v28 und "echten" 4 KB Sektoren HDDs etwas zu beachten, hatte bisher immer nur max. 512 Byte (4 KB mit Emulation) Samsung 2 TB HDDs? Muss man vorher ein GPT Label schreiben (MBR wär ja falsch oder?), oder gibt es da nichts zu beachten?

Ah schon gefunden :) http://blog.monsted.dk/?q=node/1
 
Zuletzt bearbeitet:
Habe 4 SAS Platten an meinem 9211-4i, eine davon würde ich gerne gegen ein neues Laufwerk tauschen. Wie kann ich ohne trial and error herausfinden, welche Platte am Controller Disk 0 ist?

andreas@linda:~# format -e
Searching for disks...done


AVAILABLE DISK SELECTIONS:
0. c0t5000C50034013A43d0 <SEAGATE-ST33000650SS-0002-2.73TB>
/scsi_vhci/disk@g5000c50034013a43

1. c0t5000C5003401598Fd0 <SEAGATE-ST33000650SS-0002-2.73TB>
/scsi_vhci/disk@g5000c5003401598f
2. ....


edit/ Hab's - wen es interessiert:

smartctl -d scsi -a /dev/rdsk/c0t5000C50034013A43d0 | grep "Serial"
zeigt mir die Seriennummer an.
 
Zuletzt bearbeitet:
Gibt es eigentlich eine Möglichkeit das alle Platten auf einmal aus dem Standby aufwachen? Das dauert bei 5 Disks im RaidZ1 immer unglaublich lange weil die nacheinander einen Spinup machen.
 
Hallo,

bin gerade am optimieren was mir als Geschwindigkeitszuwachs helfen könnte (man ist ja nie zufrieden) :)

So sieht mein aktueller zpool (v28) aus:

Code:
  pool: storage
 state: ONLINE
 scan: none requested
config:

        NAME         STATE     READ WRITE CKSUM
        storage      ONLINE       0     0     0
          mirror-0   ONLINE       0     0     0
            da0      ONLINE       0     0     0
            da1      ONLINE       0     0     0
          mirror-1   ONLINE       0     0     0
            da2      ONLINE       0     0     0
            da3      ONLINE       0     0     0
        logs
          mirror-2   ONLINE       0     0     0
            ada0s1a  ONLINE       0     0     0
            ada1s1a  ONLINE       0     0     0
        cache
          ada0s1b    ONLINE       0     0     0
          ada1s1b    ONLINE       0     0     0

da0 bis da3 sind vier normale 2 TB SATA2 HDDs, ada0 + ada1 sind jeweils zwei 60 GB Intel SSDs, soweit so gut. 16 GB Ram stehen dem Host zur Verfügung, die FreeBSD 9.0 boot/loader.conf ist schon auf die 16 GB Ram optimiert. (FreeBSD Evil ZFS Tuning usw.)

Nun ist ja Standardmäßig ZFS "primarycache" + "secondarycache" auf "all" gesetzt, nun habe ich aber Testweise mal nur auf "metadata" gestellt und gleich einen Performanceboost bekommen beim kopieren. Seltsam war es aber das ich Datenraten von etwa max. 131 MB/s hatte und kurz vorm Ende ging es runter auf 8 MB/s dann wieder nach oben auf 100+ MB/s, zwischendurch immer mal auf bis 75 MB/s runter, eben sehr schwankend. Es handelt sich dabei aber nur um eine 10 GB große Image Datei. Der Kopiertest erfolgte auf eine Wechselfestplatte, welche auch 2 TB groß war und als ZFS pool mit nur einer Disk eingestellt war. Ist diese Schwankung "normal"?

Bei der Orcalehilfe steht:

primarycache – Kontrolliert, was im ARC gespeichert wird.
secondarycache – Kontrolliert, was im L2ARC gespeichert wird.

Mögliche Werte für beide Eigenschaften – all, none und metadata. Ist diese Eigenschaft auf all gesetzt, werden sowohl Benutzerdaten als auch Metadaten im Cache gespeichert. Ist diese Eigenschaft auf none gesetzt, werden weder Benutzerdaten noch Metadaten im Cache gespeichert. Ist diese Eigenschaft auf metadata gesetzt, werden nur Metadaten im Cache gespeichert. Die Standardeinstellung ist all.

Könnt ihr mir etwas helfen, wie man nun die optimale/stabile Schreibperformance das ganze Einstellen sollte? Danke :)
 
Guten morgen,

kleine Frage gibt es bei ZFS v28 und "echten" 4 KB Sektoren HDDs etwas zu beachten, hatte bisher immer nur max. 512 Byte (4 KB mit Emulation) Samsung 2 TB HDDs? Muss man vorher ein GPT Label schreiben (MBR wär ja falsch oder?), oder gibt es da nichts zu beachten?

Ah schon gefunden :) Fixing the ZFS ashift problem on FreeBSD | blog.monsted.dk

also nach meinen Infos gibt es (noch) keine echten 4K Laufwerke, die AF Laufwerke emulieren allesamt eine Sektorgrösse von 512 Byte an der Schnittstelle (SATA), d.h. die Platten haben intern 4K Sektoren, werden aber wie ALLE Platten mit 512 Byte Sektoren adressiert!!

Ich verstehe in diesemn Zusammenhang die 4KB Emulation nicht - meinst du die Clustergrösse vom Dateisystem?
 
Zuletzt bearbeitet:
hi,

bin auf meiner zfs recherche auf den thread hier gestoßen.
ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.
unter linux wäre ja wahrscheinlich LUKS die beste wahl?
wie kombiniere ich das mit zfs? brauch ich zfs-fuse? ist ja langsamer als die zfs implementierungen im kernel wenn ich das richtig verstanden habe.
kann ich erst das os booten, dann die disks mit luks mounten und dann zfs aktivieren?

thx & gruß,
soomon
 
Zfs cheksumming

Hey ho
Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

Vielen Dank
 
Hey ho
Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

Vielen Dank

Die Frage ist nicht ganz eindeutig: zvols bzw. LUNs werden von ZFS nur als Ganzes mit chksums versehen, die Inhalte sind für ZFS nicht transparent.

hi,

bin auf meiner zfs recherche auf den thread hier gestoßen.
ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.

Du brauchst für dein Vorhaben kein dedup. Um genau zu sein brauchen 98% der Anwender kein dedup weil sie meist nichtmal die notwendigen Hardware-Vorraussetzungen (d.h. genug RAM für die dedup-table) mitbringen.
Für Backups ist ein ext4-Dateisystem mit LUKS vollkommen ausreichend. Ich würde sogar argumentieren, dass du mit zfs-fuse schlechter gestellt bist unter Linux als mit ext4, das nativ im Kernel integriert ist.
 
Zuletzt bearbeitet:
hi,

bin auf meiner zfs recherche auf den thread hier gestoßen.
ich will meinen backuprechner bzw mediapc neu aufsetzen und würde gerne ZFS wegen der sicherheit und deduplikation verwenden, jedoch will ich definitiv verschlüsselung.
unter linux wäre ja wahrscheinlich LUKS die beste wahl?
wie kombiniere ich das mit zfs? brauch ich zfs-fuse? ist ja langsamer als die zfs implementierungen im kernel wenn ich das richtig verstanden habe.
kann ich erst das os booten, dann die disks mit luks mounten und dann zfs aktivieren?

thx & gruß,
soomon

ein paar Gedanken dazu:

- ZFS Verschlüssellung im Dateisystem gibt es auschließlich (mit Vor- und Nachteilen) bei Oracle Solaris 11
- ZFS Verschlüssellung auf verschlüsselten Devices/ Dateien gibt es bei any Solaris/ OpenIndiana/ FreeBSD/ Linux
- ZFS/ Fuse ist ein nogo: Kernel Implementierung bei Linux nehmen;
das schnellste/neueste/stabilste ZFS und den besten SMB/iSCSI Server gibts bei Solaris/OI
- dedup ist nur bei ganz wenigen Anwendungen sinnvoll: braucht immens RAM (realtime dedup)
 
Bei meinen SAS-Platten bemerke ich, dass die (sequentielle) Performance über NFS ab etwa 60-70% Füllstand merklich nachlässt. Dateien die früher geschrieben wurden kann ich mit 80-90 MB/s lesen, solche, die bei höherem Füllstand dazukommen (also ab der genannten Grenze etwa) teilweise nur mit 40-50 MB/s.

Gibt es Best Practices zum "optimalen" Füllstand? Habe mal irgendwo gelesen, dass man die Festplatten idealerweise nicht mehr als 80% befüllt um nicht merklich an Performance zu verlieren.

Theoretisch sollte das ja kein ZFS-spezifisches Problem sein, sondern in der Struktur der Magnet-Platter bzw. dem mechanischen Aufbau der Festplatte begründet liegen.
 
Zuletzt bearbeitet:
Bei meinen SAS-Platten bemerke ich, dass die (sequentielle) Performance über NFS ab etwa 60-70% Füllstand merklich nachlässt. Dateien die früher geschrieben wurden kann ich mit 80-90 MB/s lesen, solche, die bei höherem Füllstand dazukommen (also ab der genannten Grenze etwa) teilweise nur mit 40-50 MB/s.

Gibt es Best Practices zum "optimalen" Füllstand? Habe mal irgendwo gelesen, dass man die Festplatten idealerweise nicht mehr als 80% befüllt um nicht merklich an Performance zu verlieren.

Theoretisch sollte das ja kein ZFS-spezifisches Problem sein, sondern darin begründet liegen, dass die Daten eben an den Rändern der Platter nicht mehr so dicht geschrieben werden.

das sehe ich eher als "Fragmentierungsproblem".
Je weniger freie Blöcke, desto weniger sequentielle Datentransfers.

Ich würde kein Dateisystem mehr als 90% füllen, < 70% ist die sichere Seite

---------- Post added 26.06.12 at 00:02 ---------- Previous post was 25.06.12 at 23:58 ----------

Hey ho
Wenn ich mit ZVOL ein virtuelles Block device innerhalb eines Zpools erzeuge; wird dann jeder Block dieses Device auch mit einer ckecksum versehen?

Vielen Dank

Die Benennung ist nicht ganz eindeutig.
ZFS schreibt alle Daten mit Prüfsummen auf Datenpools.
Blockdevices (volumes) auf einem ZFS Pools sind Daten/devices, die wie eine Festplatte verwaltet werden.

Davon unabhängig sind das ZFS Daten - die immer mit Prüfsumme geschrieben werden.
 
Ich würde kein Dateisystem mehr als 90% füllen, < 70% ist die sichere Seite

Weißt du, nach welchem Algorithmus zfs Daten beispielsweise bei einem striped mirror auf einzelne vdevs alloziert?
 
Weißt du, nach welchem Algorithmus zfs Daten beispielsweise bei einem striped mirror auf einzelne vdevs alloziert?

Wenn auf allen vdevs ausreichend Platz ist würde ich sagen: gleichmäßig verteilt
- denn nur dann hat man die addierte Performance alller Platten/vdevs
 
Zuletzt bearbeitet:
Moin,

Ich bin grad dabei mir einen (bzw. zwei) neue Fileserver basierend auf FreeNAS aufzubauen.
Die Systeme sollen meinen bisherigen Gentoo-Fileserver ersetzen; der 2. Server soll als Backupserver für den ersten fungieren (via rSync) und wäre nicht dauerhaft in Betrieb bzw. aus Sicherheitsgründen nicht dauerhaft am Netz, sondern würde die meiste Zeit Off-Site stehen.

Im Kontext von ZFS (es soll ein "einfaches" Raid-Z1 mit 6x 4TB eingesetzt werden) wird erwähnt, daß man ZFS pi mal Daumen 1GB RAM/TB HDD-Space gönnen sollte.
Braucht man wirklich für eine Single-User Umgebung, die eh von der GB-LAN Anbindung der Server limitiert ist, so viel RAM?

Oder bezieht sich diese Angabe eher auf reguläre Serverworkloads mit Multiuserzugriffen/hohen Ramdom-IO-Workloads, wo der RAM als Cache fungieren würde?

Als Hardware soll folgendes zum Einsatz kommen:

6 x Hitachi Deskstar 7K4000 4000GB, SATA 6Gb/s (0F14681/0S03363)
1 x Intel Xeon E3-1230, 4x 3.20GHz, Sockel-1155, boxed (BX80623E31230)
4 x Kingston ValueRAM Elpida DIMM 4GB PC3-10667E ECC CL9 (DDR3-1333) (KVR1333D3E9S/4GEC)
1 x Supermicro X9SCL-F Retail, C202 (Sockel-1155, dual PC3-10667E DDR3)
1 x Fractal Design Define Mini (FD-CA-DEF-MINI-BL)
1 x Cougar A400 400W ATX 2.3

Das ganze wird noch ergänzt um:

--> http://geizhals.at/de/478381
Da passen hinten direkt die Sata->USB Platinen aus diesen exteren Geäusen dran:
--> http://geizhals.at/de/500065 (2x)
Und dazu noch
--> http://geizhals.at/de/720072

Damit kriege ich dann noch zwei weitere 1TB 2,5' HDDs in das Gehäuse bzw. am Mainboard angeschlossen ohne einen zusätzlichen HDD-Controller verbauen zu müssen.
USB 2.0 sollte von der Performance für die TimeMachine-HDD und perspektivisch den iTunes-Musik-Server def. ausreichen.
Dann landen auf dem Array nur noch meine VideoFiles und Backups.

Wenn meine Rechnung aufgeht, sollte das Ding dann ca. 75W bei 26TB Brutto schlucken, was man noch um 15W reduzieren könnte, wenn man statt 7200er auf 5400er HDDs setzt (die 4TB 5400er sind aber derzeit nirgends lieferbar).
 
Zuletzt bearbeitet:
Kurze Anmerkung: 16GB Ram is schon OK, aber ich würde:

- Solaris oder OI/Illumos statt Freenas nehmen, ZFS ist dort einfach deutlich schneller.
- RaidZ2 verwenden, denn ein Resilver von vollen 4TB Platten dürfte 2 Tage dauern. Bei 6 Platten ist RaidZ2 auch von der Performance her besser. Ansonsten bei RaidZ1 nur 5 Platten nehmen.

cu
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh