[Sammelthread] ZFS Stammtisch

Er meint ja auch die "Zacken" nach unten in seinen Screens. Dadurch ist die mittlere Auslastung eher bescheiden. Ich habe das Problem mit einem N40L und ZFS RaidZ auch, komme dabei aber nur knapp über 70% Auslastung.
Etwas besser wurde es, als ich die Stromsparung der CPU komplett abgeschaltet habe. Zumindest bei meinem HP N40L scheint sich die irgendwie aufzuschaukeln.

Old-Papa
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wären die 90% konstant sähe die Welt auch anders aus. Aber bei solchem gezitter ist es ein Krampf das NAS zu benutzen.
Also sollte ich eher nach einer Lösung mit Solaris suchen als FreeBSD zu verwenden?
 
Hab ganz vergessen den Benchmark nachzuliefern, der Striped Mirror aus 4 HDDs unter Solaris 11.1 läuft nun deutlich besser als unter Solaris 11.0, irgendwas hat es damals mit der modifzierten zpool für ashift=12 und dem zfs pool upgrade auf V33 bei Solaris 11.0 Probleme gemacht, jetzt ist das ordentlich mMn.

Code:
root@ZFSSERVER:~# time dd if=/dev/zero of=/mnt/storage/dd.tst bs=2048000 count=16301
16301+0 records in
16301+0 records out

real    1m26.754s
user    0m0.067s
sys     0m18.923s

= 376 MB/s Write

...2 Minuten warten...

Code:
root@ZFSSERVER:~# time dd if=/mnt/storage/dd.tst of=/dev/null bs=2048000
16301+0 records in
16301+0 records out

real    1m35.687s
user    0m0.041s

= 341 MB/s Read

Und der normale Mirror aus 2 HDDs ist nun auch viel besser (besonders beim lesen):

Code:
root@ZFSSERVER:~# time dd if=/dev/zero of=/mnt/archiv/dd.tst bs=2048000 count=16301
16301+0 records in
16301+0 records out

real    2m54.462s
user    0m0.062s
sys     0m17.622s

= 188 MB/s Write

....2 Minuten warten...

Code:
root@ZFSSERVER:~# time dd if=/mnt/archiv/dd.tst of=/dev/null bs=2048000
16301+0 records in
16301+0 records out

real    2m33.755s
user    0m0.050s
sys     0m12.341s

= 212 MB/s Read
 
Zuletzt bearbeitet:
ja - hab ich, ist die frage ob ich das autoexoand vorher hätte aktivieren müssen und das das im nachhinein nicht mehr geht ?


ok, ein reboot hilft -jetzt hat es geklappt :) Danke :)
 
Zuletzt bearbeitet:
Neues:

Netatalk 3.0.1
läuft jetzt unter OmniOS mit dem Installer aus dem Repository der Uni Ulm
OmniOS Package Repository: uulm.mawi

Installation (OmniOS stable und bloody):
wget -O - www.napp-it.org/afp | perl

Der wget Installer beachtet, dass netatalk damit woanders installiert wird als unter OpenIndiana oder Solaris
und napp-it dann damit klar kommt.


Guides:
ServeTheHome beginnt gerade mit einer Reihe Anleitungen zu ZFS Server auf Basis von Illumos (z.B. OI, OmniOS)
Erster Beitrag: Installing and Configuring napp-it and OpenIndiana ZFS - ServeTheHomeServeTheHome – Server and Workstation Reviews


deutsche Version
napp-it 0.9a5 läßt sich jetzt weitestgehend in andere Sprachen übersetzen. (Menü about - translation)
Die deutsche Übersetzung in 0.9a5 ist bereits ziemlich komplett
 
Zuletzt bearbeitet:
Ich bin jetzt nicht ganz sicher ob das hier passt, aber in einem meiner RaidZ2 aus 8x Samsung HD204 2TB ist jetzt eine Platte ausgefallen. Lokal kann ich folgende 2TB Platten bekommen:
Western Digital Festplatte WD20EARX
Seagate Festplatte ST2000DM001
2000GB WD Red
Festplatte 2TB SEAGATE Barracuda Green 5900.3

Hat irgendwer Erfahrungen welche davon problemfrei mit den Samsungs laufen?
 
Die Frage sollte lauten, welche davon allg. als zuverlässig bekannt ist.

Der Witz bei ZFS ist doch gerade, dass man irgendwas dazustecken kann. Hauptsache die Größe passt.
 
Ja aber moeglicherweise passt halt die groesse nicht bei allen, da die Hersteller ihre TB angeben ja gerne mal grosszuegig interpretieren.
 
Die Frage sollte lauten, welche davon allg. als zuverlässig bekannt ist.

Der Witz bei ZFS ist doch gerade, dass man irgendwas dazustecken kann. Hauptsache die Größe passt.

...nicht ganz...ashift muss auch passen.

Die WDEARX und WDRed haben definitiv 4k Sektoren...lassen sich so in einen pool mit ashift=9 nicht einbauen.
Bei den beiden Seagate bin ich mir nicht sicher, denke aber die haben das gleiche Problem.
Die WDEARX hat immer noch diesen Jumper um sie auf 512b Emulation umzustellen, glaube ich...ob ZFS das aber merkt weiss ich nicht.
Meine ungejumperte EARX wollte jedenfalls nicht von "Spare" in den den Slot, als es mal soweit war. :heul:

Als Alternative fallen mir die Hitachi 5k ein...die laufen mit ahift=9

---------- Post added at 14:30 ---------- Previous post was at 14:27 ----------

Ja aber moeglicherweise passt halt die groesse nicht bei allen, da die Hersteller ihre TB angeben ja gerne mal grosszuegig interpretieren.

...im Zweifel immer eine Nummer grösser kaufen :rofl:
Im Ernst...wenn Du dann alle Platten durch hast, kannst Du den Pool gleich vergrössern....
 
Naja ich wollte mit nem neuen Pool eigentlich auf die 5TB Platten warten in der Hoffnung, dass ich mir dann einen Satz 4TB leisten kann
 
Bis neue HDDs mit noch größeren Sektoren auf den Markt kommen. Oder glaubt ihr ernsthaft das es das war? :)

Doch, ich denke schon. Native 4K-Laufwerke werden kommen (wenn gewisse Betriebssysteme endlich damit umgehen können), dann wars das. Der Wechsel auf 4K kam ja unter anderem, weil man seit längerer Zeit im Normalfall 4K als untere Grenze der Clustergröße in Dateisystemen benutzt. Je nach Anwendung auch mehr, aber eben kaum weniger. Datenbanken nutzen scheinbar 8K. Kleine Dateien werden aber immer klein bleiben*.
Und weil die Checksummenbildung und insbesondere die Fehlerkorrektur auch bei 4K-Blöcken noch anständig funktioniert. Je größer der ECC-Block, desto besser kann man Bitfehler korrigieren, aber desto aufwändiger wird die Sache ja auch. Bisher musste man mit 50 Bytes 512 Bytes an Daten rekonstruieren. Neuerdings muss man aus 100 Bytes 4096 Bytes wieder zusammenflicken. Wies wohl wird, wenn man mit 200 Bytes 16384 Bytes rekonstruieren soll? Ich bin kein Mathematiker, aber die Komplexität steigt da sicherlich nicht linear...damit haste noch höhere Latenzen und entsprechenden Bedarf an Rechenleistung auf der Platine. Manche Platten zeigen ja reale ECC-Korrekturen an, und die gehen bei Transfers von n paar hundert GB auch mal schnell in die Milliarden Stück. Bei 512B-Sektoren wohlgemerkt.

Die Platzersparnis auf dem Platter ist sicherlich willkommen, schrumpft mit immer größeren Sektoren aber zunehmend zusammen. 512B->4096B hat da noch schick was gebracht, aber 4K->?K wirds nicht mehr rausreißen. Was würdest du denn vorschlagen? 8K? Kleiner Hüpfer, wird man wohl nicht machen. 16K? Denkbar, vielleicht Gleichstand mit künftiger Pagesize von SSDs. 32K wären ein Kandidat. 64K sind schon jenseits der maximalen Clustergröße von FAT32 und älterer NTFS-Versionen. 128K reißt auch neueres NTFS. Und weils hier ja um ZFS geht wollen wir mal nicht untern Tisch kehren, dass da auch vernünftige Stripesizes rausspringen müssen. Minimal muss die Stripesize ja der Clustergröße entsprechen, und jene soll nicht unter der physikalischen Sektorgröße liegen. Macht eine immer höhere Anzahl kleinerer Daten, die überhaupt nicht auf mehrere Platten verteilt werden, bzw. durch entsprechende Einstellung einfach dupliziert werden, also Mirroring statt Z1/2/3. Das ist auch nicht Sinn der Sache und hebt manchen Vorteil von ZFS einfach auf.

*Mal n Zahlenspiel: Ich als Linuxer hab auf /, exklusive /home, /proc und /dev, 600.644 Files und 63117 Ordner liegen, Gesamtgröße läppische 25,8 GiB für mein Gesamtsystem. Das macht pro Datei 45,0 KiB. Bei 32K-Clustern hätt ich damit pro zwei belegter Cluster einen halben als Verschnitt. Alleine das ist schon ziemlicher Wahnsinn und hebt jeden Speicherplatzgewinn durch bessere Platterausnutzung auf. Klar, ich kann mit kleineren Clustern als physikalisch vorhanden partitionieren. Drückt die Performance halt entsprechend. In der Rechnung ist aber gar nicht mit drin, dass der Großteil der Datenmenge in ganz wenigen Dateien vorhanden sind. Die 55 Dateien oberhalb von 50 MB machen alleine ~8,0 GiB aus. Drückt die restliche durchschnittliche Größe auf 31,0KiB. Damit wäre die durchschnittliche Dateigröße kleiner als die Sektorgröße. Geile Sache - denn alles was drunter liegt braucht trotzdem 32K, egal wie klein, und alles drüber braucht mindestens 64K. Das bläst mir den vermeintlichen Platzverbrauch auch wieder enorm auf.
Aus Windowssicht isses nicht besser, XP war noch kompakt, Vista/7 verfolgen aber ebenfalls die Zersplitterungsstrategie. Wenn du eins zur Hand hast, schau dir doch mal die Eigenschaften des Systemordners an. Ggf. mit Tools wie jdiskreport, die sortieren das nämlich gleich mal hübsch:

Ubuntu:
Code:
Distribution of sizes in /
Size Interval	Sum of File Sizes (KB)	% of Total	Files	% of Files
Over 16 GB	0			0,0%		0	0,0%
4 GB – 16 GB	0			0,0%		0	0,0%
1 GB – 4 GB	0			0,0%		0	0,0%
256 MB – 1 GB	1.236.042		4,5%		2	0,0%
64 MB – 256 MB	3.177.712		11,6%		35	0,0%
16 MB – 64 MB	4.866.759		17,8%		156	0,0%
4 MB – 16 MB	4.871.858		17,8%		648	0,1%
1 MB – 4 MB	3.689.495		13,5%		1.874	0,3%
256 KB – 1 MB	3.635.312		13,3%		7.610	1,3%
64 KB – 256 KB	2.829.488		10,4%		23.268	4,0%
16 KB – 64 KB	1.727.845		6,3%		55.749	9,5%
4 KB – 16 KB	892.246			3,3%		105.531	18,1%
1 KB – 4 KB	327.032			1,2%		156.206	26,7%
0 KB – 1 KB	64.255			0,2%		233.361	39,9%
67% aller Files (389k!) haben also 4K oder weniger...

Windows:
Code:
Distribution of sizes in /media/root/tx64

Size Interval	Sum of File Sizes (KB)	% of Total	Files	% of Files
Over 16 GB	0			0,0%		0	0,0%
4 GB – 16 GB	0			0,0%		0	0,0%
1 GB – 4 GB	2.097.152		9,7%		1	0,0%
256 MB – 1 GB	0			0,0%		0	0,0%
64 MB – 256 MB	713.248			3,3%		5	0,0%
16 MB – 64 MB	2.323.233		10,8%		84	0,1%
4 MB – 16 MB	5.685.345		26,4%		772	0,9%
1 MB – 4 MB	4.957.933		23,0%		2.590	2,9%
256 KB – 1 MB	3.331.815		15,5%		6.498	7,2%
64 KB – 256 KB	1.637.234		7,6%		13.086	14,6%
16 KB – 64 KB	578.356			2,7%		16.841	18,8%
4 KB – 16 KB	152.791			0,7%		17.638	19,7%
1 KB – 4 KB	52.626			0,2%		23.106	25,8%
0 KB – 1 KB	4.392			0,0%		9.090	10,1%

Klar, dann kann man wieder mit Spielchen anfangen wie Kleinstdateien in den MFT-Bereich zu schieben, oder Inodes mit Datenanhängseln aufzublasen, oder...


Meinen Pool ist noch mit ashift=9 daran hatte ich gar nicht gedacht.

Nachdem die HD204UI schon 4K-Laufwerke sind, ist der Pool vermutlich von vorn herein schon falsch angelegt worden. Blöd, dass es jetzt mit Laufwerken, die sich identisch verhalten, nicht mehr weiter geht
Ich würd dir ja ne HD203WI im Austausch anbieten, aber bis mein System steht wirds noch mindestens bis tief in die Semesterferien dauern. :coffee:
 
Ich dachte, die Problematik ist erschöpft und man macht Pools nur noch mit ashift=12.

Meinen Pool ist noch mit ashift=9 daran hatte ich gar nicht gedacht.

...ja, eigentlich...aber ich dachte die Samsungs "lügen" genauso wie die WDEARS der ersten Generation...wie man sieht lag ich nicht falsch.

...also ein Backup ziehen und Pool neu aufbauen oder 512b Platte kaufen...wie gesagt, ich weiss nicht wie sich die aktuellen WDEARS mit dem 512b-Jumper verhalten...
 
Euch ist schon klar dass quasi jede aktuell erhältliche Festplatte intern 4K ist und die 512Byte nur aus Kompatibilitätsgründen emuliert werden? Und das ist eigentlich nicht erst seit gestern so, das fing schon 2009 an.

Ob die Platten nun 512Byte-Sektoren emulieren oder nicht ist doch völlig egal, die physikalischen Sektoren sind und bleiben 4k, also ist nur ashift=12 richtig. Also keine großen Gedanken drüber machen und bei jeder Poolerstellung zur Sicherheit extra manuell ashift=12 setzen, so ist man immer auf der sicheren Seite.
 
Hey Bzzz,

wie hast du denn die Statistik über die Filesize erstellt?
Wäre mal ganz hilfreich
 
Euch ist schon klar dass quasi jede aktuell erhältliche Festplatte intern 4K ist und die 512Byte nur aus Kompatibilitätsgründen emuliert werden? Und das ist eigentlich nicht erst seit gestern so, das fing schon 2009 an.

Ob die Platten nun 512Byte-Sektoren emulieren oder nicht ist doch völlig egal, die physikalischen Sektoren sind und bleiben 4k, also ist nur ashift=12 richtig. Also keine großen Gedanken drüber machen und bei jeder Poolerstellung zur Sicherheit extra manuell ashift=12 setzen, so ist man immer auf der sicheren Seite.

Meinen Pool ist noch mit ashift=9 daran hatte ich gar nicht gedacht.

Ja das ist klar...auch klar ist, das dies vom System nicht immer automagisch so gemacht wird, weil manche Platten über ihr Sektor-layout "lügen"...und hier haben wir einen "alten" Pool mit ashift=9...warum auch immer das so ist und ich hatte nicht den Eindruck, das der OP den Pool neu aufbauen möchte....eine Platte kaufen, die sich in einen pool mit ashift=9 integrieren lässt - ob nun physikalisch 4k oder nicht - wäre also hier die richtige "Medizin".
 
Doch, ich denke schon. Native 4K-Laufwerke werden kommen (wenn gewisse Betriebssysteme endlich damit umgehen können), dann wars das. Der Wechsel auf 4K kam ja unter anderem, weil man seit längerer Zeit im Normalfall 4K als untere Grenze der Clustergröße in Dateisystemen benutzt. Je nach Anwendung auch mehr, aber eben kaum weniger. Datenbanken nutzen scheinbar 8K. Kleine Dateien werden aber immer klein bleiben*.
Du glaubst auch daran, dass sich die ganze Welt um ein Dateisystem von einer Firma aus Redmond dreht? ;)
Microsoft support policy for 4K sector hard drives in Windows Ab Windows 7 SP1 gibt es auch keine Probleme mit nativen 4kbyte HDDs.
Die HDD Hersteller haben schon ~2002-2004 herum beschlossen die Sektorgröße zu erhöhen.
MO-Laufwerke können schon seit mindestens 1998 herum mit 512Byte, 1kByte, 2kByte und 4kByte formatierten Disks umgehen,
Datenbanken verwenden im Extremfall ihr eigenes Dateisystem oder waren auch auf SAS/SCSI-Festplatten angewiesen, welche man anderes als mit nur 512Byte Sektoren formatieren kann. Ja, so etwas gibt es heutzutage immer noch!
Ich bin kein Mathematiker, aber die Komplexität steigt da sicherlich nicht linear...damit haste noch höhere Latenzen und entsprechenden Bedarf an Rechenleistung auf der Platine. Manche Platten zeigen ja reale ECC-Korrekturen an, und die gehen bei Transfers von n paar hundert GB auch mal schnell in die Milliarden Stück. Bei 512B-Sektoren wohlgemerkt.
Bitte nicht irgendwelche Werbeaussagen der Marketingabteilungen nachplappern. Die 4kbyte Sektoren bei HDDs hatten drei Hintergründe:
  • 32Bit LBA-Limit der meisten Systeme erlaubt nur max. 2TByte bei 512Byte Sektoren (die Laufwerkselektronik muss die Sektoren auch ansteuern können)
  • Der Verwaltungsaufwand für die Masse an Sektoren sollte verringert werden. Bei der Verwaltung von RAM gibt es auch größere Page-Sizes, ohne diese wäre die CPU zu ~99% damit ausgelastet freie Speicherbereiche bei 2+TByte verbautem RAM zu suchen.
  • Man spart sich viele Markierungen und ECC-Prüfsummen ein und kann damit bei gleicher Datendichte rund 11% mehr an Kapazität dem Kunden verkaufen ohne das man die Datendichte steigern musste.
SAS-HDDs haben schon lange zwei Controller auf der Platine, an Resourcen oder gar Platz fehlt es bei weitem nicht. Das aktuelle Laufwerke auf die ECC-Fehlerkorrektur angewiesen sind ist schon lange kein Geheimnis mehr.
Die Platzersparnis auf dem Platter ist sicherlich willkommen, schrumpft mit immer größeren Sektoren aber zunehmend zusammen. 512B->4096B hat da noch schick was gebracht, aber 4K->?K wirds nicht mehr rausreißen. Was würdest du denn vorschlagen? 8K? Kleiner Hüpfer, wird man wohl nicht machen. 16K? Denkbar, vielleicht Gleichstand mit künftiger Pagesize von SSDs. 32K wären ein Kandidat. 64K sind schon jenseits der maximalen Clustergröße von FAT32 und älterer NTFS-Versionen. 128K reißt auch neueres NTFS. Und weils hier ja um ZFS geht wollen wir mal nicht untern Tisch kehren, dass da auch vernünftige Stripesizes rausspringen müssen. Minimal muss die Stripesize ja der Clustergröße entsprechen, und jene soll nicht unter der physikalischen Sektorgröße liegen. Macht eine immer höhere Anzahl kleinerer Daten, die überhaupt nicht auf mehrere Platten verteilt werden, bzw. durch entsprechende Einstellung einfach dupliziert werden, also Mirroring statt Z1/2/3. Das ist auch nicht Sinn der Sache und hebt manchen Vorteil von ZFS einfach auf.
Das schöne an Software-Raid ist, diese sind konfigurierbar. Die Stripesize von 128kbyte ist nur der Standard bei ZFS, der verwendet wird wenn man keinen anderen auswählt. Flash-Speicher verwendet im übrigen 2MByte Speicherzellen, da für den RAM auch solche Page-Sizes verwendet werden, sollte man sich also eher daran orientieren. Ansonsten können wir alle ~5-10 Jahre einfach um den Faktor 8 die Sektorengröße anheben. Das nächste wären dann also 32kbyte.
*Mal n Zahlenspiel: Ich als Linuxer hab auf /, exklusive /home, /proc und /dev, 600.644 Files und 63117 Ordner liegen, Gesamtgröße läppische 25,8 GiB für mein Gesamtsystem. Das macht pro Datei 45,0 KiB. Bei 32K-Clustern hätt ich damit pro zwei belegter Cluster einen halben als Verschnitt. Alleine das ist schon ziemlicher Wahnsinn und hebt jeden Speicherplatzgewinn durch bessere Platterausnutzung auf. Klar, ich kann mit kleineren Clustern als physikalisch vorhanden partitionieren. Drückt die Performance halt entsprechend. In der Rechnung ist aber gar nicht mit drin, dass der Großteil der Datenmenge in ganz wenigen Dateien vorhanden sind. Die 55 Dateien oberhalb von 50 MB machen alleine ~8,0 GiB aus. Drückt die restliche durchschnittliche Größe auf 31,0KiB. Damit wäre die durchschnittliche Dateigröße kleiner als die Sektorgröße. Geile Sache - denn alles was drunter liegt braucht trotzdem 32K, egal wie klein, und alles drüber braucht mindestens 64K. Das bläst mir den vermeintlichen Platzverbrauch auch wieder enorm auf.
Nimm doch mal einfach freedb her. Hier hast du ~1,6 Millionen Datein mit einer Dateigröße von 1kbyte und weniger. Ein älterer Stand belegte bei mir damals unter einem XFS-Dateisystem mehr als 10Gbyte und das löschen dauerte ca. 8h! Komprimiert ist das Archiv etwas größer als eine CD (700MB). Die vorübergehende Lösung war, JFS(2) als Dateisystem zu verwenden.
Wenn man nun den Inhalt all dieser Dateien in einer Datenbank abspeichert, landet man bei unter 2GByte Platzbedarf in einer Datei (sqlite) und hat durch die Primärschlüssel eine deutlich schnellere Indexierung und Suchmöglichkeit als wenn die Daten auf der HDD in Dateien herum liegen würden.
Und seien wir mal ehrlich. Selbst bei 10 Millionen Dateien welche jeweils einen Sektor alleine nur minimal belegen, wie viel % macht das bei entsprechend großen (2-20TB) HDDs an Verlust aus?
Klar, dann kann man wieder mit Spielchen anfangen wie Kleinstdateien in den MFT-Bereich zu schieben, oder Inodes mit Datenanhängseln aufzublasen, oder...
Das mit kleinen Dateien im reservierten Bereich der MFT macht Microsoft wie viele Jahrzehnte schon?

Wegen der Adressierungsproblematik:
2GB, 8GB, 32GB, 127GB, 500GB/1000GB, 2000GB. Neben den neueren 24bit und 32bit LBA Grenzen: 127GB und 2000GB kommt auf absehbare Zeit auch wieder das 48bit LBA-Limit. Selbst aktuelle SAS2.0 Controller unterstützen nicht mehr und können (eher sollen) nicht mehr als 64TByte verwalten.
Man soll/muss ja alle paar Jahre alles neu kaufen um die Firmen und den Konsum zu unterstützen.
Wie schön das 40Gbit Ethernet über eine LWL-Faser (ohne WDM) und PCIe 4.0 nebst SAS 4.0 noch in den Sternen stehen.
 
Zuletzt bearbeitet:
Du glaubst auch daran, dass sich die ganze Welt um ein Dateisystem von einer Firma aus Redmond dreht? ;)
Microsoft support policy for 4K sector hard drives in Windows Ab Windows 7 SP1 gibt es auch keine Probleme mit nativen 4kbyte HDDs.
Die HDD Hersteller haben schon ~2002-2004 herum beschlossen die Sektorgröße zu erhöhen.
MO-Laufwerke können schon seit mindestens 1998 herum mit 512Byte, 1kByte, 2kByte und 4kByte formatierten Disks umgehen,
Datenbanken verwenden im Extremfall ihr eigenes Dateisystem oder waren auch auf SAS/SCSI-Festplatten angewiesen, welche man anderes als mit nur 512Byte Sektoren formatieren kann. Ja, so etwas gibt es heutzutage immer noch!
Wie man seit Jahren sieht traut sich kein Plattenhersteller an native 4K für interne Laufwerke, und das aufgrund der zu erwartenden Reklamationsquote der Windowskundschaft von nahe eins. Auch wenns mir nicht passt, Marktanteil hat Redmond nunmal genug. Für mich steht unter jenem Link übrigens nur 8 und 2012 unter dem Punkt "4K nativ". 7 ist unter 512E gelistet.
Ja, variable Sektorgröße bis 528B gibts heute immer noch. Nur sind das nicht die 4TB-Monster, für die deine vorgeschlagene Erweiterung über 4K hinaus ja vorrangig wichtig ist.

Bitte nicht irgendwelche Werbeaussagen der Marketingabteilungen nachplappern. Die 4kbyte Sektoren bei HDDs hatten drei Hintergründe:
  • 32Bit LBA-Limit der meisten Systeme erlaubt nur max. 2TByte bei 512Byte Sektoren (die Laufwerkselektronik muss die Sektoren auch ansteuern können)
  • Der Verwaltungsaufwand für die Masse an Sektoren sollte verringert werden. Bei der Verwaltung von RAM gibt es auch größere Page-Sizes, ohne diese wäre die CPU zu ~99% damit ausgelastet freie Speicherbereiche bei 2+TByte verbautem RAM zu suchen.
  • Man spart sich viele Markierungen und ECC-Prüfsummen ein und kann damit bei gleicher Datendichte rund 11% mehr an Kapazität dem Kunden verkaufen ohne das man die Datendichte steigern musste.
Ich seh nicht ganz, wo jetzt bei mir Marketingaussagen standen.
32Bit-LBA ist nur bei nativen 4K sinnvoll, bei Emulation bricht der Spaß ja wieder in sich zusammen. Verwaltungsaufwand führt z.B. Seagate recht weit oben bei den Werbeaussagen an. Ebenso wie die Platzersparnis durch effektiv kleineren ECC-Block und den Krams zwischen den Blöcken.

SAS-HDDs haben schon lange zwei Controller auf der Platine, an Resourcen oder gar Platz fehlt es bei weitem nicht. Das aktuelle Laufwerke auf die ECC-Fehlerkorrektur angewiesen sind ist schon lange kein Geheimnis mehr.
Ja nochmal, 4K+ ist für die dicken, langsamen Monster. Mir fällt auf Anhieb keine SAS-Platte ein, die überhaupt 4K nutzt. Hättest du eine parat?

Das schöne an Software-Raid ist, diese sind konfigurierbar. Die Stripesize von 128kbyte ist nur der Standard bei ZFS, der verwendet wird wenn man keinen anderen auswählt. Flash-Speicher verwendet im übrigen 2MByte Speicherzellen, da für den RAM auch solche Page-Sizes verwendet werden, sollte man sich also eher daran orientieren. Ansonsten können wir alle ~5-10 Jahre einfach um den Faktor 8 die Sektorengröße anheben. Das nächste wären dann also 32kbyte.
Pagesize beim NAND != Blocksize. Kleinste löschbare Einheit sind weiterhin Pages mit 4K/8K. Wenn das ganze noch mit übergeordnetem ECC-Block gruppiert wird, umso schlimmer.

Nimm doch mal einfach freedb her. Hier hast du ~1,6 Millionen Datein mit einer Dateigröße von 1kbyte und weniger. Ein älterer Stand belegte bei mir damals unter einem XFS-Dateisystem mehr als 10Gbyte und das löschen dauerte ca. 8h! Komprimiert ist das Archiv etwas größer als eine CD (700MB). Die vorübergehende Lösung war, JFS(2) als Dateisystem zu verwenden.
Wenn man nun den Inhalt all dieser Dateien in einer Datenbank abspeichert, landet man bei unter 2GByte Platzbedarf in einer Datei (sqlite) und hat durch die Primärschlüssel eine deutlich schnellere Indexierung und Suchmöglichkeit als wenn die Daten auf der HDD in Dateien herum liegen würden.
Und seien wir mal ehrlich. Selbst bei 10 Millionen Dateien welche jeweils einen Sektor alleine nur minimal belegen, wie viel % macht das bei entsprechend großen (2-20TB) HDDs an Verlust aus?

Das mit kleinen Dateien im reservierten Bereich der MFT macht Microsoft wie viele Jahrzehnte schon?
20 TB gleich :fresse:
Nun, 10 Mio Dateien mal 32K macht knapp ein drittel Terabyte voll. Falls der gleiche Kram auch in 4K-Sektoren passt, sind wir mit 39 GiB bedient. Um auf deine SAS-Vorliebe zurückzukommen: Das sind durchaus ein paar € Unterschied, auch ohne die Mehrkosten durch Redundanz.

Ewig. Möglicherweise um der Verschwendung schon bei kleinergleich 4K Clustersize vorzubeugen. Wie anders kann man der typischen Kundschaft erklären, dass lauter winzigkleine Dateien makroskopisch Speicher fressen.

Wegen der Adressierungsproblematik:
2GB, 8GB, 32GB, 127GB, 500GB/1000GB, 2000GB. Neben den neueren 24bit und 32bit LBA Grenzen: 127GB und 2000GB kommt auf absehbare Zeit auch wieder das 48bit LBA-Limit. Selbst aktuelle SAS2.0 Controller unterstützen nicht mehr und können (eher sollen) nicht mehr als 64TByte verwalten.
Letzteres ist Hardwaresache, da können knapp angelegte Limits nichts dafür.
48-Bit LBA plus 4K nativ reicht für 1 Exibyte. Sag uns Bescheid, wenn der erste Rechner an dem Limit krankt. Mit 48 Bit plus den aussterbenden 512B sind immer noch 16 TiB drin, auch das wird für Einzellaufwerke nochn Weilchen dauern.
 
Wie man seit Jahren sieht traut sich kein Plattenhersteller an native 4K für interne Laufwerke, und das aufgrund der zu erwartenden Reklamationsquote der Windowskundschaft von nahe eins. Auch wenns mir nicht passt, Marktanteil hat Redmond nunmal genug. Für mich steht unter jenem Link übrigens nur 8 und 2012 unter dem Punkt "4K nativ". 7 ist unter 512E gelistet.
Ja, variable Sektorgröße bis 528B gibts heute immer noch. Nur sind das nicht die 4TB-Monster, für die deine vorgeschlagene Erweiterung über 4K hinaus ja vorrangig wichtig ist.
Ah gut, hab da nicht aufgepasst. Basiert auf Windows 7 SP1. Microsoft will also wirklich dafür sorgen das man immer das neueste Windows benutzen muss. Nett.
# Builds upon the Windows 7 SP1 support for 4K disks with emulation (512e), and provides full inbox support for disks with 4K sector size without emulation (4K Native). Some supported apps and scenarios include:

* Ability to install Windows to and boot from a 4K sector disk without emulation (4K Native Disk)

Ja nochmal, 4K+ ist für die dicken, langsamen Monster. Mir fällt auf Anhieb keine SAS-Platte ein, die überhaupt 4K nutzt. Hättest du eine parat?
Die neuen UltraStar Laufwerke von Hitachi verwenden leider auch schon 4kbyte Sektoren. Bei der 3TByte Version waren es noch 512Byte Sektoren.

20 TB gleich :fresse:
Nun, 10 Mio Dateien mal 32K macht knapp ein drittel Terabyte voll. Falls der gleiche Kram auch in 4K-Sektoren passt, sind wir mit 39 GiB bedient. Um auf deine SAS-Vorliebe zurückzukommen: Das sind durchaus ein paar € Unterschied, auch ohne die Mehrkosten durch Redundanz.
Dann machen wir doch einfach mal den Vergleich:
Angenommen ein 64TiB Laufwerk mit 32kByte Sektoren versus 64TiB Laufwerk mit 4kByte Sektoren.
10 Millionen Dateien a 4kByte = 10.000.000 * 4096Byte = 40960000000 Byte = 39062,5 MiB ~ 38,147 GiB.
Grob mal 40GB bei 64000GB macht 0,0625 %
Selbst bei ungenutzten 32Kbyte Sektoren sind das dann "nur" 8x so viele Daten. Also 320GB belegt und 0,5% von der Gesamtkapazität.
Bei aktuellen Preisen von ~ 5 Cent/GB kommen einem die 40GB auf 2 Euro.

Ich denke einmal, das weitere Diskussionen diesbezüglich in keinem Bezug zu irgend einer praktischen Relevanz mehr stehen.

Letzteres ist Hardwaresache, da können knapp angelegte Limits nichts dafür.
48-Bit LBA plus 4K nativ reicht für 1 Exibyte. Sag uns Bescheid, wenn der erste Rechner an dem Limit krankt. Mit 48 Bit plus den aussterbenden 512B sind immer noch 16 TiB drin, auch das wird für Einzellaufwerke nochn Weilchen dauern.
Die Zeit vergeht schneller als man denkt. Die Limitierungen sind leider dem Marketing geschuldet. Nehmen wir einfach mal einen der aktuelleren LSI-Controller mit 8 SAS2.0 Ports für ~600-800 Euro:
MegaRAID SAS 9286CV-8e
# 64 logical drive support
# Up to 64TB LUN support
Verfallsdatum schon mit eingebaut. Ist ein Laufwerk größer 64TB kommt es im dümmsten Falle zu einem Überlauf und nur die Kapazität die nach diesen ersten 64TiB ist kann man nutzen.
Man hat dies schon bei einigen 3ware und LSI-Controllern festgestellt, von daher erwarte ich keine Besserungen.
 
Hy,


Ich möchte auf meinem Homeserver einen ZFS Filer in einer ESXI Umgebung installieren


ich bin ESXi Thread bin auf folgenden Link gestossen.

http://napp-it.org/doc/downloads/all-in-one.pdf

Ist diese Anleitung noch aktuell?

Ich bin erst bei Seite 60 im ESXI Thread und habe mir dann vorgenommen den ganzen ZFS Thread durchszulesen. (ich weiß genug Lesestoff :) )


Trotzdem bevor ich euch dann mit Fragen überhäufe und bevor ich die Ersttestinstallation starte, hätte ich gerne eure Meinung dazu gehabt ob ich mit OpenIndiana und Napp-It gut aufgehoben bin.


Einsatzzweck ZFS,

ISCSI Freigabe für VM Ware (4x1TB WD Black) Raid Z1
Datengrab (12x3TB Seagate) Raid Z2 od Raid Z3

Danke für eure Tipps
 
Hy,


Ich möchte auf meinem Homeserver einen ZFS Filer in einer ESXI Umgebung installieren


ich bin ESXi Thread bin auf folgenden Link gestossen.

http://napp-it.org/doc/downloads/all-in-one.pdf

Ist diese Anleitung noch aktuell?

Das Dokument ist letztmalig am 21.1.2013 geändert, also durchaus aktuell.
Aber Spass beiseite, es ist eine funktionierende Anleitung für einen ESXi Server mit einem virtuellen ZFS SAN storage in einer Box.

ansonsten:
-Aktuell würde ich eher zu OmniOS statt OI tendieren
-Für VM's ist Raid-10 besser/schneller als Raid-Z
-iSCSI funktioniert bei all-in-one nicht, stattdessen NFS nehmen
 
hy gea,

danke dir, für die Info.

Nur kurz die Frage warum funktioniert iSCSI hier nicht. Liegt das an Nappit oder an dem Solaris?

EDIT: Habs grad gesehen, dass dein neuester EDIT vom 21.1 ist. War nur schon so weit hinten im ESXI Thread, da habe ich gar nicht aufs Datum geschaut :)

LG
 
Zuletzt bearbeitet:
hy gea,

danke dir, für die Info.

Nur kurz die Frage warum funktioniert iSCSI hier nicht. Liegt das an Nappit oder an dem Solaris?

Das ist ein ESXi Problem.
All-In-One bedeutet ja dass alle Daten inkl der ESXi VM's auf ZFS storage liegen.
Der steht aber erst zur Verfügung, wenn die Storage VM gestartet ist, nicht bereits beim Start von ESXi -
es gibt eine Verzögerung von ca 60s.

Das ist bei NFS kein Problem, iSCSI mag das nicht. Da müsste man die datastores immer manuell mounten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh