Meine Erfahrungen: Windows 8 als Homeserver mit Storage Pools (vs. FreeNAS mit ZFS)

Scheint ja ne nette Spielerei zu sein mit den Storagepools, der Flexibilitaet und allem...

AAABER:
30mb /sec schreibend? Bei ner 4gb großen Iso?

Was macht das Konstrukt denn wenn ich viel 'Kleinscheiß' auf das Raid schiebe?
Sorry aber dafuer wuerde ich nicht einen Cent ausgeben ^^

Grueße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
... einen anderen RAID-Level wählen. :)

Ich habe bei mir einen Parity (RAID5) Storage Pool mit 5x 3 TB und einen mit Two-Way-Mirror (RAID-1) mit 2x 2 TB im Server. Die 2x 2TB sind für Netzwerkfreigaben, die sich häufiger verändern oder einfach zum einfachen Datenaustausch/tägliches Backup. Da erreiche ich lesend und schreibend locker über 100 MByte/s. Das RAID5 lagert hingegen Inhalte, die sich weniger häufig ändern und fast nur gelesen werden. Da liegen also beispielsweise die Backups meine Filme im RAW-Format (20 Minuten = 4 GB...). Das Befüllen des RAID5 hat einmalig 2 Tage gedauert. Jetzt lese ich aber zu 95% davon. Das geht auch mit 100 Mbyte/s+.

Diese Architektur hat noch einen weiteren Vorteil: Für jede Kleinigkeit fahren nicht immer 5 Festplatten hoch. Die meisten alltäglichen Anfragen frühstücke ich mit den 2TB Platten ab.
 
Zuletzt bearbeitet:
Diese Architektur hat noch einen weiteren Vorteil: Für jede Kleinigkeit fahren nicht immer 5 Festplatten hoch. Die meisten alltäglichen Anfragen frühstücke ich mit den 2TB Platten ab.
Das habe ich bei mir auch so ähnlich Realisiert.
1x2TB als Temp Festplatte für alles was gerade so anfällt ohne Backup oder sonstige Sicherheit
2x2TB im RAID1 für alle wichtigen unwiederbringlichen Daten (davon gibt es auch externe Backups)
2x 8x3TB RAID6 mit Spindown auf 30 min, diese wollte ich auf Storage Pool umstellen
 
Hast du dir schon einmal ZFS als Dateisystem angeschaut? Da gibt es ein raidz3 welches den Ausfall von drei HDDs erlaubt.
Des weiteren gibt es neben einem Raid1 auch noch ein n-way mirror. Also drei, vier usw. HDDs welche den selben Inhalt spiegeln.
Wichtigere Daten kann man zusätzlich auch noch mehrmals im Dateisystem als Kopie speichern lassen. Wenn trotz Redundanz eines Raidlevels die Datei nicht mehr repariert werden könnte. Wichtiger eher bei bestimmten Systemdaten, damit man es auch starten und auf die Daten zugreifen kann wenn die HDDs mal relativ alt werden.

Man muss schon sehr Schmerz befreit sein, wenn einem 30MB/sec schreibend für ein Softwareraid 5 ausreichend ist, obwohl die einzelnen beteiligten HDDs mehr als ~130-160MB/sec schaffen.
 
Hast du dir schon einmal ZFS als Dateisystem angeschaut? Da gibt es ein raidz3 welches den Ausfall von drei HDDs erlaubt.
Des weiteren gibt es neben einem Raid1 auch noch ein n-way mirror. Also drei, vier usw. HDDs welche den selben Inhalt spiegeln.
Wichtigere Daten kann man zusätzlich auch noch mehrmals im Dateisystem als Kopie speichern lassen. Wenn trotz Redundanz eines Raidlevels die Datei nicht mehr repariert werden könnte. Wichtiger eher bei bestimmten Systemdaten, damit man es auch starten und auf die Daten zugreifen kann wenn die HDDs mal relativ alt werden.

Man muss schon sehr Schmerz befreit sein, wenn einem 30MB/sec schreibend für ein Softwareraid 5 ausreichend ist, obwohl die einzelnen beteiligten HDDs mehr als ~130-160MB/sec schaffen.
Die Rate soll unter Windows Server 2012 höher sein als 30 MB/s. Aber du hast natürlich recht, wenn das wirklich so wenig wäre ist es ein NOGO. Min den Speed von 1GB Netzwerk muss schon sein.

ZFS geht nun einmal nicht unter Windows und das OS ist bei mir gesetzt. Aber ansonsten wäre das sicher eine schöne Alternative. So bleibt aber nur einen neuen RAIDController anschaffen, der auch mit den 16 Platten 2xRAID6 schafft.
 
Auch wenn es hier eher ins Offtopic dann geht:
Hast du schon einmal daran gedacht, den Speicherplatz von einem ZFS-Pool per iSCSI deinem Windows zur Verfügung zu stellen? Seit Windows 2003 kann das Microsoft relativ gut auch zum booten verwenden.
 
Ganz ehrlich muss ich gestehen, dass ich mich unter Linux nicht sicher genug Fühle um meine Daten ZFS anzuvertrauen. Da müsste ich mich erstmal ein paar Wochen/Monate mit testen usw beschäftigen. Um eben auch zu wissen wie genau es sich im Fehlerfall verhält und was dann exakt zu tun ist. Denn ich habe keine Lust im Fehlerfall da zu stehen und aus Hektik/Verzweiflung oder einfach Unwissen meine Daten zu zerballern. Auch Erweitern und andere schicke Funktionen habe ich keine Lust das erste mal Produktiv zu verwenden. Zwar muss ich mir das bei dem neuen RAIDController auch alles erstmal anschauen, aber da weiß ich immerhin schon mal mehr und muss nicht bei 0 beginnen.
Nutze Linux nur auf der Arbeit wenn ich auf den Servern und Testmaschinen auf OS Level rumturne...
 
ZFS ist auch nichts für Linux - wenn dann BSD/Solaris...
 
siehste und wenn ich nicht mal das weiß sagt mir das eindeutig das ich davon besser die Finger für einen Produktivbetrieb lassen sollte :d
 
Blödsinn, ZFS läuft auch schon seit Jahren unter Linux, zuerst unter Fuse und nun nativ im Kernel. ZFS wird bald mehr Nutzer unter Linux haben als unter anderen Betriebssystemen. Die Daten waren bisher nie durch irgendwelche Bugs unter ZoL oder zfs-fuse in Gefahr, die Peformance war aber besonders unter zfs-fuse nicht so der Knaller, aber es gibt ja nun die native Kernelimplementation ZoL. Es gibt massig Firmen die ZFSonLinux bereits produktiv einsetzen und ich habe bereits von ein paar Firmen gelesen dass sie Storage-Lösungen mit Webinterface und Co. auf Basis von ZFSonLinux entwickeln.

Die Performance von ZoL ist schon jetzt aufgrund der besseren Treiber unter Linux in einigen Bereichen wesentlich besser als unter FreeBSD/Solaris und das wird in Zukunft auch generell so da hinter dem Linux-Kernel wesentlich mehr Nutzer und Entwickler stecken als hinter Ilumos, Solaris oder FreeBSD.

Wenn ich JETZT sofort einen Enterprise ready ZFS-Storage-Server bauen würde, würde ich wahrscheinlich zu NexentaStor, Solaris 11.11 oder FreeBSD9 greifen. In 1-2 Jahren wird das aber ganz anders aussehen.

Ganz ehrlich muss ich gestehen, dass ich mich unter Linux nicht sicher genug Fühle um meine Daten ZFS anzuvertrauen. Da müsste ich mich erstmal ein paar Wochen/Monate mit testen usw beschäftigen. Um eben auch zu wissen wie genau es sich im Fehlerfall verhält und was dann exakt zu tun ist. Denn ich habe keine Lust im Fehlerfall da zu stehen und aus Hektik/Verzweiflung oder einfach Unwissen meine Daten zu zerballern. Auch Erweitern und andere schicke Funktionen habe ich keine Lust das erste mal Produktiv zu verwenden. Zwar muss ich mir das bei dem neuen RAIDController auch alles erstmal anschauen, aber da weiß ich immerhin schon mal mehr und muss nicht bei 0 beginnen.
Nutze Linux nur auf der Arbeit wenn ich auf den Servern und Testmaschinen auf OS Level rumturne...

Also ein ZFS kaputt zu hauen ist schon ziemlich schwer, da muss man schon mutwillig oder unter Drogen dran gehen. Wenn du dir einen All-in-One-Server mit ESXi oder Proxmox aufbaust kannst du auch ganz normal deine Windowsapplikationen weiterverwenden. Sei nicht so ängstlich/konservativ. ;)
Ich persönlich bin der Meinung dass das Risiko eines Datenverlustes mit deinen Komponenten unter Windows höher ist als als Einsteiger einen ZFS-Storage-Server aufzusetzen. Es geht wirklich sehr einfach, jeder hat einmal irgendwo angefangen. Aber das ist nur meine Meinung, kann das nicht mit Zahlen belegen.

Du hast doch auch einen Führerschein oder? Hast du da auch gesagt dass du lieber weiter mit dem Fahrrad fährst weil du das ja schon kannst und daher das Verletzungsrisiko niedriger ist? ;)
 
Zuletzt bearbeitet:
Ich denke es ist die Frage wo man das ganze betreibt. Ich finde die Storage Pool Lösung unter Windows 8 für den Heimbereichs sehr genial, weil sie schnell eingerichtet ist und bei den HW-Anforderungen sehr moderat ist. Man schnappt sich einfach ein nahezu beliebiges Stück (alte) Hardware und schon läuft das ganze. Treiberprobleme? Windows! :)
Ich kann als Beispiel nur nochmals mein derzeitiges System anführen. Ein AMD E350 mit 4 GB RAM. Verbraucht unter Windows im IDLE ohne Storage-Platten deutlich unter 20 Watt. Unter FreeBSD liegt das gleiche System im IDLE bei knapp 30 Watt. Trotz aktiviertem Cool&Quiet. Es fehlt hier einfach an der entsprechenden Treierreife für Consumer-Hardware...
Zudem: Einfach noch einen TS-Server aufsetzen, das Ding per HDMI an den TV anbinden und gleichzeitig als Surf-Station nutzen? Alles kein Problem und nur ein paar Klicks entfernt. Windows eben.

Ferner glaube ich nicht, dass ich mit meiner Hardware (AMD E-350, 4 GB RAM, 5x 3TB, 2x 2TB, 1x 120 GB) mit der Performance von ZFS in Kombination mit Samba glücklich werden würde. Ich vermute mehr als 60-70 MByte/s lesen werden dank der Treiber nicht möglich sein. Schreiben wahrscheinlich nochmals deutlich weniger. Selbst mit einer Intel-NIC kam ich bei eben jenem System unter FreeBSD nur mit viel Mühe über 500 Mbit/s hinaus - wohlgemerkt sowohl per netIO als auch bei einem FTP-Transfer auf die Systemplatte. Ich will nicht wissen, was ZFS und Samba da noch an Mali draufschlagen...

Will man aus welchen Gründen auch immer mehr (Schreib-)Performance muss man bessere Hardware und eine andere Lösung auffahren. ZFS kann dafür mit ein sehr gutes Beispiel sein. Ich weiß nicht, was daran jetzt verwunderlich sein soll. Dafür hat man insbesondere im Heimbereich andere Nachteile, die man nicht unter den Tisch kehren sollte. Man sollte sich beispielsweise auf jeden Fall zumindest etwas mit Unix auskennen und bei der Hardware ist Unix und insbesondere FreeBSD nunmal wählerisch(er).
 
Wie ist das eigentlich mit Storage Spaces und SSDs? Erkennt es das als reinen Speicher oder aber nutzt er die SSD um oft genutzte Blöcke dort hin zuschieben für eine optimale Performance? Hat damit jemand Erfahrungen gemacht?
 
Ist der Vergleich dieser Windows-Storage pools mit ZFS berechtigt? Oder können die "nur" sowas wie software raids?
Gibt es features wie deduplizierung oder kompression?
Wie läuft das, wenn man Platten aus so einem Pool an einem anderen Rechner anstöpselt? Angenommen ich nehme n-1 platten aus einem RAID-5 und stöpsel die per USB an die nächste Windows-kiste. Kann ich dann sofort auf meine Daten zugreifen? Wird der Pool anhand einer Signatur auf den HDs sofort wieder sauber erkannt?
Wie geht windows mit defekten pools um?
Angenommen ich habe einen Raid-5 pool mit 5 Platten per USB und schalte 3 davon aus und später wieder ein, wie stehen die chancen, dass ich den pool später wieder lesen kann?
 
Wie ist das eigentlich mit Storage Spaces und SSDs? Erkennt es das als reinen Speicher oder aber nutzt er die SSD um oft genutzte Blöcke dort hin zuschieben für eine optimale Performance? Hat damit jemand Erfahrungen gemacht?

Nein. Unter Windows Server 2012 kann man ein Laufwerk als "Journaling" bestimmen, was bei einer SSD einen Performanceboost bringen soll. Nicht probiert.

Gibt es features wie deduplizierung oder kompression?

Deduplizierung: nicht sicher was Du Dir darunter vorstellst. Kompression kannst Du beispielsweise über das Dateisystem machen.

Wie läuft das, wenn man Platten aus so einem Pool an einem anderen Rechner anstöpselt? Angenommen ich nehme n-1 platten aus einem RAID-5 und stöpsel die per USB an die nächste Windows-kiste. Kann ich dann sofort auf meine Daten zugreifen? Wird der Pool anhand einer Signatur auf den HDs sofort wieder sauber erkannt?

Ja, der andere PC muss aber mindestens mit Windows 8 oder Windows Server 2012 laufen. Je nachdem, welche Features man von den Storage Spaces nutzt.

Wie geht windows mit defekten pools um?
Angenommen ich habe einen Raid-5 pool mit 5 Platten per USB und schalte 3 davon aus und später wieder ein, wie stehen die chancen, dass ich den pool später wieder lesen kann?

Habe ich mehrfach probiert. Geht völlig problemlos. Kein Datenverlust, keine lange Rebuid-Phase.
 
Ich werde das auch mal ausgiebig Testen mit Windows 2012 und hier dann berichten, ich denke mal das mir das für daheim vermutlich langen würde und ich mich eh mit Hyper-V beschäftigen muss.
 
Zuletzt bearbeitet:
Es ging um die Features, mehr nicht. Btrfs ist noch nicht bereit für den Produktiveinsatz, genau so wenig wie ReFS. Es hat schon seinen Grund warum es aktuell nur auf dem Server 2012 und nicht auf Windows 8 verfügbar ist, warum man keine externen Datenträger damit formatieren kann und warum davon noch nicht booten kann. ZFS hingegen ist bereits seit Jahren bereit für den Produktiveinsatz, bewährt und hat zugleich auch die meisten Features. Wenn du also so denkst bleiben da nur ZFS,EXT4,XFS... und NTFS übrig. ;)
 
Zuletzt bearbeitet:
Nicht jeder braucht alle Feature :)

Was ich bis jetzt von ZFS gesehen habe gefällt mir auch sehr gut aber für meine paar Daten wäre mir das alles zu aufwendig.

Nicht jeder hat TB weise Daten zuhause *zwinker*
 
Nicht jeder braucht alle Feature :)

Was ich bis jetzt von ZFS gesehen habe gefällt mir auch sehr gut aber für meine paar Daten wäre mir das alles zu aufwendig.

Nicht jeder hat TB weise Daten zuhause *zwinker*

Die wichtigsten Daten belegen den wenigsten Platz. Mach wenigstens Checksummen von Hand.
 
Nicht jeder braucht alle Feature :)

Was ich bis jetzt von ZFS gesehen habe gefällt mir auch sehr gut aber für meine paar Daten wäre mir das alles zu aufwendig.

Nicht jeder hat TB weise Daten zuhause *zwinker*
Keine Ahnung von was für einem "Aufwand" du sprichst, wenn man weiß was man tut ist ein Raid-Z3 mit SMB-Freigabe unter Solaris in 30 Minuten vollständig eingerichtet und installiert. ;)
 
Leute leute leute, wir sind hier nicht im Rechenzentrum! Ich finde den Fred recht interessant und werde dann mal meine aktuelle Sicht schildern.

Ich nutze seit knapp einem Jahr Nas4Free, davor hatte ich ca 2 Monate FreeNas im einsatz. Ich muss schon sagen das sich bei Nas4Free einiges tut. Man kann sagen das wöchentlich neue Builds rauskommen. Das Projekt wird also außerordentlich gut gepflegt. Mein System habe ich noch per Shell um MySQL, PHP und einem Shutdown script was die Rechner im Heim Netzwerk anpingt und ggf das System Runterfährt erweitert.

Und dennoch, um so mehr ich lerne und Erfahrungen mache, um so mehr kotzt mich die ganze Plattform einfach nur noch an! Warum? Nun ich will hier keinen Roman schreiben und werde mich in Stichpunkten so kurz fassen wie möglich.

  • OK, Das größte Problem ist das CIFS/SMB Protokoll, Die gefühlte IO Performance ist einfach unterirdisch! Ich hab einige guides gelesen und alle Konfigurationen bis auf "Asyncronous IO" Probiert (damit brechen bei mir die Transfers ab). Es kann doch nicht sein das Mucke für sekunden komplett aussetzt nur weil ich mit einem weiteren Filebrowser irgendwelche ordner auf der kiste durchstöber? Ach ja und das löschen ist ab und an auch Buggy. Bisherige lösung? mit FTP einloggen und hinterherkehren! WTF?... Das einzige was funktioniert sind Sequentielle Transfers sofern man die Kiste in Ruhe lässt.
  • Fehlendes Standby! das booten von USB stick ist mit 54sec zwar schon ganz okay für USB2. Aber 2W im Standby bei ca. 3sec bis zur Bereitschaft sind einfach Welten!
  • Des weiteren sind extrem viele ZFS Parameter und Befehle nicht in der GUI enthalten was ich auch sehr schwach finde.
  • Festplatten ID Bugs die mir bei der ständigen umsteckerei fast die SATA-Ports gekostet haben.
  • So schön ZFS auch klingt das meiste ist für Heimgebrauch nicht umsetzbar! Hier die unschönen Fakten:
  • ZIL nur mit teurer RAMgepufferten SSD oder Ramdisk brauchbar!
  • L2ARC ist nach einem Neustart leer!!! lohnt sich also wirklich nur im 24/7 betrieb!
  • Vergesst "deduplication" das ist der Performancekiller schlechthin. Absolutes nogo und höchstens für High-End Server in Verbindung mit vielen gleichen Dateien sinnvoll
  • erst mit sehr viel Arbeisspeicher performant!
  • Die Geli Verschlüsselung ist in meinen augen auch zu unflexibel, da bietet mit TrueCrypt viel mehr möglichkeiten.

Ich möchte dennoch darauf hinweisen das auch sehr viele Punkte für das System Sprechen! Da aber die Contrapunkte allen voran das nicht Ordnungsgemäß funktionierende CIFS/SMB so schwerwiegend ausfallen, sehe ich mich gezwungen nach etwas geeigneteren Ausschau zu halten.

Da ich den Server größtenteils für archivierte Filme und Medien nutze kommen mir die Storage Pools von MS gerade recht. Zu mal XBMC 12 (Frodo) mit integriertem PVR vor der Tür steht und ich mir somit einen seperaten PVR-Server spare! Wo wir wieder bei der Flexibilität von Windows wären.
 
Zuletzt bearbeitet:
So leid es mir tut das hier so offen zu sagen, aber einige der von dir angesprochenen Probleme sind keine Probleme von ZFS sondern haben mit dem User vor dem Bildschirm und mit Nas4Free sowieso FreeBSD im Speziellen zu tun.

[*]OK, Das größte Problem ist das CIFS/SMB Protokoll, Die gefühlte IO Performance ist einfach unterirdisch! Ich hab einige guides gelesen und alle Konfigurationen bis auf "Asyncronous IO" Probiert (damit brechen bei mir die Transfers ab). Es kann doch nicht sein das Mucke für sekunden komplett aussetzt nur weil ich mit einem weiteren Filebrowser irgendwelche ordner auf der kiste durchstöber? Ach ja und das löschen ist ab und an auch Buggy. Bisherige lösung? mit FTP einloggen und hinterherkehren! WTF?... Das einzige was funktioniert sind Sequentielle Transfers sofern man die Kiste in Ruhe lässt.
Sorry, aber das ist ein eindeutiges Layer8 Problem und hat rein gar nichts mit ZFS zu tun. Tausende von Firmen und Privatnutzer setzten Samba unter FreeBSD ohne Probleme ein.
[*]Fehlendes Standby! das booten von USB stick ist mit 54sec zwar schon ganz okay für USB2. Aber 2W im Standby bei ca. 3sec bis zur Bereitschaft sind einfach Welten!
Das hat auch nichts mit ZFS zu tun sondern vielmehr mit der Kombination aus Hard- und Software. Ich mein Hallo, ein lahmer USB2-Stick als Systemplatte? Probier das mal mit Windows. Wenn du so einen Heckmeck mit ständig AN/AUS-Schalten willst, kauf dir ein ARM-NAS, ansonsten vergiss es. Siehe dazu meinen Post #17 in NAS mit 8-12 Festplatten. Brauche Hilfe!
[*]Des weiteren sind extrem viele ZFS Parameter und Befehle nicht in der GUI enthalten was ich auch sehr schwach finde.
Das Problem sitzt hierbei wieder vor dem Bildschirm bzw. liegt in der GUI von Nas4Free und hat NICHTS mit ZFS zu tun.
[*]Festplatten ID Bugs die mir bei der ständigen umsteckerei fast die SATA-Ports gekostet haben.
Kann ich jetzt nicht genau zu ordnen ob du der User das Problem ist oder Nas4free oder FreeBSD. Vielleicht eine Mischung aus allem.
[*]So schön ZFS auch klingt das meiste ist für Heimgebrauch nicht umsetzbar! Hier die unschönen Fakten:
[*]ZIL nur mit teurer RAMgepufferten SSD oder Ramdisk brauchbar!
Das sind Enterprise-Features, du sprichst vom Heimgebrauch. Wozu benötigst du für den Heimgebrauch einen SSD-Cache? Außerdem kannst du jede handelsüblich SDD als ZIL verwenden, ich verstehe dein Problem nicht.
[*]L2ARC ist nach einem Neustart leer!!! lohnt sich also wirklich nur im 24/7 betrieb!
Glaub mir, auch die meisten Heimanwender haben ihren Server 24/7 laufen weil es einfach nicht sinnvoll ist das Gerät ständig herunter zu fahren. Siehe dazu meinen Post #17 in NAS mit 8-12 Festplatten. Brauche Hilfe!. Außerdem auch wieder ein Enterprisefeature für dass ich beim Homeserver mit 1Gbit-Netzwerkkarte zur Speicherung von Filmen und ähnlichem keine Vorteile sehe.
[*]Vergesst "deduplication" das ist der Performancekiller schlechthin. Absolutes nogo und höchstens für High-End Server in Verbindung mit vielen gleichen Dateien sinnvoll
Deduplication ist kein Performancekiller wenn vernünftig eingesetzt, wenn man sich natürlich nicht informiert und die Funktionsweise nicht versteht ist man selbst schuld. Bitte vorher Dedup FAQ von Oracle/Sun konsultieren bevor so ein Blödsinn verbreitet wird.
[*]Die Geli Verschlüsselung ist in meinen augen auch zu unflexibel, da bietet mit TrueCrypt viel mehr möglichkeiten.
"Unflexibel" ist relativ. Ich würde mal sagen das Problem geht hier zu Teilen an FreeBSD und zu Teilen an dich. Geli hat nichts mit ZFS zu tun. Lies dich bitte mehr ein oder verwende dmcrypt unter Linux. Außerdem verstehe ich nicht ganz wie sich eine Verschlüsslung mit deinem ständigen AN/AUS-Schalten verträgt, das ist doch völlig unkomfortabel oder wenn "komfortabel eingerichtet" dann auf Kosten der Sicherheit und man kann sich den Aufwand auch gleich sparen.
[*]erst mit sehr viel Arbeisspeicher performant!
Das ist leider korrekt, liegt aber in der Architektur bzw. der Arbeitsweise von ZFS. Man sollte schon mindestens 4GB Ram haben, je mehr desto besser und schneller. Der einzige Punkt wo ich dir zustimmen kann, der Rest hat rein gar nichts mit ZFS zu tun und liegt entweder am Nutzer oder an Nas4Free/FreeBSD.
 
Zuletzt bearbeitet:
Sorry, das ist ein eindeutiges Layer8 Problem und hat rein gar nichts mit ZFS zu tun. Tausende von Firmen und Privatnutzer setzten Samba unter FreeBSD ohne Probleme ein.
Wer sagt den das ich die grottige CIFS/SMB Performance mit ZFS in die schuhe schiebe? Nein ZFS ist hier nicht das Problem und kann auch sehr Performant sein, mit den 16GB RAM hab ich über iSCSI traumhafte werte erreicht. Nur iSCSI bringt mir persönlich hier nichts.

Das hat auch nichts mit ZFS zu tun sondern vielmehr mit der Kombination aus Hard- und Software.
Ja nee is Klar, 16GB Ram Core i3 auf Q75 mit Intel NIC ist natürlich eine denkbar schlechte Kombination für FreeBSD und ZFS.

Ich mein Hallo, ein lahmer USB2-Stick als Systemplatte?
Alter was schreibst du hier für einen Müll? Informier dich mal! Das gesamte OS ist im fall von NAS4Free 200MB groß und wird vom stick komplett in den RAM gespiegelt, das passiert in den ersten 50sec danach wird der stick nicht mehr angefasst. Soll man für so etwas eine SSD einmatschen?. Zumal man sich auch noch einen SATA Port spart.

Probier das mal mit Windows.
Klar! Mit USB3 sicher interessant

Wenn du so einen Heckmeck mit ständig An/Aus-Schalten willst, kauf dir ein ARM-NAS, ansonsten vergiss es. Siehe dazu meinen Post #17 in NAS mit 8-12 Festplatten. Brauche Hilfe!
Wie schön. Aber die Performance pro Watt ist da für meine zwecke ungenügend. ECC? Ich hab über nen Meter dicke wände! ;D nee nee mal im ernst, und wenn mal nen bit kippt ist mir das auch schnuppe da zu 95% von der kiste gelesen wird und die Bude eh nicht Mission Critical ist. Also hör auf den Homeuser leuten überteuertes Serverzeugs aufzuschwatzen!

Das Problem sitzt hierbei wieder vor dem Bildschirm bzw. liegt in der GUI von Nas4Free und hat NICHTS mit ZFS zu tun.
Kann ich jetzt nicht genau zu ordnen ob das ein du das Problem bist oder Nas4free oder FreeBSD. Vielleicht eine Mischung aus allem.
Fanboy? Natürlich hat das nichts mit ZFS zu tun. Es wurde halt nur noch nicht in vollem umfang in die GUI implementiert. Meine Kritik galt auch hier nicht ZFS sondern eher der sich meiner meinung nach noch im Betastadium befindlichen Nas4Free Distribution.

Das sind Enterprise-Features, du sprichst vom Heimgebrauch. Wozu benötigst du für den Heimgebrauch einen SSD-Cache?
Um bei häufig genutzten dateien die Festplatten vor dem Spinup zu bewahren.

Außerdem kannst du jede handelsüblich SDD fürs ZIL verwenden.
Zeugt wieder davon das du nicht den vollen durchblick hast. Siehe

Glaub mir, auch 90% der Heimanwender haben ihren Server 24/7 laufen weil es einfach nicht sinnvoll ist das Gerät ständig herunter zu fahren. Siehe dazu meinen Post #17 in NAS mit 8-12 Festplatten. Brauche Hilfe!
Jedem das seine. Bei einem ARM-NAS fällt das ja nicht weiter auf der Stromrechnung auf, aber bei den meisten eigenbau NAS schon wenn sie über nacht ungenutzt laufen. Sowas muss doch nicht sein. Gehört zwar nicht zum Thema aber kann es sein das deine Stromrechung noch von den Eltern bezahlt wird?

Deduplication ist kein Performancekiller wenn vernünftig eingesetzt, wenn man sich natürlich nicht informiert und die Funktionsweise nicht versteht ist man selbst schuld. Bitte vorher Dedup FAQ von Oracle/Sun konsultieren bevor so ein Blödsinn verbreitet wird.
Schau doch bitte mal über deinen Tellerrand! Für mich und meine Situation ist es ein Performancekiller und ich fahre ohne besser. Den guide hab ich gelesen.

"Unflexibel" ist relativ. Ich würde mal sagen das Problem geht hier zu Teilen an FreeBSD und zu Teilen an dich. Geli hat nichts mit ZFS zu tun. Lies dich bitte mehr ein oder verwende dmcrypt unter Linux.
Nö, ich bleibe lieber bei TrueCrypt unter NT, meinem kleinen Schweizer Taschenmesser. Denn ich habe keine lust mir 3-4 Rechner daheim hinzustellen. Vielleicht macht ich auch was mit Virtualisierung. ich mein irgendwas muss ich ja mit meinen 16GB RAM anstellen, da die ja bald nicht mehr für ZFS draufgehen. :)

Und jetzt geh bitte wo anders Trollen... ZFS Fanboy!
 
Zuletzt bearbeitet:
Erst so, dann so. Wie TCM schon anmerkte hättest du dir einen Großteil meines Post mit einer genaueren und vernünftigeren Kritik an Nas4free sparen können. Deine Aussagen sind in vieler Hinsicht nicht spezifisch genug gewesen, also brauchst du dich über ein Missverständnis nicht wundern und kannst keine Sachen ala "Wer sagt denn dass ich xyz?" bringen.

Ich bin kein "ZFS Fanboy" und empfehle meinen Kunden auch Windows, dort wo es sinnvoll ist, z.B. als Exchange-Server, aber eben nicht als Storageserver.

Bevor du irgendwelche Präsentationen verlinkst solltest du sie auch mal selber lesen. Du kannst sehr wohl jede handelsübliche SSD als ZIL für einen Heimserver verwenden. Selbst hochwertige Consumer SSDs können sehr lange unter Volllast arbeiten ohne einen Defekt vor zu weisen.
Es gibt dazu etliche Dauertest-Projekte. Eine Intel 520 macht z.B. erst bei 876,66TiB schlapp, wie du das bei deinem "Leute Leute ich bin nicht im Rechenzentrum und habe nur einen Homeserver" hin bekommen willst musst du mir mal erklären. "Enterprise SSDs" unterscheiden sich zu den Consumer SSDs hauptsächlich dadurch dass sie für mehr Schreibzyklen ausgelegt sind, also mehr an "Spare-Flashspeicher" vorhanden ist. Die performancetechnischen Unterschiede für bessere Peformance ohne TRIM und Ausrichtung auf eher gleichmäßige Lese-/Schreibraten und IOPS mal ganz außen vor.

Auch "schwatze" ich niemanden etwas auf, ich begründe meine Empfehlungen ausgiebig. Sollten einem seine Daten wichtig sein setzt man zuverlässige Komponenten ein, so einfach ist das. Wenn man aber sagt "ist nicht mission critical", dann okay, mal im Gamerjargon "gl hf and enjoy your aids" mit der Desktophardware und den damit einhergehenden Risiken und Problemen. Ebenso bin ich kein Troll, informiere dich doch mal was das überhaupt ist bevor du solche Begriffe verwendest.
Du sprachst vom USB2-Stick, von nichts anderem. Was der Umstand dass Nas4free nur einmalig vom USB-Stick liest meine Aussage dass ein lahmer USB-Stick als "Bootlaufwerk" oder "Systemlaufwerk" ungeeignet ist zur Nichte macht habe ich auch nicht verstanden. Du hast dich über die langsame Bootgeschwindigkeit beschwert. Ob Nas4free NACH DEM BOOTEN im Ram arbeitet oder nicht ist dafür völlig unerheblich. Natürlich muss man als Bootlaufwerk keine SSD oder HDD verwenden. Aber man darf sich dann auch nicht bei einem Schnecken-Tempo-Stick über lange Ladezeiten beschweren. Ein schneller USB3-Stick wäre hier angebracht.

Auch wird meine Stromrechnung nicht von meinen Eltern bezahlt, wie war das noch mal mit dem "wir sind hier nicht im Rechenzentrum"? Versuchst du etwa von dir selbst auf andere zu schließen? ;)
Hast du den Post überhaupt gelesen? Es ging da um den Komfort- und Produktivitätsverlust bei Einsatz von WoL. Dein "persönlicher Angriff" zeugt davon dass du diesen Beitrag anscheinend nicht gelesen oder verstanden hast, ansonsten würdest du konkrete Gegenargumente liefern können und nicht dumm herum blöken.

Mir gefällt dieser leicht aggressive Schreibstil nicht, von daher ist diese Diskurs für mich nun beendet. Solche Auseinandersetzungen führen zu überhaupt nichts, außer zu Zeitverschwendung und einer sinnlosen Aufblähung dieses Threads. Es muss jeder selbst wissen welchen Ausführungen er mehr zustimmen kann oder nicht. Sei beim nächsten Mal präziser, dann vermeidest du Steilvorlagen zur Zerpflückung deiner Posts. Schön dass du das bereits eingesehen hast.

Wenn du einen "Bomben-SMB-Server" haben willst, schau dir mal ein Solaris an, der native SMB-Server von Sun ist nämlich erste Sahne, man kann problemlos auf Snapshots via Previous Versions unter Windows zugreifen. Wenn du ein Webinterface brauchst, greife zu Napp-it. Kann man natürlich nicht direkt mit Nas4free zu vergleichen, aber die Bereiche die napp-it abdeckt funktionieren wesentlich stabiler und sind eher in Richtung Geschäftskunden ausgerichtet.
 
Zuletzt bearbeitet:
Heute per zufall überflogen.
Zwar eine etwas ungewöhnliche Lösung, aber naja warum nicht. Er hat ebenfalls Erfahrungen mit dem lahmen CIFS/SMB Protokall unter Windows Clients gemacht. Er umgeht diesen umstand in dem er per iSCSI von einem Windows Server aus den Pool verteilt. Fällt aber für mich auch aus da ich wie bereits erwähnt keine zwei Rechner für eine Sache hergeben will... Virtualisierung?
Für mich sind aktuell daher nur, zwei bis drei Lösungen interessant.

1. Windows 8/2012 + Storage Spaces
Am einfachsten zu Realisieren mit dem Gewissen das fast alles darauf läuft und es für fast alles Treiber gibt. Inklusive schnellem SMB. Geht leider einher mit dem Verzicht auf ZFS!
möglich wäre zB. (SMB/FTP/MySQL/PHP/Web/UPnP/VDR/XBMC)

2. Ubuntu + ZFS Plugin
Auch noch Relativ easy zu Realisieren. Ob das SMB hier bei Windows Rechnern so abgeht wage ich zu bezweifeln, siehe Link oben. Dennoch stellt es Objektiv betrachtet den Goldenen weg dar.
denn ich habe hier ebenfalls wie mit Windows 8 die Möglichkeit zB. XBMC inkl. PVR zu realisieren.

3. Solaris/OpenSolaris + napp-it (zpool28/zpool34*)
Sicher der beste weg wenn es um ZFS only geht. Auch die aktuelle ZFS Pool Version weiß zu gefallen. Da wäre zB die *native Verschlüsselung. Ich kann mir gut vorstellen eines tagen mal hier zu landen wenn mein Projekt doch größer wird, 24/7 läuft und ich die aufgaben doch auf mehrere Rechner verteile.
 
Zuletzt bearbeitet:
Statt Ubuntu könnte man ja Napp-IT oder sowas als iSCSI target nutzen. Wichtig ist dann wohl nur, bei eventuellen Fehlern diese weiter "nach oben" zu berichten, damit einem dann nicht heimlich die Platten wegsterben.

Damit kann man dann immer noch mit Server 20XX weiterarbeiten und gBit LAN Speed sollte in den meisten Fällen wohl eh noch reichen. Leider scheint ZFS ja auf RAM zu stehen, daher sind da irgendwelche Lösungen mit Atom CPU oder gar ARM ala RaspberryPi wohl ein bisschen aus dem Rennen... und wenn ich dann schon einen ganzen PC nur als "Festplatte" zusammenbaue, dann sollte der schon mehr machen als nur als iSCSI Target dienen, damit fangen danna ber wieder die Probleme an. Im Firmenumfeld oder wenn man zu viel Strom/Hardware/Geld hat aber sicher überlegenswert.
 
Warum das Einzelschicksal weniger Personen nun als Pauschalaussage für Samba verstanden wird weiß ich nicht. Ja, manche Leute haben Probleme. Bei den anderen 99% läuft es aber problemfrei und performant. Quasi jedes NAS, jeder Linux- und jeder FreeBSD-Server der Windows Clients mit Dateien versorgen will nutzt Samba. Das ist keine Raketenwissenschaft und nun mal wirklich 0815 für einen *NIX-Admin, Zehntausende Firmen verdienen damit ihr Geld.

Ich möchte nur noch mal anmerken dass ich via Samba volle Gbit-Geschwindigkeit bekomme. Ich nutze eine simple Default Konfiguration unter Debian Squeeze mit 3.2er Kernel, nichts spezielles.
Wenn Samba korrekt konfiguriert ist muss man keine Spielerein mit iSCSI machen um Clients Zugriff auf Dateien zu geben. Ich würde einfach mal pauschal behaupten dass das reine Konfigurations- bzw. Softwareprobleme sind wenn man nicht mal auf 1Gbit-Speed kommt.

Zum Thema ZFS und Ram: Sofern du dem Atom-Board 8GB Ram verpassen kannst sehe ich kein Probleme beim Einsatz von ZFS. Wichtig ist der Einsatz eines 64bit-Kernels und damit auch einhergehender 64bit-Support der CPU was aber die aktuellen Atoms sowie Atom-Konkurenz (AMD Zacate, Turion, HP Microserver) unterstützen.
Da 64bit unter ARM eher noch Zukunftsmusik ist ist vom Einsatz von ZFS dort auch eher abzusehen, von den nicht vorhandenen Anpassungen von ZFS unter ARM mal ganz zu Schweigen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh