[Sammelthread] ZFS Stammtisch

@hotzen:
zieh ich das Ganze mal aus meiner Sicht auf:
ich versuche mir gerade bildlich folgende Situation vorzustellen:
Anruf beim Support von Oracle "ja, ich hab da n Problem mit nem zpool - aber den hab ich unter freebsd mit per gnop verändertem ashift erstellt, dann exportiert und in das solaris importiert. Ach ja, dann hab ich da noch das zfs upgedatet und anschließend nen encryptetes Volume auf dem zpool erstellt. Und jetzt geht des iwie net...".
Ich komm aus dem Enterprise-Bereich und vertrete diese Ansicht auch im Privaten. Wer möchte, darf gerne mit verändertem ashift oder zfs unter Linux oder sonstigen Modifikationen arbeiten - für mich kommt es jedoch nichtmal ansatzweise in Frage!
Sobald die 4k-Thematik von den HDD-Herstellern vernünftig geregelt ist und seitens der OS ebenso umgesetzt wird, bin ich auch gerne bereit da "mitzumischen". Bis dahin halte ich mich jedoch an bekanntermaßen funktionale Systeme.

Aber das ist - wie bereits erwähnt - meine persönliche Einstellung. Hier darf also jeder nach eigenem Geschmack entscheiden! Ebenso ist es ein Frage des persönlichen Anspruch's - hier nicht auf die Person, sondern auf das Storage bezogen. Ich meine hiermit sozusagen den "Anforderungs-" bzw. "Aufgabenkatalog". So macht es z.B. für mich keinen Sinn 5400er Platten zu verwenden und dann in IOPS-Probleme zu laufen, weil ich mehrere Anfragen von diversen Clients auf das Storage lasse.
Beispiel: Client 1 will 100000 kleine Files per nfs schreiben, Client 2 ein großes File (z.B. > 4GB) per nfs nach lokal kopieren. Was ist das Ergebnis? Client 1 muss zwischendrin warten, da hier die Spindeln nicht die gewünschten/notwendigen IOPS bringen!
Da meine Systeme sogar ihre /home-Partition auf dem Storage haben, sollte jedem klar sein, welche Art von Zugriffen erfolgt.

So, nun genug des offtopic - wieder zurück zum eigentlichen Thema.
Schließlich geht es hier darum anderen zu helfen!

Nichts für ungut,

ccmonster :coolblue:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ulukay:
Diese Ausgaben geben leider tatsächlich keinen Aufschluss. Da ich sowohl virtuelle als auch physikalische Installationen besitze, hätte mir ein derartiges Verhalten schon auffallen müssen. Dies war bisher noch nicht der Fall.
Du greifst hier auf deinen rpool zu. Ist 'rpool/backup' ein encryptetes Volume oder lediglich ein Folder in /rpool?
Kannst du bitte deine Hardware posten? Ich gehe hier inzwischen eher von einem Hardware-Defekt denn von einem Software-Fehler aus. Bitte ggf. auch mal dein Install-ISO bzw. das gebrannte Medium kontrollieren (md5,sha256). Hier hatte ich mal massive Prob's mit OpenIndiana.
Hast du die Möglichkeit, dir weitere Platten für einen neuen zpool in das System zu hängen? Evtl. sogar sas an einem lsi oder u320 auf z.b. adaptec 39320a. Mir kommt das echt "spanisch" vor.
EDIT: warum swap't dein system? Wieviel RAM ist verbaut bzw. was läuft parallel? Bei mir ist der swap noch NIE genutzt worden! Evtl. mehr RAM stecken...

so far...
ccmonster

1x nativ installiert auf nem:
Gigabyte GA-G41M-COMBO
Intel Celeron 430
KINGSTON 1GB DDR3
mit 2 750GB seagates im zfs mirror

und 1x virtuell mit kvm auf einem ubuntu 10.10 server (rockstable seit 2 jahren) - q6600
virtuelle maschine ebenfalls mit 1cpu und 1gb ram - daten auf rpool/backup grade mal 2gb.
in dem fall war rpool/backup ein encryptetes volume (sonst default settings - ausser 3gb quota)

hab die iso schon mit md5 gecheckt - die passt und hab den virtuellen auch mit dieser iso installiert - also keine cdrom lesefehler!
 
Hi zusammen,

Ihr wart ja fleissig am Gerät. Mir ist leider ein Berg Arbeit dazwischen gekommen. Daher überlege ich nun die "Schnelllösung":

Mit 3 Platten EARS scheint es ja doch zu gehen. Die Performance ist mir egal solange Gbit ausgelastet wird. Die vierte Platte kann ich zur hotspare machen. Und soweit ich es verstanden habe muss ich mir gerne sorgen machen wegen RaidZ auf 3 Platten EARS in Bezug auf Datensicherheit.

Verschlüsselung: Ich nehme erstmal Truecrypt und mache mir ein paar fette Container. Habe etwas gesucht aber nicht weiter gefunden im Netz. Spricht da etwas dagegen (TC Container auf ZFS)? Dem Scrub ist es egal oder - bit ist bit?
Dann warte ich bis Verschlüsselung mit Openidiana/ nexenta angekommen ist. Solarisexpressbastelei bringt mir z.Zt. nichts - blicke nicht genau was ich da machen muss/ würde.

Den Microserver werde ich mal Abends angehen wenn die Birne leer ist. Zuerst mal mit zwei alten Seagate Serverplatten gespiegelt und eine Notebookplatte für OS.

@ ccmonster und hotzen: Nicht vergessen -> kräftig auf den Ball spielen, nicht auf den Mann ;-)

Ok, immerhin habe ich mein X61s neuinstalliert bekommen und die SSD tut auch halbwegs gut (die Schlauberger bei Lenovo haben intern Sata 1G verbaut :-(( Läuft auch mít TC Komplettverschlüsselung noch fix.) Nur die VelocyRaptor liegt nun rum. Vielleicht doch den Microserver wieder zur VmWare Spielwiese nutzen.

Gut, dann mal wieder an die Arbeit.

Gruss
Otto
 
Hi zusammen,

Dann warte ich bis Verschlüsselung mit Openidiana/ nexenta angekommen ist. Solarisexpressbastelei bringt mir z.Zt. nichts - blicke nicht genau was ich da machen muss/ würde.

SE11 ist meiner Ansicht nach ein stabiles und eins der modernsten System überhaupt. Probleme hatte ich bisher bei keiner Testinstallation. Die allerneuesten Sachen wie Deduplizierung und bzw SE11 Verschlüsselung nutze ich aber bisher nur zum Testen mit kleineren Daten. Was ich festgestellt habe, ist dass es sehr heikel in Bezug auf verwendete Hardware ist.

ZFS-Verschlüsselung bei SE11 ist ansonsten richtig einfach. Es ist eine Eigenschaft wie compress oder cifs-share. Mit napp-it muss es beim Anlegen eines ZFS-Dateiesystems/folders einfach aktiviert und ein Schlüsselwort angegeben werden. Nach einem dismount oder Neustart muss dieses dann erneut eingegeben werden und der ZFS folder steht dann ganz normal zur Verfügung. Richtig einfach und läuft völlig transparent im Hintergrund.

Gea
 
SE11 ist meiner Ansicht nach ein stabiles und eins der modernsten System überhaupt. Probleme hatte ich bisher bei keiner Testinstallation. Die allerneuesten Sachen wie Deduplizierung und bzw SE11 Verschlüsselung nutze ich aber bisher nur zum Testen mit kleineren Daten. Was ich festgestellt habe, ist dass es sehr heikel in Bezug auf verwendete Hardware ist.

ZFS-Verschlüsselung bei SE11 ist ansonsten richtig einfach. Es ist eine Eigenschaft wie compress oder cifs-share. Mit napp-it muss es beim Anlegen eines ZFS-Dateiesystems/folders einfach aktiviert und ein Schlüsselwort angegeben werden. Nach einem dismount oder Neustart muss dieses dann erneut eingegeben werden und der ZFS folder steht dann ganz normal zur Verfügung. Richtig einfach und läuft völlig transparent im Hintergrund.

Gea

Ok, ok. Ich teste endlich Dein napp-it und das SE11 ;-) Aber nicht ärgern wenn dumme Fragen kommen ;-)

Das weitere Problem - mir fehlt der Platz wo ich die 3 TB Daten zwischenparke... Hab schon überlegt nochmals 3x2 TB ohne 4k zu kaufen... Aber dann kommt wieder eine Entscheidung - welche SATA Platten soll man z.Zt. kaufen? 5 Jahre Garantie wären gut. Und um die 200 Eier pro Platte habe ich gerade nicht übrig... (eigentlich wird es Zeit für Server III -> Fileserver produktiv, Fileserver Backup und Auslagerung, VmWare Server). 4 HE habe ich noch im Rack.

Gruss,
Otto

PS: Bald sollen ja 20 Watt Xeons auf Sandy Brige Basis kommen.
 
Zuletzt bearbeitet:
Tja meine Bastellösung hat sich gerade als Schrott erwiesen, nach jedem Neustart der VM waren 2 Platten als defekt gekennzeichnet und der pool im eimer... schade eigentlich... also doch nen windoof raid :-(

Anscheinend haben damit mehrere Leute Probleme: http://www.google.de/search?q=site:communities.vmware.com+rdm+zfs
Unterstützt deine CPU schon VT-d? Vll kann man damit wie bei ESXi den ganzen SATA-Controller 1:1 ohne Virtualisierung an ZFS durchreichen...

Ansonsten, wenn du das eh unter Windows betreiben wollen würdest, schau dir das mal an: http://www.flexraid.com/

@hotzen:
zieh ich das Ganze mal aus meiner Sicht auf:
ich versuche mir gerade bildlich folgende Situation vorzustellen:
Anruf beim Support von Oracle "ja, ich hab da n Problem mit nem zpool - aber den hab ich unter freebsd mit per gnop verändertem ashift erstellt, dann exportiert und in das solaris importiert. Ach ja, dann hab ich da noch das zfs upgedatet und anschließend nen encryptetes Volume auf dem zpool erstellt. Und jetzt geht des iwie net...".
Ich komm aus dem Enterprise-Bereich und vertrete diese Ansicht auch im Privaten. Wer möchte, darf gerne mit verändertem ashift oder zfs unter Linux oder sonstigen Modifikationen arbeiten - für mich kommt es jedoch nichtmal ansatzweise in Frage!
Sobald die 4k-Thematik von den HDD-Herstellern vernünftig geregelt ist und seitens der OS ebenso umgesetzt wird, bin ich auch gerne bereit da "mitzumischen". Bis dahin halte ich mich jedoch an bekanntermaßen funktionale Systeme.

Da möchte ich gar nicht andiskutieren, wenn du ZFS ausschließlich auf Oracle unterstützten Pfade zwecks Support fahren willst, ist das ein ganz anderer Schnack. Nur um das klarzustellen, der ZFS Pool ist immer noch nicht außerhalb der Spezifikation betrieben, nur wird Oracle so ein Setup nicht supporten wollen, keine Frage.

Wenn du aus dem Enterprise-Bereich kommst, mach mal bei den richtigen Kanälen Druck, dass wir mal echte 4k-Platten bekommen ;)
 
Zuletzt bearbeitet:
Die Bastellösung ist ohne Controller echt Schrott. Habe auch seit Monaten ein degraded pool - ein Kollege mit ähnlicher Config hat dasselbe Problem. Also ist VT-D da eigentlich Pflicht. (Entweder Onboard oder HBA durchreichen)
 
SE11 ist meiner Ansicht nach ein stabiles und eins der modernsten System überhaupt. Probleme hatte ich bisher bei keiner Testinstallation. Die allerneuesten Sachen wie Deduplizierung und bzw SE11 Verschlüsselung nutze ich aber bisher nur zum Testen mit kleineren Daten. Was ich festgestellt habe, ist dass es sehr heikel in Bezug auf verwendete Hardware ist.

ZFS-Verschlüsselung bei SE11 ist ansonsten richtig einfach. Es ist eine Eigenschaft wie compress oder cifs-share. Mit napp-it muss es beim Anlegen eines ZFS-Dateiesystems/folders einfach aktiviert und ein Schlüsselwort angegeben werden. Nach einem dismount oder Neustart muss dieses dann erneut eingegeben werden und der ZFS folder steht dann ganz normal zur Verfügung. Richtig einfach und läuft völlig transparent im Hintergrund.

Gea

Geht los :-)
dsc_0588mqvj.jpg
 
Dummerweise hat miene cpu kein VT-d.

Ich überlege jetzt ob ich mir SE11 nativ auf die Kiste haue und dann mit VirtualBox mein Windows betreibe... aber so richtig davon überzeugt bin ich auch nicht... hmm
 
Das willst du nicht tun, Windows unter Virtualbox ist kein Genuß. Wie bereits gesagt, schau dir als Alternative mal flexraid an.
 
@Hotzen

Das hört sich wirklich interessant an. Ist zwar wirklich schade das ich kein ZFS nutzen kann, aber vllt wirds ja beim nächsten Projekt was.

thx
 
1x nativ installiert auf nem:
Gigabyte GA-G41M-COMBO
Intel Celeron 430
KINGSTON 1GB DDR3
mit 2 750GB seagates im zfs mirror

und 1x virtuell mit kvm auf einem ubuntu 10.10 server (rockstable seit 2 jahren) - q6600
virtuelle maschine ebenfalls mit 1cpu und 1gb ram - daten auf rpool/backup grade mal 2gb.
in dem fall war rpool/backup ein encryptetes volume (sonst default settings - ausser 3gb quota)

hab die iso schon mit md5 gecheckt - die passt und hab den virtuellen auch mit dieser iso installiert - also keine cdrom lesefehler!

Hier liegt in deinem RAM schon eines der größten Probleme - allein der Solariskernel bläst sich teilweise auf über 1GB auf - bei mir bis 1,5GB!!! Daher das swappen. Insofern kann das System z.B. keinen vernünftigen ARC aufbauen. Die Empfehlung lautet grob wie folgt: 1GB System, pro TB Pool 1-1,5GB. Ich hab mir mal die komplette Empfehlung seitens SUN/Oracle aus den Whitepapern zusammengeschrieben - mal schauen, wo ich das hab.

Von daher rate ich dir DRINGEND deinen RAM aufzurüsten! Kannst du der VM oder dem phys. Host z.B. 4GB geben? Darunter wird es speichertechnisch eng. Wenn du natürlich mehr verbaust, als sogar die Empfehlung sagt, dann ist dies nur vorteilhaft, da der zusätzliche RAM als ARC für "zfs meta data" verwendet wird.

Wenn dein System läuft, geb bitte mal "echo ::memstat | pfexec mdb -k" ein und poste das Ergebnis. Teile mir bitte auch mal die Average Load aus top mit.

MfG ccmonster
 
Ok, Status: Geht alles viel einfacher als gedacht - ext. CD Laufwerk ran, SE startet. Dann auf HDD installieren. Dann habe ich eine Zeit gegrübelt wie man vertikalen Strich zaubert für wget -O - www.napp-it.org/nappit | perl
Naja, da hat es ja einen Firefox und da surft man zu napp-it Anleitung, copy und paste ;-)
Dann rattert die Mühle eine Zeit und fertig.
Die zwei HDDs habe ich zu einem Spiegel zusammengebunden. Habe nun 30 Mb/s schreiben und 120 lesen.

Noch nicht gefunden:
1) Wie nennt man die Arbeitsgruppe unter SE oder Napp-it um?
2) SMB mit den Usern muss ich noch gar lesen - hatte nun einfach in Napp-it eingestellt, dass jeder Zugriff hat.
3) Verschlüsselung - Haken habe ich gefunden. System ist mir noch nicht ganz klar: Ich muss dann erst über napp-it freischalten und kann DANN per SMB zugreifen oder geht es auch, dass man per SMB das Passwort eingibt (also vom anderen Rechner)? Und: Wenn ich den Folder nachträglich für Verschlüsselung anhake - verschlüsselt er dann alles was schon drinnen ist, oder erst was neu kommt?
4) Kann ich die Platte auf der das OS ist auch nutzen um Folder drauf zu machen? Das ist nämlich gerade die VelocyRaptor und vielleicht geht die mit dem Schreiben schneller.
5) Well, ganz prinzipiell - napp-it ist sozusagen ein reines Verwaltungs-GUI? Alles was man da einstellt könnte man auch per Hand bzw. klick im SE einstellen?

Gut, werde nun mal weiter pröbeln.

Gruss
Otto

ps: heute kam das neue c't netzwerke an. für den anfänger ganz passend. vpn und vlan ist gut erklärt.
 
Zuletzt bearbeitet:
[...] schau dir als Alternative mal flexraid an.

Das habe ich vor kurzem mal getestet.
Ergebnis: UNBRAUCHBAR und mit heißer nadel gestrickt. :rolleyes:


5) Well, ganz prinzipiell - napp-it ist sozusagen ein reines Verwaltungs-GUI? Alles was man da einstellt könnte man auch per Hand bzw. klick im SE einstellen?

Klick??????? :d :d :d
Aber ja man kann das alles an der Konsole per TASTATUR oder SSH erledigen.

Das können wir gleich mal beim problem #1 üben:
Konsole auf und das hier eingegeben:
su -> root pw eingeben
smbadm join -w *Arbeitsgruppenname*
 
Zuletzt bearbeitet:
Klick??????? :d :d :d
Aber ja man kann das alles an der Konsole per TASTATUR oder SSH erledigen.

Das können wir gleich mal beim problem #1 üben:
Konsole auf und das hier eingegeben:
su -> root pw eingeben
smbadm join -w *Arbeitsgruppenname*

Aha, das geht :-)

Hast Du ne Ahnung ob SE die Ports gleich irgendwie bündelt? Habe 3 ports. Bei nexenta ging das auch per Konsole. Fürchte SE hat wieder andere Befehle. Oder sind die gleich? Glaube portaggregation war das Zauberwort.
 
Zuletzt bearbeitet:
Wenn du aus dem Enterprise-Bereich kommst, mach mal bei den richtigen Kanälen Druck, dass wir mal echte 4k-Platten bekommen ;)

Wie soll ich für "echte" 4k-Platten Druck machen, wenn es im Enterprise-Bereich imho noch keine 4k-Platten gibt? Ich sehe (persönliche Meinung) auch wenig Sinn in 4k-Platten für den Enterprise-Bereich. Hier ist dann im Normalfall das nötige Kleingeld vorhanden, um sich n paar Hundert Platten (z.B. 2TB-FC mit Support für knapp 2k Euro) mit 512er Sektoren zu leisten.

Von daher muss ich dich enttäusen... Ich weiß, es gibt von Hitachi auch 3TB mit 512er Sektoren, allerdings ist hier über die Datensicherheit und Plattenzuverlässigkeit in diesem Bereich kaum etwas bekannt... Ich persönlich greife lieber zu kleineren aber mehreren Platten - bringt mir dann aufgrund der steigenden Spindelzahl auch entsprechende IOPS.

MfG ccmonster
 
Ich persönlich greife lieber zu kleineren aber mehreren Platten - bringt mir dann aufgrund der steigenden Spindelzahl auch entsprechende IOPS.

MfG ccmonster

Was genau empfiehlst Du da? Überlege auch ob noch eine Hand voll 1.5 TB Platten zu holen.

Mit Gruss
Otto

---------- Beitrag hinzugefügt um 18:06 ---------- Vorheriger Beitrag war um 17:50 ----------

Ok, habe nun die zwei Platten als "Einfach" verbunden statt Mirror. Nun schreibt er ca. 50 Mb/s. Das wird doch :-)
 
Hier liegt in deinem RAM schon eines der größten Probleme - allein der Solariskernel bläst sich teilweise auf über 1GB auf - bei mir bis 1,5GB!!! Daher das swappen. Insofern kann das System z.B. keinen vernünftigen ARC aufbauen. Die Empfehlung lautet grob wie folgt: 1GB System, pro TB Pool 1-1,5GB. Ich hab mir mal die komplette Empfehlung seitens SUN/Oracle aus den Whitepapern zusammengeschrieben - mal schauen, wo ich das hab.

Von daher rate ich dir DRINGEND deinen RAM aufzurüsten! Kannst du der VM oder dem phys. Host z.B. 4GB geben? Darunter wird es speichertechnisch eng. Wenn du natürlich mehr verbaust, als sogar die Empfehlung sagt, dann ist dies nur vorteilhaft, da der zusätzliche RAM als ARC für "zfs meta data" verwendet wird.

Wenn dein System läuft, geb bitte mal "echo ::memstat | pfexec mdb -k" ein und poste das Ergebnis. Teile mir bitte auch mal die Average Load aus top mit.

MfG ccmonster

Code:
~# free
Page Summary                Pages                MB  %Tot
------------     ----------------  ----------------  ----
Kernel                      75846               296   29%
ZFS File Data               62666               244   24%
Anon                        19757                77    8%
Exec and libs                1123                 4    0%
Page cache                   4756                18    2%
Free (cachelist)            12756                49    5%
Free (freelist)             83091               324   32%

Total                      259995              1015
Physical                   259994              1015

lol
sry aber noe
solaris 11 ist und bleibt eine absolute fehlentwicklung auf x86
wie bescheuert muss man programmieren dass man mehr wie 1gb ram braucht fuer einen laufenden kernel, einen ssh daemon und einen 10gb zfs pool?
das thema ist fuer mich gestorben - epic fail

btw. auf derselben hw rennt zur zeit linux + aes verschluesselung + btrfs + ssh daemon und das braucht maximal 76mb ram :rolleyes:

edit: aber nimms bitte nicht persoenlich. du kannst ja nix dafuer :)
 
Zuletzt bearbeitet:
Was genau empfiehlst Du da? Überlege auch ob noch eine Hand voll 1.5 TB Platten zu holen.

Mit Gruss
Otto

---------- Beitrag hinzugefügt um 18:06 ---------- Vorheriger Beitrag war um 17:50 ----------

Ok, habe nun die zwei Platten als "Einfach" verbunden statt Mirror. Nun schreibt er ca. 50 Mb/s. Das wird doch :-)

Meine Empfehlung im normal bezahlbaren Rahmen sind HE103SJ bzw. HD103SJ - sind jeweils Spinpoint F3 mit 1TB. Hier würde ich die HE jedoch vorziehen. Müssen es 1,5TB sein, dann greif bitte zur HD153WI bzw. für 2TB zur HD203WI. Beide Platten sind dann aber nur noch 5400er HDD's. Alle 4 setzen auf 512er Sektoren.

Wenn du hochwertigere Platten möchtest, dann kannst du bedenkenlos für 7200er zu Seagate's Constellation.2 mit 1TB bzw. für 10k zur 600er Velo greifen. Hier dann am Besten bei 2,5" bleiben - also auch bei der Velo. Für 2,5" gibt es von z.B. Supermicro nette Chassis, welche auf SAS zurückgreifen, so dass du diese je nach Controllerfähigkeiten "beliebig" erweitern kannst. Alternativ gibt es auch für knapp 50Euro von icydock ein "4 in 1 5,25" " Chassis mit SATA-Anschluss.

Lass bitte den normalen Verbund sein - ist ein Stripeset!!!

@ulukay:
kein Problem. Ist ja bekannt, dass zfs auf Solaris auf x86 bzw. x86_64 nur von CPU und RAM lebt!
Kann also durchaus verstehen, dass du wieder zu Linux zurückbist. Ich bleib beim Storage auf Solaris11. Nehm deine Entscheidung def. nicht persönlich! ;)

MfG ccmonster
 
Zuletzt bearbeitet:
Ok, Status: Geht alles viel einfacher als gedacht - ext. CD Laufwerk ran, SE startet. Dann auf HDD installieren. Dann habe ich eine Zeit gegrübelt wie man vertikalen Strich zaubert für wget -O - www.napp-it.org/nappit | perl
Naja, da hat es ja einen Firefox und da surft man zu napp-it Anleitung, copy und paste ;-)
Dann rattert die Mühle eine Zeit und fertig.
Die zwei HDDs habe ich zu einem Spiegel zusammengebunden. Habe nun 30 Mb/s schreiben und 120 lesen.

Noch nicht gefunden:
1) Wie nennt man die Arbeitsgruppe unter SE oder Napp-it um?

menu services-smb-active directory

2) SMB mit den Usern muss ich noch gar lesen - hatte nun einfach in Napp-it eingestellt, dass jeder Zugriff hat.

menu user: neue user anlegen und diesen von Windows aus Rechte auf shares und folders geben (dazu am Besten als user root per cifs verbinden)

3) Verschlüsselung - Haken habe ich gefunden. System ist mir noch nicht ganz klar: Ich muss dann erst über napp-it freischalten und kann DANN per SMB zugreifen oder geht es auch, dass man per SMB das Passwort eingibt (also vom anderen Rechner)? Und: Wenn ich den Folder nachträglich für Verschlüsselung anhake - verschlüsselt er dann alles was schon drinnen ist, oder erst was neu kommt?

Verschlüsselung muss beim Anlegen eines ZFS aktiviert werden, geht nicht nachträglich. Das Passwort muss bereits beim Mounten des Dateisystems eingegeben werden (z.B. auch remote per napp-it).

4) Kann ich die Platte auf der das OS ist auch nutzen um Folder drauf zu machen? Das ist nämlich gerade die VelocyRaptor und vielleicht geht die mit dem Schreiben schneller.

nein

5) Well, ganz prinzipiell - napp-it ist sozusagen ein reines Verwaltungs-GUI? Alles was man da einstellt könnte man auch per Hand bzw. klick im SE einstellen?

korrekt.

napp-it macht genau drei Sachen

1. installiert / kompiliert tools wie smartmontools, midnight commander, iperf, netcat oder
komplette Serverdiesnte wie AFP mit TimeMachine, Apache mit PHP oder mySQL

2. konfiguriert das Betriebssystem z.b. den SMB Service oder Rechte

3. Installiert und konfiguriert das napp-it Web-UI samt eigenem Webserver


Gea
 
Zuletzt bearbeitet:
Ihr scheint ja Geld schei**en zu können, dass hier Festplatten einer alten Generation mit Preisen von mehr als 40EUR/TB (Samsung F3) empfohlen werden.

Enterprise und Zuverlässigkeit hin oder her, ich finde es nicht Okay hier große FUD wg 4k-Sektor Platten zu streuen und dann mit Enterprise Constellation 2,5" HDD-Empfehlungen um sich zu werfen, die ab 170EUR/TB kosten. Das ist doch ein Witz in einem Forum, das extra als "(Home-) Server/Workstation Forum" definiert ist, als Abgrenzung zum Profibereich....
 
nun ja,
ich finde schon, dass ZFS eher Profibereich ist und nicht home.
Dass es nicht im Profibereich liegt, liegt ja nicht am Thema sondern den admins.

und zum Thema 4k Platten.
Die haben eigentlich nur einen Vorteil, nämlich dass sie billig sind-
ansonsten ist es momentan nicht nur mit ZFS eher von Nachteil - langsam sind sie immer.

...Wobei meine aktuellen Platten oft nochmal teurer sind als die angesprochenen
Ich nehme SSD als Datenplatten, zwar MLC aber als 4 x 3way Mirror für meine VM's...

(Ausserdem kenne ich Leute, die auch auf Hobbymaschinen noch ganz andere Profiteile verbauen).
Ich begrüße es daher, wenn auch teure "problemfrei"-Lösungen angesprochen werden.
Sonst gewinnt man noch den Eindruck, dass es mit ZFS nur Probleme gibt und das ist mit der
richtigen Hardware auf X86 definiv nicht so.


Gea
 
Zuletzt bearbeitet:
Ihr scheint ja Geld schei**en zu können, dass hier Festplatten einer alten Generation mit Preisen von mehr als 40EUR/TB (Samsung F3) empfohlen werden.

Enterprise und Zuverlässigkeit hin oder her, ich finde es nicht Okay hier große FUD wg 4k-Sektor Platten zu streuen und dann mit Enterprise Constellation 2,5" HDD-Empfehlungen um sich zu werfen, die ab 170EUR/TB kosten. Das ist doch ein Witz in einem Forum, das extra als "(Home-) Server/Workstation Forum" definiert ist, als Abgrenzung zum Profibereich....

Wo ist bitte dein Problem? Ich wurde um Rat gebeten - dies ist meine Antwort. Ebenso halte ich es bei mir zuhause! Und da ist es insofern auch ein Home-Storage! Unter anderem laufen bei mir auch U320-Platten, und davon nicht bloß eine! Sollte dir meine Meinung nicht passen, dann darfst du diese gerne überlesen und so Platten kaufen, wie es dir beliebt! Das werde ich niemandem vorschreiben! Also...?
Mir persönlich geht es um Zuverlässigkeit und Datenintegrität - unter anderem darum verwende ich zfs! Wenn es dir nicht passt - nicht mein Pech!

Wer mich um Rat oder Meinung bittet, wird diese auch von mir erhalten - und zwar genau so, wie ich es erachte! Und wenn es meiner Meinung nach interessant ist Enterprise-Platten zu verbauen, dann werde ich dies auch tun bzw. diese empfehlen!

Langsam wird's mir echt zu kindisch...

@otto123:
Wenn du Fragen hast, darfst du mich gerne auch direkt anschreiben, um diesen Kindergarten zu vermeiden!

ccmonster
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe nun mal das Solaris auf ne alte Notebook HDD gespielt um die VelocyRaptor mal testen zu können.

@Gea und ccmonster - herzlichen Dank für die Infos. Werde ich morgen reinschauen/ umsetzen. Jetzt mal um die Freundin kümmern sonst gibt's was auf den Deckel.

@hotzen. Verstehe nicht ganz was der Ton soll. Wofür jeder sein Geld rauswirft ist doch zum Glück jedem selbst überlassen. Wenn Du zum Kunden gehst rechnet wahrscheinlich jmd. nen Tausender (oder mehr) für Dich ab. Wenn mir ein Tag verschwendet geht (plus Ersatz bestellen, warten, alte Einschicken) weil die Festplatten Mist sind... Kurz: 5 Jahre Seelenfrieden sind mir durchaus ein paar Euro wert.

Schönen Abend,
Otto

PS:
Datei 4 GB Film, alles ohne Verschlüsselung.
Also: Schreibt auf den Microserver nun mit ca. 60 Mb/s
Download (von einer SSD im Desktop): Startet rel. schnell mit 120 Mb/s und wird dann kontinuierlich langsamer bis auf 60 Mb. Gut, vielleicht darf man der Windows Anzeige auch nicht so viel trauen. Muss man nach einem besseren Test Tool schauen.
 
Zuletzt bearbeitet:
Ich habe ja gar nichts dagegen, dass auch teure Festplatten diskutiert werden und die sicherlich gut geeignet für ZFS sind wenn nicht sogar, dass ZFS für diese Festplatten kreiert wurde. Allerdings finde ich die Argumentation dahin nicht in Ordnung.
Es wird hier immer der Eindruck erweckt, dass man mit 4k Platten ZFS nicht richtig zum fliegen bringt und das ist nicht der Fall. Die Wege dahin sind zwar nicht durch eine Oracle-Dokumentation abgedeckt aber gangbar und ohne gehacke und sollten daher natürlicherweise Gegenstand dieses Threads sein.
Allerdings habe ich das Gefühl in den Argumentationen gegen ordentliche 4k-Platten mit guter Datendichte und sehr guter Geschwindigkeit/Stromverbrauch ziemlichen FUD herauszulesen, das stört mich.
 
@all

gibt es denn negative Erscheinungen bei der Nutzung von 4k Platten ?
( abgesehen vom Performance Einbruch )

Insbesondere was die Zuverlässigkeit des Pools angeht ?

Danke

Xymos
 
Ich versuch jetzt mal die Plattendiskussion auf den Punkt zu bringen, damit wir uns wieder anderen Themen zuwenden können. Vorallem ist mir wichtig, dass hier keine Revierkämpfe oder Grabenkämpfe aufkommen.

- die "alten" 512 Platten laufen unter ZFS ohne Probleme,
- die "neuen" 4k laufen unter ZFS mit verminderter Performance,
- die neuen 4k Platten sind billig in der Anschaffung bzw GB/EURO,
- es ist über die "Bastelarbeit" möglich auch 4k Platten zum Fliegen zu bringen,
- hierzu bedarf es aber Wege zu gehen, die nicht der ZFS/Oracle Doku conform sind,
- bei Bastelarbeit, gibt es aber keinen OracleSupport,
- Empfehlung zwecks Kompatibilität neuerer ZFS-Versionen (Pool-Export, Import) wird von diesen "Modifikationen" abgeraten,
- Wegen Datenintegrität und Zuverlässigkeit wird von Mods abgeraten,
- je näher die Hardware am EnterpriseBereich ist, umso weniger ist mit Problemen seitens des BS oder FS zu rechnen.

Ich habe absichtlich jetzt keine Links eingefügt, denn wer mods machen will, sollte sich mit dem Thema auseinander setzen und genau wissen was er tut.


Wer glaubt, er kann mit seiner Geiz-ist-geil Mentalität ein ZFS-System aufsetzen und vorallem damit glücklich werden, wird bitter enttäuscht werden.
Es wird nicht funktionieren.
Tipp: Nur Hardware kaufen, welche Andere vorher schon auf Kompatibilität getestet und bestätigt haben.
Es gilt einen gesunden Mittelweg zwischen SoHo und Enterprise zu finden und es geht.
 
@all

gibt es denn negative Erscheinungen bei der Nutzung von 4k Platten ?
( abgesehen vom Performance Einbruch )

Insbesondere was die Zuverlässigkeit des Pools angeht ?

Danke

Xymos

mal von Sonderfällen wie Samsung F4 mit fehlerhafter Firmware abgesehen sind sie genauso (un)zuverlässig wie andere Desktop-Festplatten auch.

Gea
 
Empfehlung zwecks Kompatibilität neuerer ZFS-Versionen (Pool-Export, Import) wird von diesen "Modifikationen" abgeraten,

Wenn der Pool initialisiert ist und unter SE11 importiert und upgraded wird, ist der Pool auf neuestem Stand und kein Stück "gefrickelt". Die ashift-Wahl würde auch Solaris mit neuester ZFS-Version *genau so* treffen, wenn es die GNOP-Möglichkeit auch unter Solaris gäbe.
Dieses Vorgehen als "Modifikation" zu titulieren ist irreführend. Wir reden hier nicht davon die ZFS-Source zu patchen, damit ashift=12 dauerhaft eingestellt ist.
Aber ich höre an dieser Stelle auf, alles wichtige ist bereits gesagt und auf den letzten Seiten nachzulesen.
Definitiv kann gesagt werden, dass ZFS auf massig Ram und "enterprise" SAS/SATA HBAs angewiesen ist, damit hat es sich aber eigentlich schon...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh