ccmonster
Enthusiast
- Mitglied seit
- 19.10.2006
- Beiträge
- 76
@hotzen:
zieh ich das Ganze mal aus meiner Sicht auf:
ich versuche mir gerade bildlich folgende Situation vorzustellen:
Anruf beim Support von Oracle "ja, ich hab da n Problem mit nem zpool - aber den hab ich unter freebsd mit per gnop verändertem ashift erstellt, dann exportiert und in das solaris importiert. Ach ja, dann hab ich da noch das zfs upgedatet und anschließend nen encryptetes Volume auf dem zpool erstellt. Und jetzt geht des iwie net...".
Ich komm aus dem Enterprise-Bereich und vertrete diese Ansicht auch im Privaten. Wer möchte, darf gerne mit verändertem ashift oder zfs unter Linux oder sonstigen Modifikationen arbeiten - für mich kommt es jedoch nichtmal ansatzweise in Frage!
Sobald die 4k-Thematik von den HDD-Herstellern vernünftig geregelt ist und seitens der OS ebenso umgesetzt wird, bin ich auch gerne bereit da "mitzumischen". Bis dahin halte ich mich jedoch an bekanntermaßen funktionale Systeme.
Aber das ist - wie bereits erwähnt - meine persönliche Einstellung. Hier darf also jeder nach eigenem Geschmack entscheiden! Ebenso ist es ein Frage des persönlichen Anspruch's - hier nicht auf die Person, sondern auf das Storage bezogen. Ich meine hiermit sozusagen den "Anforderungs-" bzw. "Aufgabenkatalog". So macht es z.B. für mich keinen Sinn 5400er Platten zu verwenden und dann in IOPS-Probleme zu laufen, weil ich mehrere Anfragen von diversen Clients auf das Storage lasse.
Beispiel: Client 1 will 100000 kleine Files per nfs schreiben, Client 2 ein großes File (z.B. > 4GB) per nfs nach lokal kopieren. Was ist das Ergebnis? Client 1 muss zwischendrin warten, da hier die Spindeln nicht die gewünschten/notwendigen IOPS bringen!
Da meine Systeme sogar ihre /home-Partition auf dem Storage haben, sollte jedem klar sein, welche Art von Zugriffen erfolgt.
So, nun genug des offtopic - wieder zurück zum eigentlichen Thema.
Schließlich geht es hier darum anderen zu helfen!
Nichts für ungut,
ccmonster
zieh ich das Ganze mal aus meiner Sicht auf:
ich versuche mir gerade bildlich folgende Situation vorzustellen:
Anruf beim Support von Oracle "ja, ich hab da n Problem mit nem zpool - aber den hab ich unter freebsd mit per gnop verändertem ashift erstellt, dann exportiert und in das solaris importiert. Ach ja, dann hab ich da noch das zfs upgedatet und anschließend nen encryptetes Volume auf dem zpool erstellt. Und jetzt geht des iwie net...".
Ich komm aus dem Enterprise-Bereich und vertrete diese Ansicht auch im Privaten. Wer möchte, darf gerne mit verändertem ashift oder zfs unter Linux oder sonstigen Modifikationen arbeiten - für mich kommt es jedoch nichtmal ansatzweise in Frage!
Sobald die 4k-Thematik von den HDD-Herstellern vernünftig geregelt ist und seitens der OS ebenso umgesetzt wird, bin ich auch gerne bereit da "mitzumischen". Bis dahin halte ich mich jedoch an bekanntermaßen funktionale Systeme.
Aber das ist - wie bereits erwähnt - meine persönliche Einstellung. Hier darf also jeder nach eigenem Geschmack entscheiden! Ebenso ist es ein Frage des persönlichen Anspruch's - hier nicht auf die Person, sondern auf das Storage bezogen. Ich meine hiermit sozusagen den "Anforderungs-" bzw. "Aufgabenkatalog". So macht es z.B. für mich keinen Sinn 5400er Platten zu verwenden und dann in IOPS-Probleme zu laufen, weil ich mehrere Anfragen von diversen Clients auf das Storage lasse.
Beispiel: Client 1 will 100000 kleine Files per nfs schreiben, Client 2 ein großes File (z.B. > 4GB) per nfs nach lokal kopieren. Was ist das Ergebnis? Client 1 muss zwischendrin warten, da hier die Spindeln nicht die gewünschten/notwendigen IOPS bringen!
Da meine Systeme sogar ihre /home-Partition auf dem Storage haben, sollte jedem klar sein, welche Art von Zugriffen erfolgt.
So, nun genug des offtopic - wieder zurück zum eigentlichen Thema.
Schließlich geht es hier darum anderen zu helfen!
Nichts für ungut,
ccmonster