Der DD Bench schreibt ja eine 10 GB Datei und liest diese wieder. Wenn dieser Benchmark aber z. B. 70 MB/s schreibend anzeigt sollte dann das kopieren einer einzelnen 10 GB Datei von einem Windows Client auf den Pool per SMB oder NFS nicht einen ähnlichen Wert ergeben? Vorrausgesetzt das der Client die Daten schnell genug liefern kann.
banaler Vergleich: Auf der Autobahn fährt es sich schneller als in der Stadt wo es dauernd Ampeln und Brschränkungen gibt.
Testdaten im RAM erzeugen und auf Platte schreiben oder ins Nichts lesen geht natürlich immer perfekt schnell, fast so schnell eben wie es die Platte physikalisch hergibt. Wenn diese Daten dann für ein Serverprotokoll aufbereitet werden müssen, in ip verpackt/ entpackt über ein IP Netz mit Kolissionen verschickt werden um dann wieder über den entsprechenden Client auf die Platte geschrieben werden, so bleibt davon viel weniger übrig und zwar umso weniger je kleiner die Datenpakete sind.
Wenn dann das schreibende Programm noch anweist, dass jeder geschriebene Datenblock bestätigr werden muss, damit der nächste gesendet wird (ESXi + NFS + sync write) dann bremst das nocheinmal. Ein schnelles NFS-SAN datastore für ESXi ist daher um einiges aufwändiger als nur ein einfacher schneller Datenpool, der über SMB oder NFS freigegeben werden soll.
Bei besonders langsamen Platten, wir den green Typen (wenig Energie, wenig Performance) kommen die niedrigen Zugriffszeiten hinzu die bei nicht perfekt sequentiellen Datenströmen nochmal bremsen. Viel RAM kann dieses Performanceproblem langsamer Platten etwas mildern.
Ich habe keine genauer Werte aber gefühlsmäßig würde ich sagen, dass SMB Transfers von ca 50% der Roh-Plattenperformance nicht unnormal sind. Ein Raid-Z1 aus 3-4 Platten kann damit eine Gigabit Leitung füllen (Genügend RAM und CPU vorausgesetzt). Sehr hilfreich bei langsamen Platten ist Hybridspeicher mit schnellem SSD Lesecache (oder zur Beschleunigung von sync-writes auch Schreibcaches)
---------- Beitrag hinzugefügt um 17:28 ---------- Vorheriger Beitrag war um 17:24 ----------
Bei napp-it gibt es unter Platten die Spalte error.
Error: S:?? H:? T:?
Was bedeuten und sagen die Werte für S, H und T aus?
Zweite Frage
Unter Platten/Diskinfo gibt es den Parameter c1t0d0_ill_request
Was bedeutet der Wert der dahinter steht?
Danke.
Das sind Statisktikdaten für die Platten
Soft-Error, Hard-Error und Transfer-Error sowie illegal requests
- wenn diese Werte ansteigen, dann die Platte genauer beobachten,
eventuell eine smart-test durchführen oder die Platte ausbauen und mit einem
Test-Tool des Herstellers testen (das mache ich immer)
Solange die Platte nicht auf failed geht, ist es noch kein Problem für ZFS sondern
nur ein Indiz für künftige Probleme
---------- Beitrag hinzugefügt um 17:42 ---------- Vorheriger Beitrag war um 17:24 ----------
Hallo Gea,
vielen Dank für Deine Ausführungen. Gibt es ungefähre Zahlen, was über smb möglich ist, wenn man sich an Deine Hardware Empfehlung gehalten hat, aber keine SSD einsetzt, sondern nur Green Platten? Ich habe das SM-Board mit 16gb reg.ECC, Xeon X3440 und den SASUC8I bestellt.
Ist die 4K Geschwindigkeits-Problematik nur bei einem Einsatz der Platten in einem RAIDZ relevant oder auch bei Einsatz von Mirrors?
Gilt die oft zitierte Empfehlung, wieviele Platten in einem RaidZ oder RaidZ2 verwendet werden sollen nur für 4k-Platten oder sind sie eine allgemeingültige Empfehlung auch bei 512Byte Platten.
Entschuldigt die dummen Fragen.
Nachtrag: sehe ich die Diskussionen zu den Lizenzbestimmungen des neuen ESXi 5 (8gb vram) richtig, das damit dann ein allinone nicht mehr realisierbar ist, bzw. sinnlos, da keine weitere VM ausser dem Filer mehr betrieben werden kann.
Gruß Millenniumpilot
ZFS kommt eigentlich ganz gut mit jeglicher Plattenanzahl zurecht. Das Optimum einer gleichmäßigen Plattennutzung ist, wenn die Anzahl der Datenplatten (ohne Parität) eine Zweierpotenz (2,4,8,16,32,64,128) darstellt, denn nur dann kann z.B. ein 128 KB Datenblock völlig gleichmäßig auf alle Platten verteilt werden.
4k Platten die sich fälschlicherweise als 512 Byte Typen ausgeben, haben immer ein leichtes Performance-Problem wenn nicht der Pool fest auf 4k gestellt wird (Persönlich würde ich das 4k Problem bei vorhandenen Platten ignorieren aber nach Möglichkeit auch keine kaufen). 100 MB/s an sequentieller SMB Performance sind aber schon drin wenn alles andere stimmt (nic, switch etc).
Zu ESXi 5.
Das ist übel. Entweder bei ESXi 4.1 bleiben, Lizenz kaufen oder zu XEN(Server) wechseln. Der basiert ab der angekündigten
Version 6 auf XEN 4.1 und sollte damit pass-through können (eventuell sogar mit einzelnen Grafikkarten)
---------- Beitrag hinzugefügt um 17:50 ---------- Vorheriger Beitrag war um 17:24 ----------
So hab jetzt bei mir doch NexentaCore mit napp-it zum laufen gebracht.
Allerdings habe ich Probleme mit den ACL, gibt es dazu eine kleines HowTo? hab schon gegooglet leider nichts wirkliches herausgefunden.
Was ich gerne hätte wäre das ich zB einen Gäste Ordner erstelle der ohne Account Informationen zugreifen darf.
bzw. dann 2 versch. Gruppen wo eine Gruppe den anderen Ordner nicht sehen darf, leider bekomme ich das nicht hin. Und wenn ich bei den Sicherheitseinstellungen bei "Jeder" auf vollzugriff Verweigern einstelle dann sperre ich mich sogar als Root raus...
obwohl ich davor die Gruppen vom Fileserver hinzugefügt habe.
hat da jemand eine Idee, wie ich das am besten hinbekomme?
ein ZFS-Folder als Gästeordner freigeben (guestok=ja)
Mit Gästezugriff geht es dann aber ohne Anmeldung, man kann also
auf enthaltene Ordner nichts anderes einstellen.
Ansonsten
einen Ordner normal freigeben und dann den Personen/ Gruppen
die benötigten allow-Rechte geben (keine, lesen, ändern, voll)
Mit deny-Regeln ist es etwas komplizierter.
Das geht schief, wenn es von Windows aus angelegt wird.
Von Solaris aus geht das per CLI oder mit der neuen napp-it ACL-extension
die die Reihenfolge setzen läßt und die auch share-ACL beherrscht.
Windows beachtet zuerst alle deny dann alle allow Regeln
Solaris geht die ACL Liste durch und der erste zutreffende Eintrag bestimmt die Rechte
(so arbeiten auch die Firewalls)