Einer der wesentlichen Faktoren für einen Server ist der Durchsatz des Festplattensubsystems. Prozessorleistung, Hauptspeicher und Netzwerkleistung nehmen sehr schnell zu, aber die Zugriffszeit von Festplatten steigt seit einiger Zeit kaum noch. Mechanik ist der limitierende Faktor. Auch wenn Drehzahl und Datendichte zunehmen, so bleibt die Bewegungsgeschwindigkeit der Köpfe auf dem gleichen Niveau und damit die Positionierungszeit im Millisekundenbereich.
Hier helfen dann ausgefeilte Cache Algorithmen und RAID-Controller weiter. Trotzdem ist es wichtig, die installierten Systeme auch zu testen und mit bestehenden Systemen zu vergleichen. Besonders interessant sind hierbei die Auswirkungen von Veränderungen in der Konfiguration. (Write Back vs. Write Through, RAID-Stripesetgröße, RAID-Level) Wenn Sie hier die Zeit zum experimentieren haben, dann sollten Sie diese nutzen.
Unter der Vielzahl von Testprogrammen haben ich hier DT.EXE ausgewählt, weil es ohne Installation einfach aufzurufen ist und unter Windows läuft. Damit wird auch der Treiber und das Gesamtsystem einem Test unterzogen.
Damit der Test ist um so vergleichbarer, wenn die Bedingungen beachtet werden:
* Kein Virenscanner
Diese kosten je nach Hersteller Performance und verfälschen das Ergebnis. Allerdings ist DT hier auch natürlich genial um genau diesen Leistungsverlust mit einem Vorher/Nachher Vergleich auf dem gleichen System zu messen.
* wenig fragmentierung
Die Testdatei sollte möglichst nicht fragmentiert sein, um zusätzliche Unterberechungen durch Kopfbewegungen zu vermeiden.
* Keine sonstigen Festplattenaktivitäten
Natürlich sollte die Festplatte "lastfrei" sein, d.h. keine anderen Zugriffe erfolgen.
* Ausreichend CPU-Zeit
Stellen Sie sicher, dass nicht der Server selbst der Engpass ist, d.h. PCI-Bus, CPU oder Anbindung an das SAN/NAS/DAS
* Cache berücksichtigen
Festplatten aber auch Controller haben heute Caches. Entweder sie schalten diese aus, oder sie nutzen eine Testdatei, die ausreichend groß ist, damit die Wirkung des Caches vernachlässigbar wird. Denkbar ist z.B.: das 10-fache der Cachesize.
* Gleiche Blocksize
DT schreibt Blöcke, die vom NTFS-Treiber auf die Platte geschrieben werden. Der Controller schreibt daraus "Stripe Sets". Diese Parameter dürfen für einen Vergleich nicht geändert werden. Wenn Sie die Zeit haben, dann ist es aber schon interessant die Auswirkungen zu messen.
* gleiches Betriebssystem
Es ist nicht fair, ein Windows 98 System mit einem Windows 2003 Server zu vergleichen. Teilweise bewirken schon Servicepacks oder aktuellere Festplattentreiber merkliche Veränderungen. Insofern ist DT aber auch eine Qualitätssicherung, wenn sie vor und nach einem Update eine Messung durchführen.
Quelle : http://www.msexchangefaq.de/tools/dt.htm
Habe keinen Server, aber sicher interessant für die Leute mit Server , sofern es solch einen Tread noch nicht gibt , wollte ich diese Performance Messsung EUch nicht vorenthalten Viel SPass
Hier helfen dann ausgefeilte Cache Algorithmen und RAID-Controller weiter. Trotzdem ist es wichtig, die installierten Systeme auch zu testen und mit bestehenden Systemen zu vergleichen. Besonders interessant sind hierbei die Auswirkungen von Veränderungen in der Konfiguration. (Write Back vs. Write Through, RAID-Stripesetgröße, RAID-Level) Wenn Sie hier die Zeit zum experimentieren haben, dann sollten Sie diese nutzen.
Unter der Vielzahl von Testprogrammen haben ich hier DT.EXE ausgewählt, weil es ohne Installation einfach aufzurufen ist und unter Windows läuft. Damit wird auch der Treiber und das Gesamtsystem einem Test unterzogen.
Damit der Test ist um so vergleichbarer, wenn die Bedingungen beachtet werden:
* Kein Virenscanner
Diese kosten je nach Hersteller Performance und verfälschen das Ergebnis. Allerdings ist DT hier auch natürlich genial um genau diesen Leistungsverlust mit einem Vorher/Nachher Vergleich auf dem gleichen System zu messen.
* wenig fragmentierung
Die Testdatei sollte möglichst nicht fragmentiert sein, um zusätzliche Unterberechungen durch Kopfbewegungen zu vermeiden.
* Keine sonstigen Festplattenaktivitäten
Natürlich sollte die Festplatte "lastfrei" sein, d.h. keine anderen Zugriffe erfolgen.
* Ausreichend CPU-Zeit
Stellen Sie sicher, dass nicht der Server selbst der Engpass ist, d.h. PCI-Bus, CPU oder Anbindung an das SAN/NAS/DAS
* Cache berücksichtigen
Festplatten aber auch Controller haben heute Caches. Entweder sie schalten diese aus, oder sie nutzen eine Testdatei, die ausreichend groß ist, damit die Wirkung des Caches vernachlässigbar wird. Denkbar ist z.B.: das 10-fache der Cachesize.
* Gleiche Blocksize
DT schreibt Blöcke, die vom NTFS-Treiber auf die Platte geschrieben werden. Der Controller schreibt daraus "Stripe Sets". Diese Parameter dürfen für einen Vergleich nicht geändert werden. Wenn Sie die Zeit haben, dann ist es aber schon interessant die Auswirkungen zu messen.
* gleiches Betriebssystem
Es ist nicht fair, ein Windows 98 System mit einem Windows 2003 Server zu vergleichen. Teilweise bewirken schon Servicepacks oder aktuellere Festplattentreiber merkliche Veränderungen. Insofern ist DT aber auch eine Qualitätssicherung, wenn sie vor und nach einem Update eine Messung durchführen.
Quelle : http://www.msexchangefaq.de/tools/dt.htm
Habe keinen Server, aber sicher interessant für die Leute mit Server , sofern es solch einen Tread noch nicht gibt , wollte ich diese Performance Messsung EUch nicht vorenthalten Viel SPass