Raid Modi und Performance Rat

Bucho

Enthusiast
Thread Starter
Mitglied seit
21.07.2004
Beiträge
5.978
Ort
Wien
Hallo Leute,

Ich habe hier einen etwas älteren Server Marke Eigenbau bestehend aus:
ASUS PU-DLS Dual Sockel 604 Intel 7501 Chipsatz Board (INFOS)
2 x 2,8GHz Prestonia XEONs 533MHz FSB, 512kB 2nd Level Cache
2 GB DDR1 PC-2100 Reg-ECC RAM (4 x 512MB Module)
Adaptec 2010S Zero Channel Raid Karte
Das ganze in einem Enlight Servercase mit redundanten Netzteil und Enlight Hot Swap Case für SCA Platten.
Betriebssystem ist Win 2003 Server Standard.

Bis jetzt hatte ich ein Raid 5 bestehend aus 3 x Seagate Cheetah 15K.3 36GB (ST336753LC) Platten. Nachdem der Platz da aber etwas eng wurde habe ich nun neue Seagate Cheetah 73GB 15K.4 ST373454LC ( 5 x ) besorgt.
Nun besteht die Frage nach dem Raid Modi. Ehrlich gesagt war ich von dem Raid 5 der drei alten Platten nicht so sonderlich begeistert. Im Alltag war es okay, aber egal welches Benchmarktool ich verwendet habe kamen recht magere Werte raus. (HD Tach, HD Tune, Sisoft Sandra etc.) Die Werte lagen so um die 45 - 50 MB/s Lesegeschwindigkeit und ~ 6,5 ms Zugriffszeit. Ich weiß daß viele Benchmarktools nicht gerade optimal mit Raid Systemen umgehen können - aber die Werte waren durch die Bank in dem Bereich.

Nun habe ich mal eine Single 73GB 15k Platte getestet und da erreicht sie etwa 75 MB/s Lesen und ~ 6ms Zugriffszeit.
Ich weiß daß bei einem Raid5 die Performance gerade bei Schreibvorgängen langsam sein kann - aber die Lesegeschwindigkeit sollte doch gegenüber einer Single Platte steigen, oder?

Wie dem auch sei - nun gilt meine Frage wie man die optimale Performance rausholen kann und trotzdem eine gewisse Sicherheit hat.
Die Raid Modi sind mir durchaus bekannt - Raid 5 hat halt den Vorteil daß man bei steigender Plattenanzahl mehr Speicherplatz zur Verfügung hat als bei einem klassischen Raid 1 oder Raid 01.
Die Grösse von zwei 73GB Platten (= 146GB) würde genügen. Was meint Ihr ist besser - wieder ein Raid 5 mit drei oder vier Platten oder ein Raid 01 mit vier Platten?
Zumindest eine von den fünf möchte ich als Cold Spare behalten.
Ach und bevor gefragt wird - Backups laufen extern auf Band.

Gibt es irgendwelche Tipps bzgl. der Hardware / Raid Config?
Der Controller schlägt mir eine Stripe Size von 64kB vor.
Controller ist der Onboard Adaptec AIC-7902 Dual Channel PCI-X Ultra320 mit eben der Adaptec 2010S PCI-X Zero Channel Raid Karte erweitert (48MB RAM).
Ist der Controller vielleicht generell nicht der schnellste? Macht es Sinn einen gebrauchten PCI-X Ultra320 SCSI Controller zu kaufen (die schmeissen Sie einem ja auf eBay schon hinterher)?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Grösse von zwei 73GB Platten (= 146GB) würde genügen. Was meint Ihr ist besser - wieder ein Raid 5 mit drei oder vier Platten oder ein Raid 01 mit vier Platten?
Ein RAID 10 (oder 01, je nachdem wie es der Controller anlegt) ist immer performanter als ein RAID 5, und wenn dir 135 GB netto reichen, ist eben das RAID 10 aus vier Platten dem RAID 5 vorzuziehen.
 
Dem würde ich mich anschließen... Raid 10 und gut ist. Die fünfte Platte dann als HotSpare oder ColdSpare, je nach dem einbinden und so ist erstmal Ruhe.

Ich habe gerade mal google angewurfen, doch leider findet man über diese Controllererweiterungskarte irgendwie sogut wie nix. Sprich ich weis nicht, was die Karte alles an Funktionen mitbringt. Unter Umständen läuft die Raid 5 Paritätsberechnung auf der CPU, was die ganze Geschichte bei den lahmen Xeons schon sehr stark ausbremsen dürfte. Sprich Raidlevel mit Paritätsdaten wären dann auf der Kiste generell erstmal nicht zu empfehlen.
Wie angesprochen kannst du dann aber immernoch Raid 10 nutzen. Du hast immer die hälfte des Speicherplatzes aller (bzw. der kleinsten HDD im Raid) in Summe durch zwei geteilt nutzbar. Was für dein Vorhaben gerade so dann hinkommen sollte.

Aber was ich mich wirklich frage, warum noch so einen Aufwand in derart alte Hardware stecken?
 
Hallo und danke für die Antworten.

Werde dann einfach mal ein Raid 10 ausprobieren. Kann man wohl wirklich nur einfach ausprobieren solche Sachen.

Bzgl. der Performance dachte ich eigentlich schon daß der XOR Berechnungen in Hardware kann - sonst würde wohl der zusätzliche Chip und Speicher auf der Karte nicht viel Sinn machen denke ich. Aber wie gesagt vielleicht ist der nicht der Beste was Raid-5 anbelangt. Deswegen auch meine Frage bzgl. einer billigen gebrauchten Raid Karte aus eBay.

Und bzgl. der Frage warum? Die Kiste dient als Fileserver für relativ wenig Daten (~ 50-60GB) wo aber von mehreren Rechnern / Geräten gleichzeitig zugegriffen wird. Und für die Arbeit ist der noch okay denke ich. Die Daten sollen auch relativ sicher sein (deswegen überhaupt das Raid) und auch das Bandlaufwerk als Backup.

Ich werde Euch auf jeden Fall berichten wie die Performance mit dem Raid 10 dann ist.
 
Die Frage wäre aber, ob du nicht mit zwei 320GB/500GB 1 Patter HDDs im Raid 1 mindestens genau so gut weggekommen wärst. Gut von der Zugriffzeit können die nicht soo sehr mithalten, aber dafür vom Durchsatz her dicke mehr...
 
Ja klar sind grössere Platten bzw. welche mit weniger Patter schneller im sequenziellen Lesen aber als SCA Version gibt's da ja kaum noch was und ich habe ja ohne anderem Controller / Festplattenbay derzeit nur die Möglichkeit.
Ich müsste sonst einen SAS Raid oder SATA Raid Controller (PCI-X denn PCI-E hat das Board noch nicht) besorgen und auch einen neuen Hot Swap Rahmen für eben SAS oder SATA. Und ich glaube das zahlt sich für den Rechner nicht mehr aus.

Soviel ich sehen kann sind die grössten Platten die Seagate Cheetah 15k.5 mit 300GB oder eine Toshiba Allegro 10 mit 300GB. Weiss nicht wie viele Patter die jeweils haben aber etwas schneller werden die aufgrund höherer Datendichte schon sein.

Zurück zu meinen Platten / Raid Configs. Also irgendwas ist da wirklich faul. Ich habe wie gesagt je eine einzelne Platte, Raid0 aus zwei Platten, Raid10 aus vier Platten und ein Raid5 aus 3 Platten getestet. Hier die Ergebnisse:



Wie man sieht hat eine Platte etwa 75MB/s Lesegeschwindigkeit und ca. 6,5ms Zugriffszeit.
Das Raid0 aus zwei dieser Platten hat jedoch nur etwa 76MB/s Lesegeschwindigkeit und ca. 6,5ms Zugriffszeit ???
Und das Raid10 aus vier dieser Platten hat dann nur noch etwa 62MB/s Lesegeschwindigkeit und ca. 7ms Zugriffszeit.
Vom Raid5 habe ich vergessen einen Screenshot zu machen aber das hatte auch nur etwa 60MB/s Lesegeschwindigkeit.

Macht irgendwie keinen Sinn oder?
Verkabelung habe ich schon kontrolliert (ist ja nicht viel dran - lediglich ein Kabel das zu dem SCA Bay führt und ein externes Kabel zu dem Bandlaufwerk - hatte ich testweise auch schon abgesteckt). Der Controller läuft lt. Adaptec Tool mit PCI-X 64Bit 66MHz mit 533MB/s - hier sollte kein Flaschenhals sein. Auch die Platten wurden (anscheinend weil sie von IBM gelabelt sind) als Ultra160 erkannt und werden so betrieben.

Selbst wenn die Platten "nur" mit U2W SCSI (80 MB/s) laufen würden wäre das doch pro Platte / Kanal und im Raid0 sollten die bis zu 160 MB/s schaffen können, oder?

Soll ich mal die Kabel tauschen?
 
Mit den alten SCSI Geschichten kenn ich mich im Detail so nicht aus. Aber ich kann die Erfahrungen meines SATA Raidcontrollers wiedergeben. Dieser läuft im SATA1 Modus, sprich 150MB/sec max. Man möchte nun meinen, das bezieht sich pro Platte, aber Pustekuchen, das komplette Raid ist auf 150MB/sec max. begrenzt. Warum auch immer.

Wenn du sagst bei dir läuft die Kiste im Ultra160 Modus, dann gilt das zwar erstmal Pro HDD, aber bedenke, bei SCSI hängt das alles an einem Bus. Mehr wie 160MB/sec kann der Bus nicht. Dabei hängt der Controller soweit mir bekannt ebenso am Bus.
Sprich wenn die HDD 80MB/sec kann, müssen die Daten am anderen Ende auch mit 80MB/sec am Controller ankommen und somit sind wir schon bei 160MB/sec.

Was ich mir noch vorstellen könnte, mit dem Ultra3 Std. wurden Gewisse Features neu eingeführt, welche zur validierung der Daten gehören. Sprich ist das Signal schlecht oder ähnliches, wird der Speed soweit runter geschraubt, bis es passt. Eventuell ist auch das das Problem!?

Hast du den Bus richtig terminiert? Vllt hilft ja Kabel tauschen schon.
Aber ich denke mal es liegt am ersten von mir genannten Problem. Denn es ist ziemlich auffällig, das die Datenrate in etwa bei 50% der max. Busrate liegt. Was mich darauf schließen lässt, der andere Teil geht für die Verbindung des Controllers drauf...
 
Es riecht geradezu danach, dass es nur mit 80 MB/s läuft - also nach nem Kabelproblem.
Damit das richtig laufen kann, muss ein Terminator an der letzten Platte sein und einer im Bandlaufwerk. Das muss allerdings U320 auch unterstützen - und das Kabel ist auch ein Unsicherheitsfaktor. Wenn das Kabel zum Bandlaufwerk nicht dran ist, muss der Controller terminiert sein. Da muss man im BIOS des Controllers nachsehen - aber eigentlich sollte der das automatisch können.
Ich hatte übrigens mal mit nem Adaptec und nem RAID 0 aus 2 Fujitsu SCA Platten ein RAID 0, was locker über 200 MB/sec. geschafft hat. Allerdings kann möglicherweise auch die Adaptec 2010S PCI-X Zero Channel Raid Karte das Ganze ausbremsen. Falls der Controller RAID 0 und 1 auch ohne die kann, würde ich die mal rausnehmen.
Übrigens, ne Cheetah 15k4 bringt alleine mehr als 75 MB/s Lesegeschwindigkeit - die sollte bei ca. 120 MB/s liegen (wenn ich mich recht erinnere).
 
Es fällt ja auch auf beim Single HDD Bench, das die HDD konstante 80MB/Sec bringt und dann bei der hälfte einfach langsam wegbricht. Das langsam wegbrechen ist normal. Aber das fängt nicht erst ab der hälte an bzw. gibts vor dem Wegbrechen nicht eine Konstante Linie...
 
Hi!

Sooo - hab' nun etwas herumexperimentiert.

@fdsonne
Bist Du Dir sicher daß z.B. Ultra160 - sprich 160MB/s für den ganzen Bus gelten??? Hab' ehrlich gesagt keinen genauen Hinweis gefunden wie das gilt. Jedoch war das doch schon bei IDE so daß z.B. UDMA-100 pro Gerät galt. Sprich wenn ich da 2 Platten an einem IDE Kanal (Bus) hatte konnte ich da (wenn die Platten es konnten) mit weit mehr als 50MB/s von der einen auf die andere kopieren.

@Kullberg
Ich hab' das Bandlaufwerk auch schon komplett abgehängt (das ganze Kabel vom Stecker am Mainboard) - an dem lag' es nicht. Und soviel ich zur SCSI Spezifikation gelesen habe können unterschiedliche schnelle Geräte am Bus hängen - solange alle LVD können.
Zitat Wikipedia:
Kompatibilität
Ultra-2, Ultra-160 und Ultra-320-Geräte können auf dem LVD-Bus ohne Performance-Verluste gemischt werden, da der Host-Bus-Adapter die Geschwindigkeit und sonstigen Management-Entscheidungen mit jedem Gerät einzeln abspricht.

Im Adaptec Controller BIOS und auch im Windows (Adaptec Storage Manager) wird bei der Konfiguration erkannt:
Host Bus:
Type: PCI-66, 64Bit
Transfer: 528MB/second (maximum)

SCSI Bus:
Width: 16Bit
Type: Ultra320 (maximum) - 320MB/second
Busses: 2

Sprich der Controller selbst ist schnell angebunden und auch im schnellsten Modus.
Bei den Platten ist es aber etwas eigenartig. Die werden im BIOS schon als Ultra160 angezeigt. "Theoretisch" sind es aber Ultra320 Platten. Theoretisch meine ich weil es IBM gelabelte Seagate Platten sind.
Davor hatte ich echte Seagate Cheetah 15K.3 36GB Platten drin. Die liefen auch um Ultra320 Modus. (Hatten aber trotzdem ne eher schlechte Leistung im Raid5)

Warum die IBM Platten nur im U160 Modus laufen kann ich nicht sagen. An der Verkabelung habe ich nichts geändert. Und wenn ich eine alte Seagate 36GB Platte anstecke wird diese auch wieder als U320 erkannt. Somit kann es die Verkabelung nicht sein. (Verwende ja ein U320 Hot Swap Case und Platten mit SCA-80 Anschlüssen).

Ich vermute mal daß die IBM Platten das irgendwie drosseln oder so da ich auch noch andere 36GB IBM Platten da habe die das auch machen (also "nur" auf U160 laufen).

Trotzdem bleibt nun die interessante Frage - warum das Raid 0 bzw. 10 nicht schneller ist als ne Single Platte.
Controller am Host Bus: 528 MB/s
Controller SCSI Bus: 320 MB/s
Platten jeweils: 160 MB/s
Einzelplatte nur max. 75 MB/s
Raid-0 bzw. 10 nur etwa 75 bzw. 62 MB/s ???

Hier auch nochmal ein Screenshot einer Seagate 36GB Platte (15K.3) einzeln:


Bei der kann das durchaus sein daß sie nicht mehr als ~ 75MB/s schafft.
Und es ist schon etwas verdächtig daß die 73GB Platte da am Anfang recht konstant um die 80MB/s hat:


Könnte ein Zeichen sein daß die irgendwie bei 80MB limitiert wird.
Kenne das normal nur von IDE Platten die z.B. nicht mit mehr als UDMA33 laufen und auf 33MB/s begrenzt sind oder ganz früher als die Platten teils nicht mal im UDMA Modus liefen sondern durch Treiberprobleme / Kabelproblemen oder sonstigen auf PIO-4 mit etwa 15-16MB/s zurück fielen.
 
Das ist die Angabe für den Bus, GENAUSO wie auch für IDE.

Stell dir mal eben ein Bus mit 10HDDs vor. Dann würdest du (nach deiner Rechnung) 1600MB/s durch die gegend schieben, auf einem Bus wohl gemerkt. Wer oder was soll das (zu der Zeit) verarbeiten. Diese Bandbreiten schaffen wir heute noch nichtmal mit SAS 6gbit auf einem Kabel und diese Kabel sind extra dafür gemacht.

Beim SCSI System kann immer nur ein Gerät auf dem Bus arbeiten. Will ein anderes Gerät darauf arbeiten, dann muß es warten, bis es an der Reihe ist.
Das ist nicht unbedingt von Vorteil. Selbiges gilt für IDE.
Daher hatten zB die guten IDE (zB 3ware) für jede HDD genau einen Kanal. Dort konnte man nicht 2 HDDs pro Kanal anschließen.
 
@underclocker2k4

Danke für die Info. Ist logisch - ja. Gut - sprich der SCSI Bus hier kann 320MB/s verarbeiten. Und jede Platte max. 160MB/s (was sie eh nicht können) - aber theoretisch sollten da ja mit egal wie vielen schnellen Platten bis ca. 320MB/s möglich sein, oder?
75 MB/s für ein Raid0 wo nur zwei Platten am SCSI Bus hängen ist da schon etwas hart wenig.

@Kullberg
Hab' jetzt auch gerade mal nachgelesen ... der onboard Adaptec AIC 7902 Controller alleine (ohne der Zero Channel Raid Karte) könnte auch Raid 0, 1, 10. Allerdings so wie es aussieht nur in Software da der Chip ja nur ein SCSI Controllerchip ist und da auch kein Cachespeicher oder sonstiger Logik Chip onboard ist. Gut - für Raid 0, 1, 10 muss ja kein XOR berechnet werden, trotzdem diverse Paritäten für die Datenkonsistenz.
Wäre trotzdem einen Versuch wert - nur um zu sehen ob die Zero Channel Karte das ausbremst.
 
Gemeinsamer Nenner

Sprich, 160MB/s ist der Speed, der genutzt wird.

Einfaches SCSI war die für high performance Transfers gedacht.
1. waren die meisten controller damit überfordert
2. bräuchte man dazu mehrere Busse

Das ist der große Vorteil der p2p Technik von SAS/SATA.

Wenn du mehr Bums haben willst, kauf dir einen günstigen SATA RAIDcontroller und klopf ein paar kleine HDDs rein, dann hast du mal eben das 4-fache an Speed.
 
Zuletzt bearbeitet:
Sicher daß das mit dem Gemeinsamen Nenner stimmt? Lt. Wikipedia (siehe mein Quote im Post #10 weiter oben ) handelt der Controller den Speed mit jedem Gerät einzeln aus.

Das ist bei IDE auch so - wenn ich ne UDMA133 Platte und einen UDMA33 oder UDMA66 DVDRW an einem Kanal habe rennt die Platte auch schneller als UDMA33 bzw. 66.

Und ja - klar ... SATA und SAS haben hier Vorteile weil jedes Gerät einen Kanal hat mit 150, 300 oder gar 600 MB/s.

---

Und ja klar - ein neuer Controller, Platten usw. als SATA oder SAS Kombi wäre bestimmt ne Möglichkeit und wesentlich schneller. Allerdings zitiere ich mich da mal selbst von oben:
Ich müsste sonst einen SAS Raid oder SATA Raid Controller (PCI-X denn PCI-E hat das Board noch nicht) besorgen und auch einen neuen Hot Swap Rahmen für eben SAS oder SATA. Und ich glaube das zahlt sich für den Rechner nicht mehr aus.

Ich glaube nach wie vor daß sich das für den alten Kübel nicht mehr auszahlt, und SATA Platten wären zwar schneller im Datentransfer, aber langsamer in der Zugriffszeit. Der Inhalt auf den Platten ist gemischt, einige kleine Files (Dokumente) und einige grössere Files (Scans, Fotos und grössere Excel Dateien) sowie eine kleine Datenbank (<- Zugriffszeit wohl wichtig) wo einige Rechner gleichzeitig drauf zugreifen. Somit wird wohl ne Kombi aus schneller Zugriffszeit und Leseperformance am besten sein.

Ist derzeit ja auch nicht schlimm und ich kann mit den obigen Daten leben, aber mich wundert es nur warum das nicht doch schneller ist und ob ich einfach nur etwas übersehen haben / falsch eingestellt oder konfiguriert habe.

Danke auf jeden Fall für die geistige Mitwirkung, vielleicht fällt ja noch jemanden was ein warum das so langsam ist und bei Gelegenheit probiere ich eventuell mal das Software Raid 10 von dem Adaptec AIC 7902 Controller ohne Zero Channel Karte aus.
 
Ich kann dir nur sagen, was ich aus Erfahrung gemerkt habe. Und das habe ich dir oben mitgeteilt. So richtig "knallen" wird es nicht.

Und ich habe echt nen paar Gens SCSI mitgemacht. Adaptec s5400 war das Ende mit 2000 DM.
Und das hat mich auch nicht vom Hocker gerissen. Aber es damals keine Alternative. Heute schon.
 
Klar handelt der Controller mit jedem Gerät die Geschwindigkeit aus. Aber der ganze Bus ist empfindlich. Wenn mit den Kabeln irgendwas nicht stimmt, wird gnadenlos die Maximalgeschwindigkeit runtergesetzt. Das kann auch bei vermeintlich korrekter Verkabelung passieren, wenn zuviele Geräte dran hängen oder die Kabel doch nicht erstklassig sind. Oder auch, wenn der Terminator nicht für die Geschwindigkeit ausgelegt ist oder nicht wirklich am Ende des Kabels ist. Auch Backplanes können dafür sorgen, dass die maximale Geschwindigkeit nicht erreicht wird.
Es gibt auch einige alte Platten (bis U160), die nen eingebauten Terminator haben, da darf dann kein Zweiter dran.
 
Zuletzt bearbeitet:
Sicher daß das mit dem Gemeinsamen Nenner stimmt? Lt. Wikipedia (siehe mein Quote im Post #10 weiter oben ) handelt der Controller den Speed mit jedem Gerät einzeln aus.

Das ist bei IDE auch so - wenn ich ne UDMA133 Platte und einen UDMA33 oder UDMA66 DVDRW an einem Kanal habe rennt die Platte auch schneller als UDMA33 bzw. 66.

Ich glaube das läuft bei IDE etwas anders... Bei SCSI hängt der Controller immer mit am Bus. Man vergibt dem Controller quasi ebenso eine ID am Bus wie jeder HDD auch. Der Bus wird dann eingepegelt auf den Speed, wie die HDD gerade kann. Hast du nun einen U320er Controller aber nur U160er Platten redet der Controller mit U160er Speed mit der HDD. Da die Daten einerseits auf dem Bus rein (bei der HDD) und andererseits vom Bus runter (zum Controller) müssen bleibt meines erachtens nach nur jeweils im max. die Hälfte des Speeds vom Bus als Datentransfer übrig.
Anders läuft es bei Verbindungen zwischen den HDDs. So steuert der Controller nur die Kommunikation. Sprich beide Platten reden untereinander mit dem Speed, welchen sie über den Bus fahren können. Quasi unabhängig vom Controller.
Da du aber vom System (also über den HBA) den Bus ansprichst müssen die Daten zwingend über den Controller. Würde also bedeuten, der Controller beansprucht Bandbreite am Bus.

Bei IDE ist das ganze weit weniger tragisch, denn du hast sowieso max. zwei Geräte am Bus. Wenn du nun ein CD/DVD-ROM Laufwerk am Bus mit UDMA2 Speed hast (sprich 33MB/sec) so kann das optische Laufwerk lesend/schreibt vom Medium diesen Speed nichtmal ansatzweise füllen. Bei zwei HDDs am Bus schon eher, aber diese werden üblicherweise im UDMA5 oder 6 Modus gefahren, sprich 100-133MB/sec. Kopieren untereinander könnte somit den Bus komplett auslasten. Ich meine aber mal, nur die aller wenigsten IDE HDDs schaffen überhaupt schreibend Datenraten von größer 66MB/sec durchgängig auf der ganzen Platte.

Bei SCSI hast du halt das Problem, das du mit mehreren Geräten den Bus extrem schnell voll bekommst. Und vor allem, das es auch sehr schnelle HDDs gibt. In einem Raidverbund addiert sich das ganze auf der HDD Seite. Da der Controller aber "nur" über U160 mit deinen HDDs reden kann, bleibt für die Kommunikation halt nur die hälfte des Möglichen übrig.
Warum die HDDs sich im U160er Modus einfinden, weis ich nicht, eventuell gibt es ein Firmware Upgrade für den Controller und/oder die HDDs um da was zu verbessern. Oder aber es liegt wirklich an der Verkablung bzw. der Signalqualität.
 
Mach mal einen anderen Benchmark als HD Tune. z.B. h2benchw, und wenn die Platte leer ist(und nur dann) auch im Schreib-Modus. Weil bei deinen HDTune-Benchmarks machen die Burst-Werte keinen Sinn. Vieviele Kanäle hat denn der Controller?
 
@DevChrFen
Ich glaube der Burst Modus kommt da ein wenig wegen dem Cache Speicher am RAID Controller durcheinander. Ich hab' auch ein paar andere Benchprogramme probiert wie HD Tach und h2benchw - da kommen überall solche Werte raus. (Teils sogar ne Spur niedriger).

Ich hatte letztens auch nochmal die Verkabelung überprüft und auch mal testweise das Kabel und den Terminator getauscht. Kein Unterschied. Die Seagate Platten werden auch sofort als U320 erkannt. Hab' ein wenig im Netz herumgesucht und auch schon eine Meldung von jemanden gefunden daß einige IBM umgelabelte Platten nur als U160 laufen.

Wie dem auch sei - es läuft jetzt halt mal so und vielleicht wird der Server ohnehin in nächster Zeit ausgetauscht.

Danke für die ganzen Infos und Tipps.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh