SCA-Adapter für SCSI-Festplatten (80pin auf 68pin) Speedverlust?

Arthur Dent

Neuling
Thread Starter
Mitglied seit
29.03.2006
Beiträge
275
Ich habe eventuell vor, meinen Server mit einigen SCSI-Platten zu bestücken, die einen 80pin SCA-Anschluss haben. Da nun mein Adaptec Controller nur 68pin/50pin hat, muss ich wohl einen Adapter einsetzen, der den 80er Anschluss auf 68pin bringt.

Nun die Frage: Treten dabei Geschwindigkeitsverluste auf? Gibt es Nebenwirkungen etc? Der Controller kann eh nur 80 MB/s, die Platten werden vorraussichtlich U160/U320 sein (HDD-seitig gibts also keinen Engpass).

Grund für diesen Gedanken sind die weitaus günstigeren Preise für SCA-HDDs im Vergleich zu den "normalen" 68er Platten (bei eBay).

Wenn mir nun jemand IDE/SATA-Platten vorschlägt, sehe ich folgende Punkte als Gegenargumente:

- Zugriffszeiten sind bei SCSI-Disks um einiges besser als bei IDE/SATA-Drives
- SCSI-Platten sind für 24/7-Betrieb ausgelegt
- Das Mainboard hat kein SATA, daher wäre ein Controller nötig -> mehr Zeugs im Case
- Am SCSI-Controller haben 7 Platten Platz, nur ein Kabel
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Durch den SCA-Adapter hast du per se keinen Geschwindigkeitsverlust.
Aber du brauchst den richtigen SCA-Adapter für LVD-Platten, denn sonst zieht es den kompletten Bus auf SE-Geschwindigkeit (d.h. 40 MB/s) herunter.

Meine beiden Compaqs hängen auch per LVD-tauglichem SCA-Adapter am Kabel.

Also beim Kauf eines SCA-Adapters drauf achten, das er explizit für LVD oder U-160 oder U-320 spezifiziert ist.

Optisch erkennen kann man die LVD-tauglichen SCA-Adapter daran, das unter dem 68-Pin-Anschluß der Schriftzug "SCA80" auf die Platine gedruckt ist und das ein Widerstand links neben dem Jumperblock aufgelötet ist.

Grüsse
Roman
 
Also speedverlußt hast du net, wenn, wie gesagt, der richtige adapter verwendet wird.

Und du willst wirklich deinen server mit SCSI bestücken?

Ich weiß ja net, was du damit machen willst, aber wenns nur storage ist, lass es sein. (ich hatte selber SCSI in nem hardcore RAID)

SCSI bietet im reinen storage bereich KEINEN vorteil.
- zugriff ist scheiß egal @storage
- preis/kapazität unter aller sau
- kapazität/stromverbauch auch unter aller sau

Das mit dem einem kabel ist so ne sache. Dieses eine kabel kann mehr stören als 7(oder mehr) sata kabel.

Ich hatte selber nen 4chan SCSI RAID controller,ich habe es gehasst, aber leider gab es damals noch keine schönen sata sachen und an pata RAID war auch noch net zu denken, als blieb mir nur SCSI. Da sich das aber mit der zeit geändert hat, bringt SCSI im storage bereich fast nur nachteile.
Wenn es auf zugrifflastige anwendungen ankommt, dann brauch man natürlich SCSI(15000er), da machts dann wieder sinn.

Und diese angst mit den 24/7 ist auch unbegründet. Wenn du deinen rechner nur mit teilbelastung fährst(wovon ich jetzt mal ausgehe) kannst du auch SATA verwenden. Zumal du weniger platten brauchst ->weniger ausfallmöglichkeiten.

Wie gesagt, es ist davon abhängig, was du machen willst. Bedenke das ganz genau. SCSI und SATA haben jeweils vor und nachteile, diese gilt es GANZ genau zu ergründen und auf sich zu übertragen, nich dass du dich nachher ärgerst oder nen haufen geld rausgehauen hast.
 
@Arthur Dent
Wenn schon SCSI, dann keine 10000er, sondern 15000er. Die bringen richtig Spass unter Linux und auch beim kontinuierlichen Lesen/Schreiben.

Falls du noch kein SCSI-Equipment hattest: Die Platten werden verdammt heiss, die kannst du nach 10 min nicht mehr anfassen. Ebenso sind die teile von eBay meistens total laut. Das heisst allerdings nicht, dass sie in der nächsten Zeit kaputt gehen.

gruß
hostile
 
@ underclocker2k4: Du hast ja schon recht, aber es soll kein reiner Storage-Server sein. Ich habe vor, ca. 3-4 Clients an den Server zu hängen und dort Daten zu speichern, damit ich nicht immer diesen Stress habe, die Daten retten zu müssen, wenn mal das OS abschmiert.

Die Platten sollen also schon etwas schnell die Daten liefern, wenn sie gebraucht werden.

Zum Thema 24/7: Mir ist seit Beginn der Computernutzung (ca. 7 Jahre) zwar noch keine einzige HDD verreckt, aber ich lese und höre nicht selten, dass HDDs abrauchen, sei es auch nur ein normaler 8-Stunden Betrieb pro Tag.
Dass SCSI-Platten solche Probleme bereiten habe ich so gut wie noch nie mitbekommen.

Es soll auch (vorraussichtlich zumindest) kein RAID sein, ich will einfach mehrer Platten einbauen und jedem Client eine zuteilen. BTW: der Lärm ist egal, der Server wird im Keller stehen.

EDIT:

@ hostile: Ich habe schon etwas SCSI-Equipment, abgesehen von den Platten sogar nicht wenig (ca. 15 Controller, 20 Kabel Termis usw...). Zur Zeit laufen zwei Seagates im Server, eine 18er Cheetah (10K) und eine 18er Barracuda (7,2K). Dass beide Heiß werden, ist mir bekannt, daher habe ich auch 4x 120mm Lüfter im Case drinne, die so richtig Radau machen ;)
Demnächst hänge ich dann noch zwei 18er Platten (SCA) von HP an, die mit 15K rennen, mal sehen, wie die dann abgehen ^^

BTW: Wie sieht es eigentlich aus, wenn Festplatten sehr oft von verschiedenen Nutzern übers Netzwerk angesprochen und belastet werden (soll heißen, die Köpfe der HDD ständig hin und her springen müssen)? Ist sicher nicht gesund, oder?
 
Zuletzt bearbeitet:
Also, vertau mir, die SATA platten werden schneller die daten liefern, als es dein gbit ethernet zuläßt. Es sei denn du hast ne hardcore NIC, was ich nicht glaube.

Mir ist noch keine xATA platte abgekackt.
Dafür habe ich schon nen halbes dutzend SCSI in den tod geschickt, eben weil ich sie 24/7 dauerLAST net dauerbetrieb.

Deine anforderung ist 100%ig storage, dh daten speicher, daten holen. Keine datenbanken oder dergleichen.

Es ist immer ne frage, wie die platten gepflegt werden. Bei mir hat jede platte ne aktive kühlung. Mein SCSI server mußt weit weg von mir stehn, da der so ca 45dB gemacht hat. Sata platten sind da nen bisschen besser dran, weil sie einfach weniger verbrauchen.

Wer seine daten einem nonRAID anvertraut, kann sich auch gleich den strick nehmen.

Ich kann dir nur eins sagen, SATA platten und SCSI platten gehen auch kaputt, sowohl 24/7 und nicht. SCSI ist nicht unsterblich.
 
Also mir sind jetzt schon 8 SCSI-Platten kaputt gegangen *heul*

Zu den hin und her der Köpfe: Schon mal überlegt was n Raid macht, dass von 800 Prozessen und 500 Usern benutzt wird (As/400 zb)? Die Platten sind nur am rödeln...

gruß
hostile
 
Hab ganz vergessen zu erwähnen, dass ich kein GBit habe... Nur lausige 100 Mbit ;)

Leider kann SATA nicht realisiert werden, da mir das Geld fehlt. Mein Server hat nur PATA, und eben den SCSI-Controller. Und SATA-HDDs über PCI-Controller laufen zu lassen, nicht so toll. Gut, mein SCSI läuft zwar auch über PCI, aber hier habe ich wenigstens schon einen ordentlichen Adaptec-Controller und keinen Billig-VIA-Shice, wenn SATA ran sollte. Und soviel Geld habe ich auch nicht, mir nen super SATA-Controller zu kaufen.

Kurz zusammengefasst: Alles andere als SCSI würde zu arg ins Geld gehen.

EDIT: Und hey: SCSI ist nicht so Mainstream... *kidding*
 
Zuletzt bearbeitet:
Ich habe hier zB nen 50euro 4erSATA controller im RAID1 und der rennt schon seit über einem jahre 24/7. Hotplug geht wunderbar.

Wie gesagt, SCSI ist genauso anfällig wie SATA. Das mit der zuverlässigkeit ist ein märchen. SCSI ist nur dann zuverlässig, wenn die platten sich net mehr einkriegen und den ganzen tag brumkreisel spielen.
Und da sind deine paar zugriffe lächerlich.

Wie gesagt, in deinem anforderungsprofil ist SATA gegenüber SCSI einfach im vorteil.

Du kannst dir das mal durchrechnen. Eine 320er SATA platte kostet 70EUR. Mein controller kostet 50eur. Biste bei 120EUR und hast platz für 320GB. Verbrauchen tut das ganze evtl 10W im schnitt.
Und nun pack mal SCSI hin und rechne nochmal.

Wie oben erwähnt. Ich mußte mir SCSI kaufen vor jahren, weils sowas(hardcore RAID) damals noch net gab. Ich habe geld investiert(controller über 1k EUR) dafür hätte ich mir nen auto kaufen können. Aber es mußte sein, ich wollte es.
Aber jetzt, wo sich ATA soweit entwickelt hat, gibt es nur noch einen grund SCSI einzusetzen. Produktive performance umgebungen. Die setzen in unis als storagesystem SATA plattenstapel ein, das ist net mehr feierlich. Mit SCSI(damals gings net anders) hätten die für die selbe kapazität unsummen mehr ausgeben müssen, hätten wesentlich mehr platzbedarf gehabt. Und genau das ist der vorteil von SATA, klein, platz, stromsparend.

EDIT:
Ich will dir da net reinreden, aber SCSI ist für dich einfach "schwachsinnig".
 
Zuletzt bearbeitet:
Danke für die Info, bin jetzt schlauer :cool:

Dann sollte dieser Adapter also geeignet sein: http://cgi.ebay.de/SCA-80-pin-auf-S...ameZWDVWQQrdZ1QQcmdZViewItem#ebayphotohosting

Oder?

Ja, genau so sehen meine LVD-tauglichen SCA-Adapter aus.

Zum Lärm und den Temperaturen von SCSI-Platten:
Ich habe in meinem Desktop zwei 18 GB Compaq mit 15000 UPM drin.
Das die heiß werden, kann ich nicht bestätigen.
Aktuell haben die eine Temperatur von 35° C bzw. 36° C.
Bei Dauerstreß steigt die Temperatur auf ca. 44-45° C.
Ebenso verhält es sich mit den vier ST-39103 mit 10K in meinen beiden anderen Systemen.
Die einzige Heizplatte ist die IBM DGHS09 mit 7200 UPM.
Die kann man ungekühlt nach längerer Zeit kaum anfassen, aber bei der ist das im erlaubten Rahmen. Lt. Datenblatt darf bei der die Elektronik bis zu 85° C warm werden!
Die IBM ist auch die deutlich lauteste Platte. Die ist einzeln lauter als beide Compaq zusammen.

Zu den Kapazitäten von SCSI-Platten:
Die sind zugegebnermaßen deutlich kleiner als bei PATA/SATA-Platten. Aber man sollte sich fragen, ob man diese großen Kapazitäten denn überhaupt braucht.
Bei mir z.B. sind von insgesamt 36 GB im Hauptsystem z.Zt. noch 9 GB frei, obwohl da haufenweise Software installiert ist.
Ich wüsste nicht, wie ich denn überhaupt eine 80 GB-Platte voll bekommen sollte, geschweige denn 500 GB oder gar 1 TB.
 
Zuletzt bearbeitet:
Häng mal nen ganzen stapel rein, dann weißte wie heiß die teile werden können. ;)

EDIT: 10platten im 24/7 stress da gehts ab, da kannst net mehr die hand so dranhalten ->also lüfter vor und gut ist. Ich hatte mit dem rechner hier nen zimmer im winter beheizt. ;)
 
Zuletzt bearbeitet:
Wie gesagt: Hitze ist kein Problem, da ich 4x 120mm FANs drinne habe und der Server eh im Keller steht. Da ist es von Natur aus einige Grade kühler ;)

Als Daten kommen nur kleine Dateien auf den Server, wie z.B. Schulzeugs von mir und den Geschwistern, wenns hochkommt mal Fotos/Clips oder Ähnliches.

Werde das mal so ne Weile antesten und schauen wie es läuft. Wenn es tatsächlich Probleme geben sollte, müsste ich das gesamte System überarbeiten, d.h. neues Board, CPU und RAM kaufen, damit alles ausgewogen bleibt. Was nützt mir eine gute SATA-II-Platte in einem Pentium 3 866er System? Und dann auch noch am PCI-Port hängen - wo die theoretische Maximalperformance doch bei 133 MB/s liegt.

PS: Falls mal eine SCSI-HDD abschmiert melde ich mich nochmal :fresse:
 
Wie gesagt, die platten werden sich langweilen, weil dein netzwerk nichtmal im entferntesten in der lage ist, auf einen solchen speed zu kommen. Der PCI ist da auch noch lange nicht am ende.
 
Mit ner halbwegs ordentlichen GBit-Karte (vorzugsweise Intel, 3com geht auch) und nem gescheiten Festplattencontroller, solltest du selbst bei Gbit mit 40-50MByte/s zugreifen können. Also neues Board brauchst du nicht, eher gescheite Netzwerkhardware...
 
Für eine gescheite GBit-NIC ist aber auch schon der PCI-Bus unterdimensioniert.
Nicht ohne Grund sind GBit-Nics für 64bit PCI häufiger zu finden als welche für 32bit PCI.

Eine gute GBit-Nic schafft in der Praxis um die 100 MByte/s. 32bit PCI schafft zwar theoretisch 133 MByte/s, aber nicht in der Praxis. Selbst die besten Boards schaffen in der Praxis max. um die 80 MByte/s auf dem PCI-Bus. Eine gute GBit-Nic würde da also ausgebremst.
Aber die angesprochenen 40-50 MByte/s sind schon mit gescheiten GBit-Nics (Intel, 3Com, kein Realtek-Mist) möglich.
 
Eine PCI GBit-NIC wäre meiner Meinung nach Overkill für ein betagtes Sockel 370 Tyan-Board mit einem Pentium 866. Und dann noch der VIA Chipsatz, ich weiß nicht :hmm:

Wenn GBit, dann sollte es schon im Chipsatz sitzen bzw. über PCIe/PCI-X laufen. Aber nie über PCI, das teilen sich zu viele Geräte und die 133 MB/s sind so gut wie ausgeschöpft. Es soll ja auch nicht das Hardcore-Netzwerk werden, wo 50 Gig auf einmal geschoben werden ;) .
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh