Home-LAMP-server incl internen 10TB Storage

Franz0r

Neuling
Thread Starter
Mitglied seit
19.05.2008
Beiträge
5
Hallo,

da meine TB Einzelplatten mittlerweile voll sind und die ewige Umsteckerei nervt würde ich gerne meinen bisherigen LAMP Homeserver um ein Storage erweitern:

Vorhandene Komponenten:
AMD 5050e @2,6GHz TDP45W
Asrock Billig Board von 2009 (AM2)
4GB DDR2 (4x1) von Corsair
350W Silent NT
19' 4HE Gehäuse
80GB Systemplatte

Bisher ist das mein Ubuntu 10.04 LAMP, mit der Storageerweiterung soll noch Samba dazuinstalliert werden und ich werde eine ded. NIC einbauen für iSCSI (hab noch eine kleinere 19' Testumgebung im Flur stehen die auch keinen Storage hat.. :) ) Es wird keine Unmengen Zugriffe geben - das Teil läuft zwar 24/7 aber ich werde hauptsächlich meine Film/Datensammlung dort ablegen. Raid5

Offen sind nur noch die Festplatten & das Board/der Controller.
Erster Gedanke:
6x WD20EARS
1x Gigabyte GA-MA790X-UD3P, 790X (8xSata, Raid 5)
(alternativ kein Board und dafür Adaptec 2820SA 128MB retail, PCI-X 133MHz (2169900-R))

Offene Fragen dazu:

Kann der Onboardraidcontroller ein entsprechend großes R5 bauen/gibt das Probleme unter Linux?

4KB Sektoren und Raid5 - habe schon gelesen dass einige unter WinXP ihre liebe not mit den Platten hatten, gibt es Linux Erfahrungen?

Über Hardwareempfehlungen würd ich mich freuen. ;)

Danke und LG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaube nicht, dass der PCI-X Raidcontroller auf das Asrock Board passt, da du dies in dem Fall ja anscheinend weiternutzen möchtest.

Ist die Frage, ob du nicht lieber komplett auf SW-Raid setzen willst - wenn keine großen Geschwindigkeiten nötig sind (die du per Chipsatzraid ebenfalls nicht erreichen würdest), bist du damit einfach flexibler und nicht von Board/Chipsatz oder Controller abhängig - ist im Falle eines Hardwaredefekts sehr angenehm!
 
PCI-X sollte wenn ich mich recht entsinne auf PCI abwärtskompatibel sein (wenn dieser Steckplatz vorhanden ist)
 
Der Adaptec, passt garantiert, kann ich grad net checken. Problem dürfte aber sein, dass der entweder schon mit den 2TB HDDs net klarkommt, aber garantiert nicht mit einem Array>2TB. Also wird's entwerder nen richtiger controller, oder aber SW-RAID.
 
PCI-X ist idr. nicht abwärtskompatibel mit PCI 32Bit/33 MHz 5V wie er auf 99,9% aller Desktop-Mainboards zu finden ist.
Das geht schon rein Mechanisch nicht weil PCI-X Karten 3,3V benötigen und dementsprechend die Kerbe für die Spannungskodierung an der "falschen" Stelle sitzt.

PCI 64Bit/66MHz/3,3V geht idr. mit PCI-X Karten, hab ich selber so im Einsatz mit dem 3Ware 9550SX-16ML.

Mein Tip: Board mit PCIe x8 oder größer kaufen (Notfalls und je nach Controller reicht auch x4) und passenden PCIe Controller dazu.
Heute noch auf PCI-X setzen lohnt sich letztendlich nicht, selbst wenn ein dementsprechender Controller schon vorhanden ist.
 
"PCI-X and standard PCI buses may run on a PCIe bridge, similar to the way ISA buses ran on standard PCI buses in some computers. PCIe also matches PCI-X and even PCI-X 2.0 in maximum bandwidth. PCIe 1.0 x1 offers 250 MB/s in each direction, and up to 32 lanes (x32) is currently supported, giving a maximum of 8 GB/s in each direction"

sagt wiki.en - PCIE/PCI hat das Board..
Wobei das generell kein Hindernis sein sollte - im Notfall gibt es auch einen RocketRaid PCIE Controller um ein paar Euro weniger.

Bzgl Software Raid wurde mir von einem Freund & Software Engineer abgeraten da es sehr schwer sein soll unter ubuntu den Raid bei einem Single Disk Failiure wieder richtig hinzubekommen wenn man nicht richtig in der Materie steckt. Schätze meine Linuxskills in der Bezihung nicht hoch genug ein. ;)

Eventuell kommt übrigens noch ein (kostenloser) VMware ESXi drunter und die Ubuntu Installation wird in eine VM migriert.

EDIT:
Das ist auch meine Angst - dass das Gigabyte keine 2TB Platten mit dem onboard Controller nimmt.. Größer als 2TB sollte bei dem Board aber kein Problem sein, dafür ist es zu neu.

HighPoint RocketRAID 2320, PCIe x4 wäre eine Controlleralternative. PCIE 8x ist preislich für mich einfach zu viel, möchte ich nicht investieren.. Jemand Erfahrungen mit dem?
 
Zuletzt bearbeitet:
@murdock Viele PCI-X Cards sind Multivoltage, geht also auch in PCI. Prinzipiell hast du recht, im speziellen ist das zu prüfen. Ist aber meist der Fall

@ Franz
Dein Zitat bezieht sich auf die Möglichkeit der Anbindung eines Pci-x Chips an einen PCIe Bus. Dazu braucht es einen entsprechenden Wandlerchip. Das gab es schon bei ISA-PCI AGP-PCIe. Das bezieht sich nich auf die Möglichkeit eine PCI-X Card in einen PCI Slot zustecken.
 
@murdock Viele PCI-X Cards sind Multivoltage, geht also auch in PCI. Prinzipiell hast du recht, im speziellen ist das zu prüfen. Ist aber meist der Fall

@ Franz
Dein Zitat bezieht sich auf die Möglichkeit der Anbindung eines Pci-x Chips an einen PCIe Bus. Dazu braucht es einen entsprechenden Wandlerchip. Das gab es schon bei ISA-PCI AGP-PCIe. Das bezieht sich nich auf die Möglichkeit eine PCI-X Card in einen PCI Slot zustecken.

Ah, alles klar. Danke!
 
Also, das mit dem SW-Raid kann ich nicht verstehen, es ist überhaupt kein Problem bei einem Single Disk Failure.
Betreibe selber einen Ubuntu Server mit SW-Raid 5 und hatte schonmal einen Ausfall. Nach ca. 10 min war er wieder beim syncen :d

Und ich bin auch kein Linux Profi *g*

Statt dem ESXi (welcher spezielle Hardware braucht), schonmal KVM angeschaut?

Es gibt auch ein Frontend dafür und die perf. ist nicht schlecht.
 
Grad nachgeschaut.
Der 2820sa ist ein Controller mit 3,3v. Dieser passt nicht in einen PCI Slot (der hat 5v).

@murdock Also kein multivoltage=deine Aussage trifft zu

Edit:
Stimme aber auch mit murdock überein. PCI-X ist out, wenn dann PCIe, alles andere ist Verschwendung.
 
PCI-X Karten machen keinen wirklichen Sinn mehr aktuell, vor allem, wenn man keine Boards hat, welche PCI-X Slots besitzen.

Also wenn dann nimmst einen PCIe Controller, die laufen idR auch auf den Desktopboards ohne Probleme.

Das Thema Softwareraid ist aber auch nicht zu vernachlässigen. In dem Fall bist du Hardware ungebunden und müsstest nur genügend SATA/SAS Buchsen bereitstellen.
Den Rest macht dann Linux.

Zum Thema große Arrays was du ansprachst, XP in der 32Bit Version kann nicht mit GPT Partitionen umgehen, MBR Partitionen sind nur bis max. 2TB zulässig. Dementsprechend kann ein XP nativ diese Partitionen nciht ansprechen. Unter Linux sowie unter 64Bit Windows Versionen ist das aber alles kein Problem...

Eventuell kommt übrigens noch ein (kostenloser) VMware ESXi drunter und die Ubuntu Installation wird in eine VM migriert.

Mit nem ESXi drunter fällt Softwareraid erstmal weg. Dort muss es wenn Raid ein Hardwareraid sein ;)

Im übrigen bist du beim ESX(i) ebenso auf max. 2TB beschränkt pro Volume/LUN.
Heist du brauchst einen Controller der dir mehrere 2TB LUNs auf dem physischen Raid 5 erstellt...

Statt dem ESXi (welcher spezielle Hardware braucht), schonmal KVM angeschaut?

So speziell nun auch wieder nicht. Gut bei AMD Hardware wirds idR schwieriger. Aber das sollte kein Problem sein. Einfach ne Intel GBit NIC mit PCIe Slot reinschieben und einen unterstützten Storagecontroller dran hängen und schon rennt der ESX idR...
 
Zuletzt bearbeitet:
@underclocker2k4
Stimmt wenn ich genauer nachsinne hast du Recht, die Intel Pro/1000 MT Server ist so ein Kandidat.
Ist PCI-X läuft aber auch im 5V PCI-Slot.

Bei RAID-Controllern ist das IMHO eher selten der Fall (zumindest macht's keinen Sinn das zu machen - Bandbreitentechnisch).
 
Auch RAID-Cs sind Mulivoltage, eben wegen den 64Bit\5V slots. Ich habe zB Quad gbit NICs hier, die auch. Das ist halt eine Auslegung des Herstellers.

(hab zb auch nen RAID C mit 5V hier)
 
Also, das mit dem SW-Raid kann ich nicht verstehen, es ist überhaupt kein Problem bei einem Single Disk Failure.
Betreibe selber einen Ubuntu Server mit SW-Raid 5 und hatte schonmal einen Ausfall. Nach ca. 10 min war er wieder beim syncen :d

Und ich bin auch kein Linux Profi *g*

Statt dem ESXi (welcher spezielle Hardware braucht), schonmal KVM angeschaut?

Es gibt auch ein Frontend dafür und die perf. ist nicht schlecht.

Bisher leider noch keine Zeit gehabt - auf meinem 140G3 läuft HyperV und das lässt keine Hypervisor Verschachtelung zu. ;)

Ich werde glaube ich beides testen - das mit der speziellen hardware ist so eine Sache.. Es funktionieren nicht nur certified Sachen, solang Intel VT oder in dem Fall AMDV vorhanden sind sollte es keine großen Probleme machen.

Na passt - danke derweil, werde mal versuchen Herstellerspecs zu maximalgröße der Arrays und Performance raussuchen (Gigabyte vs Budgetraidcontroller)

Die letzte Sorge sind dann noch die 4KB Sektoren aaaber angeblich kann man da ja das Sektoren Alignment manuell entsprechend anpassen dass es keine Probleme macht (runde Anzahl bei Start und Ende)
 
Was denn für Sorgen?
Naja, das Feedback ist da derzeit ja sehr geteilt. Die eine Hälfte hat auch unter non Win7/Vista Betriebssystemen vhm gute Performance, die andere viel zu wenig - wenn man nicht die Zeit hat ständig Platten umzutauschen ist das Experiment mit den WD20EARS eine fragliche Sache. :)

Wobei - da ich nicht vom geplanten raid 5 boote sollte es nicht DAS Problem sein...

[hab mir derweil mal den SRCSATAWB von intel ausgescoutet]
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh