Storagesystem mit 9TB soll her

@wuggu (nochmal) -

Also wechselrahmen würd ich keinesfalls nutzen, die haben ne schlechte belüftung und kosten 45-50€ DAS STÜCK ! Wären dann ~400€ für 5 Disks ... dann doch lieber so nen Teil holen :

3HE, Platz für 12 Disks, SATA Backplane ... 620€ ohne NT, nen Cube der mehr platz braucht mit nur 8 Rahmen würd das gleiche kosten ;)

http://www.chenbro.com.tw/product/product.jsp?p=3&s=305

http://www.thomas-krenn.com/shopx/i...9/?PHPSESSID=dea5bf8a54d58f745d5281cf634f2efb

@RAIDCore -

Ich hab da nen paar user berichte und nen Vergleich zum RAIDCore ... werd ich mal raussuchen wenn ich heimkomme ... hab ebenfalls nen Kontakt zum Deutsch/Österreichischen Distributor, von denen hab ich auch meinen 4852 ;)

Für das OS wäre nen RAID1 mit zwei 10k SCSI (extern, verbraucht nicht den Platz für die Storage Disks) oder Raptor SATA Disks ne gute wahl ... RAID0 wäre da ein zu großes risiko ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anarchy schrieb:
@wuggu (nochmal) -

Also wechselrahmen würd ich keinesfalls nutzen, die haben ne schlechte belüftung und kosten 45-50€ DAS STÜCK ! Wären dann ~400€ für 5 Disks ... dann doch lieber so nen Teil holen :

3HE, Platz für 12 Disks, SATA Backplane ... 620€ ohne NT, nen Cube der mehr platz braucht mit nur 8 Rahmen würd das gleiche kosten ;)

http://www.chenbro.com.tw/product/product.jsp?p=3&s=305

HAllo,

mit Wechselrahmen meinte ich auch nicht die kleinen Mini-Wechselrahmen die man überall bekommt, sondern gute Lösungen mit großen Lüftern. Dass Chenbro solche Teile gleich führt wusste ich nicht. Chenbro hat für mich nur einen entscheidenden Nachteil: Du bekommst es praktisch nirgends mehr...

gruß
w@w
 
wuggu@work schrieb:
Chenbro hat für mich nur einen entscheidenden Nachteil: Du bekommst es praktisch nirgends mehr...

gruß
w@w

Nicht wirklich :

www.thomas-krenn.de, da gibt es die zu kaufen :)

Weiterhin kosten solche 4 Disks in 3 Schächte Rahmen auch 200€+ wo mer wieder an der stelle angelangt sind wo das 3HE Chenbro überlegen ist ...
 
Zuletzt bearbeitet:
wolfram schrieb:
1. das os von dem server, soll es am besten mit auf das raid 5 aufgespielt werden, oder soll man den onboard scsi anschluss von dem supermicro board nutzen und evtl eine 17gb scsi platte als system platte einsetzten? (evtl sogar nen raid0 aus 2 scsi platten?)

Hallo,

ganz einfach: Für´s Betriebsystem 2x ein Raid 1 auf nem SCSI- Raid. 2 Unabhängige Installationen die man bei Bedarf reaktivieren kann. Die "nicht-genutzte" Installation darf von der "genutzten" Installation nicht ansprechbar sein, damit sie sich nicht gegenseitig zerschießen können. Raid 1 hilft gegen Hardware Defekt. Die beiden unabhängigen Installationen sichern den Software-Defekt ab. Damit garantierst du 99%ige Verfügbarkeit auch bei Virenbefall des OS.

gruß
w@w
 
hmm oki dann evtl 2 maxtor atlas 10k mit 17 gb als raid 1 fürs os., mehr speicherplatz sollte ja nciht benötigt werden.gibts eigentlich irgendwie ne möglichkeit das 24-disk teil von chenbro ohne mobo, also nur mit den nt´s und als platz für die hdd´s zu betreiben?
 
wolfram schrieb:
hmm oki dann evtl 2 maxtor atlas 10k mit 17 gb als raid 1 fürs os., mehr speicherplatz sollte ja nciht benötigt werden.gibts eigentlich irgendwie ne möglichkeit das 24-disk teil von chenbro ohne mobo, also nur mit den nt´s und als platz für die hdd´s zu betreiben?


Hallo,

du solltest wirklich über 2 unabhängige Installation auf insgesamt 4 Festplatten nachdenken, bei einer 15-20k€ Lösung sollte dies nicht das Problem darstellen.
 
wuggu@work schrieb:
Hallo,

du solltest wirklich über 2 unabhängige Installation auf insgesamt 4 Festplatten nachdenken, bei einer 15-20k€ Lösung sollte dies nicht das Problem darstellen.

hmm im prinzip das os 2mal paralell laufen lassen, ahb ich das richtig verstanden?

dein post stand übrigens noch nciht da, als ich meinen geschrieben hatte... ;)
 
Highlander schrieb:
Wie wäre es denn hiermit?

http://www.cepoint.com/Storage/3U SCSI IDE Raid Model RA3100series.htm
In Sachen Preise hab ich noch nicht gesucht :fresse:

Dat größte is immernoch "nur" nen 24er ;)

@Wolfram -

Das würde man dann Server Modding nennen :fresse:

Was gehen würd :

Die netztiele so verdrahten das sie gleichzeitig anlaufen (ist bei ATX NTs problemlos möglich - sollt bei EPS nicht anders sein) und einfach per Dremel, Säge, Sonstwas nen durchgang für die SATA kabel schaffen ... mit 1 Meter langen SATA Kabeln könnt man vielleicht sogar auf sägen verzichten und die durch die PCI Slotblenden zu Backplane des anderen Gehäuses führen, wo ich doch eher bezweifle das 1 Meter das reicht :hmm:
 
hehe, mal sehen was bald im case-modding forum steht :steufel: :d (scherz)

aber 24 kabel durch pci blenden legen, naja, sägen müsste man dann schon...

meine fresse es muss doch ne möglcihkeit geben 32 disks und mehr in nem case unterzubringen....
 
wolfram schrieb:
aber 24 kabel durch pci blenden legen, naja, sägen müsste man dann schon...

Erstmal werden es wohl nur 8 sein ;) würd also auch nen 8er Gehäuse reichen :hmm: da ja eh nur 32 Disks ins System passen ...
 
Anarchy schrieb:
Dat größte is immernoch "nur" nen 24er ;)

@Wolfram -

Das würde man dann Server Modding nennen :fresse:

Was gehen würd :

Die netztiele so verdrahten das sie gleichzeitig anlaufen (ist bei ATX NTs problemlos möglich - sollt bei EPS nicht anders sein) und einfach per Dremel, Säge, Sonstwas nen durchgang für die SATA kabel schaffen ... mit 1 Meter langen SATA Kabeln könnt man vielleicht sogar auf sägen verzichten und die durch die PCI Slotblenden zu Backplane des anderen Gehäuses führen, wo ich doch eher bezweifle das 1 Meter das reicht :hmm:

Dann halt 2 16er ;)
Ich denke hier ist ein "SCSI to SATA Subsystem" wie sie so schön heissen die beste alternative, vorausgesetzt es liegt Preislich im Rahmen. Für ein "16er" gibt es einen 2-Kanal SCSI Controller - Für 2 16er dann dementsprechend 2.
Ich würde das ganze in nem schönen 19" Rack unterbringen.
Den Server würde ich redundant vorhalten - das man wenn einer ausfällt nur die 2 SCSI Kabel zu den externen Gehäusen umstecken muß - den anderen Server hochfährt und alles lüppt wieder.
Das erscheint mir hier die professionellste Lösung zu sein.

Und tu mir einen gefallen - erwähne nicht basteln und dremel mit den 16000€ Storage Server-System in einem Satz :fresse: :d

Lt. dem THG-Artikel ist ein AMD-System als reiner Fileserver aufgrund der kürueren Pipeline schneller als ein Xeon System. Ich denke das ein Dual Opteron mittlerweile genauso stabil ist wie ein Dual-XEON aber ich weiß nicht wie viel das an Perfomance ausmacht. Vielleicht mal den Doc aus dem THG Artikel anschreiben :d
 
bin gerade sowiso am überlegen ob ich den anschreibe, und war will cih wissen was er für nt´s verwendet hat und ob die einbau schienen maßanfertigungen sind (wovon ich leider ausgehe)
 
Hi,
ich verstehe zwar von den Vorzügen der einzelnen Raid-Controller nich so sehr viel und ich bin auch nich die erste Anlaufstelle bei professionellen Storagelösungen, aber folgendes weiß ich sicher:

Dass ich bei diesem system NICHT auf ein "Von-Stange-Gehäuse" zurückgreifen würde. THG liefert ja eigentlich genügent Beispiele für ordentliches Unterbringen von HDDs. Warum also nicht genauso machen. und vom Aufwand her und vom Schwierigkeitsgrad würde ich das jedem Schlosser-Lehrling zutrauen!!!
Allerdings finde ich die Clusterlösung mit 2*16 besser, da man wesentlich weniger Probleme mit Strom, Kabel und Hitze hat!

So, das wars....könnt weitermachen ;)

MFG
bearmann2k
 
wie siehts aber mit einem hardwaredefekt aus ??? Baut man sich die Sachen selbst, muß man sich selbst um die Beschaffung der defekten Teile kummern.

Man könnte ja auch z.B. die EVA 3000 von HP nehmen, die in dem Zustand 8,1TB bereitstellen kann und dann auf einen EVA 5000 aufrüsten.

Vorteile:

Redunate Auslegung der Controller
in Verbindung mit einem Care-Pake, reaktionszeit von 4 Std seitens HP inklusive austausch der defekten Teile
Auf dieses SAN können mehrere Server zugreifen z.b. 2x DL360 G3 von HP

Nachteil:

Aufrüstung sehr teuer da Fibre Channel Platten
Preis weit über 20k€
 
in ferno bringt mich auf ne idee... was is wenn das board wider allen guten dingen in dutten geht?? dann is echt abfahrt... und genau zu dem zeitpunkt kann man natürlich nicht nochmal das board auftreiben und alles is fürn arsch... ich würde mich in diesem fall echt in professionelle hände geben auch wenn ich sonst alles selber mache...
 
das raid läuft doch nciht über das board, sondern ü+ber die controller. neues board hin, controller wieder drauf und gut ist...

wenn man dabei auch noch prozzessoren und ram neukaufen muss kommt es imemr noch günstiger...

@inferno: das hp ding hatte ich auch schon im auge, aber schon das der preis das restliche system übersteigen würde, teure fibrechannel platten usw sprechen dagegen...

auf arbeit früher (ferienjob) hatte wir auch ne optical storage von hp dastehen, aber das war nicht das wahre...
es ging jetzt ein autrag an einem schlosser der das ganze genau abstimmt. der typ der das ganze haben will hat noch nen halben serverschrank frei (glaube nen 52er) und da sollte der platz reichen.

danke an alle die hier mitgeholfen haben.
 
wenn du alles neukaufst hast du ne ausfallzeit von rund 2 tagen.... selbst in berlin bekommt man nicht so auf die schnelle nen gutes tyan oder supermicro board samt speicher und und cpu zu einem angemessenen preis und mit neuinstallation sind dann ohne probleme 2 tage weg....:( kannst ja mal ausrechnen was der arbeitsausfall kostet.... da is nen 2.server ohne platten wahrscheinlich günstiger oder halt echt komplett von IBM oder HP DELL oder supermicro.....
 
wolfram schrieb:
gehäuse: kann mir einer genauere daten zu einem chieftech js2000-8r geben? nach eigenen angaben haben hier 23 disks platz, jedoch gibt es beim ar2000 auch diese angabe, hier mit 12 disks. nur werden beim ar 2000 in jeden 5 1/4 schacht die disks montiert, was heist das eigentlich platz verschwendet wird. deshalb würde ich auf den innen aufbau hoffen. desweiteren hatte das gehäuse 810watt redudante netzteile eingebaut.
wenn ich kein passendes gehäuse finde wird was gebastelt (lassen). dann wandert das board in nen server tower (evtl nen 3r systems landrover) und die hdd´s werden noch ungefähr folgender methode befestigt und untergebracht:

http://www.tomshardware.de/storage/20030424/70tb-03.html

Habe hier selber ein AR2000 zum Verkauf rumstehen da ich das Geld brauche, falls du Fragen hast sprich mich ruhig mal an. Kann dir gerne Bilder etc liefern.

Von YY gibts so Einschübe für 2 5 1/4 Schächte in die 4 oder 5 Festplatten passen und davor ist noch ein 92er Lüfter, damit sollten auch genug Disks in nen AR2000 passen.
 
hmm leider is und bleibt ein ar200 zu klein, hätte nei gedaht das ich das sage :d
dein angebot hatte ich im hinterkopf, hatte es vorher schonmal im marktplatz gesehen...
 
Spannungsversorgung und grosse Partitionen

Ich stehe vor einer ähnlichen Aufgabe wie Wolfram. Bei mir sollen es am Schluss etwa 8 TB sein. Ich stelle mir 2Stk. 3Ware Escalade 9500S-12 mit je 12Stk. 400GB HGST HDs als RAID5 mit je einem HotSpare (3Ware lässt keine Kontrollerübergreifende Sets, wie RaidCore, zu) vor. Auswahl des Boards, hab mal noch andere Probleme.

Hat jemand Erfahrungen/ Tipps zu meinen Problemen/ Fragen:
Ich weiss, könnte ziemlich kompliziert tönen, habe aber dazu noch nirgends etwas schlaues gefunden. Oder gibt die Spannungservorgung einen eigenes Thema? Die ersten beiden Probleme beziehen sich auf Netzteile, das dritte Problem zu grossen (>2TB) Partitionen.
Auch wenn ich es am Schluss anders machen muss, wäre trotzdem froh, wenn jemand dazu etwas weiss. Im Prinzip stellen sich auch bei andere Konfigurationen ähnliche oder gleiche Probleme.

1. Problem: Netzteil mit grosser Ausgangsleistung resp. zusammengeschaltete Netzteile. Zur Problematik der Zusammenschaltung von Netzteilen;
Netzeile resp. Spannungsquellen parallel zusammenschalten ist sicher keine Kunst (jeweilige Spannungsquelle & GND zusammen, fertig). Aber dabei sind für mich folgende Sachen nicht ganz so klar oder zeigt hier die Praxis, dass es einfach geht? Dabei gibt es folgende Möglichkeiten: Werden die einzelnen Spannungsquellen (also z. Bsp. 5V von Netzteil 1 mit den 5V von Netzteil 2) an einem gemeinsamen Sternpunkt zusammengeschlossen oder speisen z. Bsp. die 5V von Netzteil 1 nur das (Dual-)Board und die 5V von Netzteil 2 nur die Harddisks? Warum diese Frage? Wegen den Ausgleichsströmen zwischen den Netzteilen resp. deren jeweiligen Spannungsquellen bei einem gemeinsamen Sternpunkt. Denn 5V von Netzteil 1 sind nicht unbedingt 5V von Netzteil 2; Schwingungprobleme, Ausgleichströme, Ripple und Überlagerungen, synchrones Einschalten resp. Einschwingen beim Einschalten und dabei entstehende Ausgleichströmen usw. Wie sieht es im zweiten Fall aus; das Board wird z. Bsp. von Netzteil 1 gespiesen und die Harddisks von Netzteil 2: Dabei kann sich aber ein Problem bei den I/O Leitungen der Schnittstellenbausteinen einstellen. Denn die Logik des Kontrollers auf dem Mainboard würde ab einer anderen Spannungsquelle als die Logik der Festplatten gespiesen werden. Solange die Toleranzen der Singnallevels (high/low) eingehalten werden, funzt es. Ich habe aber hier vor Rauschen/Noise und Ripple Respekt; hat jemand Erfahrungen dazu?
Was passiert aber, wenn ein Netzteil in diesem Fall aussteigt? Also z. Bsp. Netzteil 2 stellt ab. Schon klar, dass dann die Harddisks abstellen. Aber dann sind unter Umständen die I/O der Datenleitungs-ICs (also z. Bsp. der S-ATA Schnitstellenbaustein des Kontrollers wird noch gespiesen, da Netzteil 1 noch läuft) unter Spannung aber die Kontrollerbausteine der HDs haben keine angelegte Versorgungsspannung mehr (TTL ICs gehen da meistens flöten, wenn man an die Eingänge Spannung angelegt hat aber keine Versorgungsspannung Vcc vorhanden ist, CMOS unter Umständen machen das mit,ich habe mir die S-ATA Spezifikationen nicht angeschaut glaube aber nicht, dass die S-ATA I/O als Stromtreiber/ Stromsenken arbeiten, denn dann gibt es geringere Probleme).
Oder zeigt auch hier die Praxis, das es einfach geht? Denn vergleichbar wäre das zweite Szenario mit dem Fall, als wenn eine externe SCSI Platte mit eigenem Netzteil an die SCSI Schnittstelle angeschlossen ist.

2. Problem: Eine weitere Frage bezieht sich auf redundant ausgeführte Netzteile. Wie gesagt, 2 Netzteile zusammenhängen ist keine Kunst. Aber, wenn dann mal ein Netzeil defekt ist (Kurzschluss auf der Sekundärseite des Netzteiles), würde ja das andere auch in "Mitleidenschaft" gezogen werden, solange kein "intelligenter" Umschalter vorhanden wäre. Meistens ist es ja so, dass ein FET völlig durchsteuert (verkollt) und einen Kurzschluss (auf der Sekundärseite) erzeugt. Sind die Netzteile einfach zusammengeschlossen (gemeinsamer Sternpunkt der jeweiligen Spannungsquellen), so würde das zweite gute Netzteil infolge zu hohen Stromes durch Kurzschluss auch abstellen. Wäre ein "intelligenter" Umschalter vorhanden (mit Strom-, Spannungsüberwachung), so könnte noch auf das "gesunde" Netzeil umgeschaltet werden.
Wäre ein Kurzschluss auf Verbraucherseite vorhanden, so würde zuerst das eine Netzteil und danach das andere Netzteil (infolge Überstromschutzschaltung) abschalten.

Nun meine Frage, ist in redundanten Netzteilen (Server Netzteilen) eine solche Schaltung integriert (also so ein beschriebener Umschalter) oder werden hier einfach die jeweiligen Spannungen der zwei Spannungsquellen durch einen gemeinsamen Sternpunkt zusammengeschlossen und so als redundant verkauft?

3. Problem: maximale Partitionsgrössen und Filesystem;
Beim aktuellen NTFS ist ja bei 2TB am Stück Schluss. Wer hat Erfahrungen zu anderen Filesystemen und grösseren Partitionen?
Unter welchen Umständen ist eine grössere Partition möglich? Mich interessiert unter welchen Umständen (32bit oder 64bit Hardware) mit z. Bsp. Linux eine noch grössere Partition möglich ist.
Gemäss http://www.linuxfibel.de/limits.htm ist die maximale Partitionsgrösse bei reiserfs 10^25Bytes. Das würde dann wieder für eine Weile reichen...Ist dabei der Einsatz von 64bit Hardware (CPU) und 64bit Kernel (welche Version) zwingend? Oder ist das auch noch mit einem 32bit System erreichbar? Im Übertragenen Sinne für Windwos; werden also grösser als 2TB Partitionen erst mit einem 64bit Betriebssystem und Hardware möglich?
 
Zuletzt bearbeitet:
also hallo erstmal

mein sempf (empfehlung zur sache)

ich würde vo den ganzen "selbstgebauten" sachen und chieftec tower gedönse weggehen und zu sagen wir mal altbewährtem zurückgreifen.
wie ein vorrednder schon bemerkte hat FSC da so einiges im angebot. 2-3 SX30 oder S30 + einen Handle Server sollten in deinem Budget locker drinne liegen. Diese Sache hat dann auch extreme vorteile: wiederherstellzeiten, support, erstzateile am nächsten tag etc. da ist FSC echt fit (spreche da auch sehr naher erfahrung). Deswegen mal mein Vorschlag:

2* RX300 ~ 6000
+ 2 * easyRAID S-ATA Verbund ~ 8000 (mit 8 TB)
+ 2* Adatecs RAID Ctrl. 1200

macht 15200. das wäre doch mal ne möglichkeit. Wenn du Interesse hast kann ich dir mal nen Angebot machen :)

mfg
 
also linux brauch um auch dateisysteme über 2tb anzusprechen keine 64bit hardware.....wobei ich mir noch nicht so sicher bin ob es wirklich so intelligent ist ein dateisystem über 8TB zu legen.....weil das journal wird irgend wann einfach mal zugroß....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh