Festplatten auslagern

amag

Enthusiast
Thread Starter
Mitglied seit
30.01.2012
Beiträge
362
Hallo,

vorab muss ich sagen, dass ich mich in dem Bereich von Servern nicht auskenne, aber lernwillig bin. Ich habe nur meine Vorstellungen, ohne zu wissen, ob sie - in meiner Preisklasse - umsetzbar sind. :fresse:
Da die 8 HDDs in meinem PC mittlerweile doch recht laut sind, möchte ich diese aus dem PC raus haben, dazu auch noch in einen anderen Raum.

Besonders ist dabei aber, dass ich jede Festplatte einzeln ansprechen können will, als sei sie intern verbaut. Gerade die Verschlüsselung via DiskCryptor (würde bei Bedarf auch auf VeraCrypt umsteigen) ist hier ein Kriterium. Die Performance sollte auch hoch sein, da ich für Testzwecke immer wieder ein Raid 0 Verbund nutze. Ich fürchte jedoch, dass diese Performance so nicht erreicht werden kann, korrekt?

Im Grunde wäre NDAS für mich geeignet. Nur gibt es diese nicht mehr wirklich, wenn ich das richtig sehen, oder?
Zusammengefasst: Ich will die HDDs benutzen können, als wären sie intern verbaut, aber aus meinem Gehäuse raus haben.

Preislich sollte das die Grenze von 500 € (ohne HDDs versteht sich) nicht überschreiten.
Hat hier jemand eine Idee, oder sind meine Ansprüche, was ich befürchte, vollkommen unrealistisch?



Grüße
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der einfachste Weg die Platten rauszubekommen wäre wahrscheinlich ein SATA/SAS Controller mit externen SFF Anschlüssen. Den steckst Du in deinen PC und auf die andere Seite ein oder 2 HDD Gehäuse auch mit SFF Anschluss (z.B. von Lindy).

Vorteil: die ganze "Logik" ist lokal, dein Haupt-PC steuert nach wie vor die ganzen Platten selbst und du brauchst keinen Server mit OS, schnelles Netz usw.
Wahrscheinlich ist der limitierende Faktor dann die Kabellänge.

Alternativ Server mit iSCSI mit 10GBase-T, Fiberchannel oder Infiniband.

EDIT und Nachtrag:
Ich habe die erste Lösung selbst für meinen Dell T20, da dort nur 4 Platten regulär reinpassen.

Raidcontroller als "dummen" Festplattencontroller (heißt oft "IT mode"), also ohne Raid-Funktion der die Platten alle einzeln im AHCI-Modus anspricht. Keine Ahnung was so Dinger heute kosten, hatte meinen noch.

Da meiner 2 interne SFF-8087 Anschlüsse hat, brauchte ich zusätzlich einen Adapter, um einen Anschluss davon nach extern zu führen (Supermicro Adapter SFF8087 auf SFF8088). Kostenpunkt pro Adapter ca. EUR 25. Dazu ein Gehäuse wie das Lindy 82827 (ca. EUR 110) und das Ganze dann mit einem Kabel SFF8088 auf SFF8470 verbinden.

Kabel gibt's wohl sogar bis zu 10m, was dann allerdings offenbar mit EUR 200 zu Buche schlägt.

Wenn man mal überschlägt: controller 150 (ggf. 2x Adapter intern/extern zusammen 50), 2x Lindy ca. 220 macht 370 Taler (mit Adaptern 420). Dann hängt es jetzt von der Kabellänge ab, ob Du Dein Budget einhalten kannst (2x 1m Kabel wären halt nur ca. 70) ... =)

Wie gesagt, Wege gibt es wahrscheinlich grundsätzlich viele.

Vielleicht wäre ein HP Microserver (ca. 220) mit Infiniband was, aber ich kenne mich (noch) nicht gut genug mit Infiniband aus, ob das Deinen Ansprüchen entspricht. Die Karten dafür sind deutlich günstiger als 10gbase-T und auch das 10m Kabel bekommt man bei ebay für 25 Tacken. 10Gbase-T ist deutlich teurer, allein für die Netzwerkkarten (neu) bist Du ca. 700 Euro los. Aber immer wenn du einen Server einsetzt, musst Du irgendwie deinem Hauptrechner eben die Platten so unterjubeln, dass er sie wie lokale nutzt. Das ist dann halt alles etwas mehr Konfigurationsaufwand.

EDIT2: Fiel mir gerade noch ein: Ganz netter Nebeneffekt "meiner" Lösung: da der Raid-Controller Hot-Plug fähig ist, mach ich mein Lindy-Gehäuse halt nur an (hat ja für die Platten eine eigene Stromversorgung), wenn ich die Platten wirklich brauche. So ist's halt normalerweise recht ruhig, auch wenn das Gehäuse direkt neben der Kiste steht...
 
Zuletzt bearbeitet:
Genau, das ist das Gehäuse.

Siehe oben, gibt auch 10m Kabel. Aber: wenn Du gewillt bist, 2x200 Euro für Kabel auszugeben, dann würde ich mir an Deiner Stelle vielleicht doch über Alternativen noch einmal tiefere Gedanken machen. So einen Raidcontroller kann man immer gebrauchen ;-), aber die Kabel sind halt so speziell, dass eine alternative Verwendung kaum in Betracht kommt. Dann mag halt universellere Hardware - Server plus X - mehr Sinn machen. Kann natürlich auch sein, dass man die Kabel deutlich günstiger bekommt, hab nur schnell mal bei Amazon und Ebay geschaut.
 
Yup, der sollte eigentlich reichen. Willst Du denn 8 Platten "ausbauen" oder erst einmal nur 4? Der Controller hat nur 1x extern, so dass Du ggf. noch einen Adapter bräuchtest.

Ich kann Dir allerdings nicht sagen, ob der auch außerhalb von HP-Systemen funktioniert (sollte aber eigentlich) und die Disks einfach über AHCI anbinden kann (also ohne RAID-Funktionalität).

Alternativ vielleicht der hier: LSI MegaRAID (2x extern)

Aber ich bin echt nicht der Raid-Controller Profi - da müsste vielleicht jemand mit mehr Ahnung sich bitte einmal äußern. =)

Krass, grad gesehen: gibt ja auch dafür "Switches"! LSI SAS Switch ... (Scherz am Rande: da kannst Du dann Gehäuse + Platten ohne Ende dranhängen...) :d
 
Zuletzt bearbeitet:
Vorerst würde ich auch nur 4 testen. Das Gehäuse selbst ist ja sehr günstig.
Die Idee, das mit SFF zu lösen, finde ich wirklich sehr gut. Zwar wäre es toll, wenn das nicht auf 10 Meter beschränkt wäre, aber es könnte reichen.

Ich muss mir da noch ein paar Sachen ansehen. Meist wird ja SFF-8088 (extern) verwendet, korrekt?
8470 vom Gehäuse hat in Zukunft keinen 10 Gbit/s Standard, aber das sollte ja kein Problem sein. Finde ich ähnliche Gehäuse nur nicht, oder gibt es ansonsten keine?
 
Ich habe echt lange gesucht und schlicht nichts auch nur annähernd Vergleichbares gefunden. Konnte es schon kaum glauben, als ich das dann irgendwann gesehen habe.

EDIT: In den Staaten gab's einige wenige Anbieter (glaub SansDigital mit der TowerRaid-Linie, iStoragePro (ggf. aber nur Apple?) usw.), aber auch preislich in anderen Gefilden.

Habe gerade aus Neugier noch einmal geschaut: Netstor bei Ebay (Firma nie gehört, war aber bei mir mit Lindy davor genauso). Scheint im Gegensatz zum Lindy sogar SATA3 zu haben.

Es gibt bestimmt noch den ein oder anderen mehr, ich bin auch nur Hobbymäßig unterwegs. ;)
 
Zuletzt bearbeitet:
Wenn du mehr als 4 Platten nutzten willst solltest du dich mal bei Ebay umsehen.

Such einfach nach JBOD.

Hier mal ein Beispiel für ein Gehäuse mit 16 einbauplätzen: Rackable Systems SGI Omnistor SE3016 JBOD 16 Bay Array SAS/SATA | eBay

Wenn dir die Übertragungsrate von 100mb pro Sekunde ausreicht kann ich ebenfalls nur einen HP Microserver empfehlen sowie die Anbindung der Platten per ISCSI.

Dann hättest du noch den vorteil das du den Server noch für weitere aufgaben zur verfügung hättest.
 
Zuletzt bearbeitet:
@michathe: Dann kann ich die Platten aber nicht so nutzen, als seien sie intern verbaut, korrekt?
In einem JBOD habe ich alle Platten ja zu einem Pool zusammengefasst.

Ich verstehe nicht, wieso NDAS ausgestorben ist. Habe noch 3 alte IDE-Gehäuse hier, es ist wunderbar. Natürlich braucht man Zusatzsoftware, aber es ist unfassbar komfortabel.

Wäre es möglich, einen PC zusammenzustellen, auf dem z. B. Windows Server läuft, um damit die HDDs im Netzwerk bereitzustellen, als seien sie intern verbaut, oder kann das Windows Server nicht?


Ginge im Grunde nicht auch einfach ein solches Kabel?
http://www.amazon.de/Smays-SFF-8088...41473682&sr=1-1&keywords=SFF-8088+HOST+4-SATA

Etwas länger, dazu ein Controller im PC und dann die Festplatten irgendwie unterbringen. Ich finde aber nirgendwo brauchbare SFF-Label, die 10 Meter lang sind, auch keine 8087.
 
Zuletzt bearbeitet:
@michathe: Dann kann ich die Platten aber nicht so nutzen, als seien sie intern verbaut, korrekt?
iSCSI = Blockdevice und ersetzt quasi NDAS, da deutlich flexibler!

es zwingt dich keiner Die HDDs zu Pools oder Volumes zusammenzufassen,
einfach jede Platte einzeln einrichten, mounten, als iSCSI Targen einrichten und dann in Windows als iSCSI Blockdevice verbinden.

Das so verbundene Blockdevice kannst du unter Windows dann Partitionieren, formatieren, verschlüsseln whatever.
 
Okay klar, mein Fehler. iSCSI sollte ebenfalls geeignet sein. Wird das aber nicht sehr teuer?
Kann mir jemand konkrete Vorschläge machen? Wie ich das genau mit iSCSI umsetzen sollte/könnte.
Einen eigenständigen PC, der das Protokoll nutzt, und die Platten zur Verfügung stellt?

Ich möchte euch wirklich für eure Hilfe danken. Ich blicke gerade gar nicht mehr durch und sehe den Wald vor lauter Bäumen nicht mehr.
 
Zuletzt bearbeitet:
Für iSCSI brauchst Du:

1. einen vollwertigen (zweiten) PC mit OS, den Du quasi als iSCSI-"Server" konfigurierst, und

2. eine schnelle Verbindung zwischen diesem (zweiten) PC und Deinem "Haupt"-PC, damit es sich auch "wie lokal" anfühlt.

Und schnell heißt dann nicht 1Gbit, da Du damit auf ~100MByte/s Übertragungsrate beschränkt bist (schrieb michathe ja schon), wo selbst einzelne "langsame" Platten lokal schon schneller sind, von lokalen SSDs und Raid-Verbünden ganz zu schweigen. Wenn Du Übertragungsraten jenseits von 1Gbit/100MByte/s haben willst, musst Du Dich mit Nic-Teaming, Infiniband oder Fibrechannel beschäftigen und verlässt den Bereich "08/15" ;) ...

Was willst Du denn mit dem von Dir angegebenen alternativen Kabel machen? Ist auch keine 10m lang. ;)
 
Kann ich also einen PC hinstellen, alle HDDs reinbauen, z. B. 4 Netzerkkarten, noch 3 in meinen PC, 4 Ethernet-Kabel nutzen, NIC Teaming auf Windows Server einschalten (normales Windows macht es meines Wissens automatisch) und dann per iSCSI die Platten nutzen?
 
Theoretisch vermutlich ja - ich habe mit Teaming leider keine eigenen Erfahrungen. Bin mir z.B. nicht sicher, ob "normales Windows" das automatisch macht - würde eher sagen, nein, muss man konfigurieren. Aber wie gesagt, reine Vermutung.

Was Du vielleicht im Kopf hast ist SMB Multichannel - da bündelt Windows automatisch die komplette zur Verfügung stehende Bandbreite von PC1 zu PC2 (auch über unterschiedliche "Wege"). Gilt aber leider nur für das SMB Protokoll, nicht für iSCSI...

Ganz was anderes: Würde für so einen Aufbau dann aber vielleicht 2x 4-Port NICs (z.B. Intel i350-T4) nehmen. Wenn Du mit dem Gedanken spielst, kannst Du aber auch in der optischen 10Gbit Liga stöbern - ist wohl günstiger als 10gbase-T (?). Da bin ich aber mangels eigener Erfahrung auch raus.
 
Zuletzt bearbeitet:
4 Netzerkkarten, noch 3 in meinen PC, 4 Ethernet-Kabel nutzen, NIC Teaming auf Windows Server einschalten (normales Windows macht es meines Wissens automatisch) und dann per iSCSI die Platten nutzen?
iSCSI profitiert nicht von Teaming. Das Zauberwort heißt in diesem Fall Multipathing. Also im Fall von vier NIC's mit IP Adressen aus vier getrennten Netzen.
 
Wichtiger Hinweis, danke.

Dann sehe ich mich hier mal im 10 Gbit Thread um.
Ist auch besser, da ich damals so geizig war und nur einen 5820K gekauft habe. Also habe ich nur 28 PCIe-Lanes. 16 für die GPU (mindestens aber 8) und 4 für die Soundkarte sind schon mal weg.
 
Zuletzt bearbeitet:
@michathe: Dann kann ich die Platten aber nicht so nutzen, als seien sie intern verbaut, korrekt?.

Mit dem Beispiel welches ich oben verlinkt habe funktioniert auch eine einfaches durchreichen der Platten einwandfrei.

Für dich wären jbod Gehäuse mit einem einfachen SAS Expander interessant. Wenn du dieses dann mit einen HBA in deinem PC verbindest kannst du alle platten einzeln ansprechen.

Aber wie schon erwähnt wäre eine Lösung mittels ISCSI besser geiegnet, ich empfehlr dir aber auch in betracht zu ziehen nach endsprechender 10gbit Hardware zu suchen. Beispielsweise könntest du auf SFP+ lösungen setzen zb die intel x520 netztwerkkarten. Am einfachsten wäre natürlich 10Gbase-t aber da musst du lange die augen offen halten um günstig an Karten zu kommen neu liegen diese Geschichten weit außerhalb von deinem Preisrahmen.
 
Um kosten zu sparen würde 10Gbit Netzwerkkarten (z.B. Thecus C10GTR, 1x 10GBase-T, PCIe 2.0 x4) + nen Crossoverkabel ja auch tun, damit hättest du eine direktverbindung und könntest dir den doch immerhin noch recht teuren 10gbit switch sparen.
 
Jo, wenn 10gbase-T dann ist das die günstigste Variante. Biste aber trotzdem noch bei über EUR 600: 200 Gen8, 2x200 für Nics + bisken was für ein 30m Kabel.

Ich würde ja gerne mal so eine Tehuti-Karte unter Windows / Linux / Solaris testen, aber die EUR 200 "Testvorfinanzierungsaufwand" sind mir dafür zu hoch. ;) Eigentlich bräuchte man dann ja auch schon 2 davon, um zu sehen wie sie sich so verhalten. Nach meiner ganzen Fummelorgie habe ich ja den "Testparcour" quasi parat... naja. Man kann buchstäblich nicht alles haben. :d
 
SAS Expander und SATA HDDs wird im Allgemeinen von abgeraten!
Hmm, weshalb?
Das frage ich aus persönlichem Interesse, da ich diese Kombination seit 2013 ohne irgendwelche Probleme fahre (LSI 9361 + Intel RES2CV360-Expander mit verschiedenen Konsumenten-Festplatten, von alten Samsung F4 2 TB bis WD Red 4 TB).
 
Denke auch, dass iSCSI und 10GB am sinnvollsten sind. Zwar nicht billig, aber das ist ein SFF-Kabel auf 15 Meter (die ich abgesehen davon nirgendwo finde (SFF-8470 auf 8088) auch nicht.

Bin gerade auch im 10Gbit Thread aktiv, werde mir zwei Netzwerkkarten zurechtsuchen müssen. Mit ein bisschen Geduld wird es klappen.
 
Hmm, weshalb?
Das frage ich aus persönlichem Interesse, da ich diese Kombination seit 2013 ohne irgendwelche Probleme fahre (LSI 9361 + Intel RES2CV360-Expander mit verschiedenen Konsumenten-Festplatten, von alten Samsung F4 2 TB bis WD Red 4 TB).

Man liest es in verschiedenen Foren immer wieder, auch daß es da Probleme gibt.
Ich denke mal, daß das SAS-Protokoll da noch ein paar Finessen mitbringt, welche das SATA-Protoll nicht hat. Das SAS Protokoll ist ja nunmal die Weiterentwicklung der SCSI Schiene = Enterprise Storage / Business Critcal Storage.
SATA ist ja nur die Weiterführung vom einfachen ATA Protokoll.

Kernaussage des Ganzen : "Es kann gut gehen, muss es aber nicht" :)
 
Am Ende bist Du mit 10GB sicherlich flexibler unterwegs. SFF/SAS ist - nach meiner Einschätzung - eben nicht dafür gedacht, weite Strecken zu überbrücken, sondern eben um die Storagekapazität (in räumlicher Nähe) zu vergrößern. Ähnliches gilt für Infiniband.
 
Das sehe ich jetzt ganz genauso. Die nächsten Tage, Wochen und Monate werde ich mich auf eBay umsehen.
Es wird eine 10Gbit-Lösung, und dann eben iSCSI.

Ich danke euch vielmals für die Lösung, ihr habt mir sehr geholfen.
Und vor allem: Es war/ist sehr interessant!



Grüße
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh