[Guide] NAS/Server Hardwareguide 2020

Status
Für weitere Antworten geschlossen.
Ja, du brauchst 6 Kabel.
Die einfachste wäre ein Controller der mind. 6 SAS Anschlüsse bietet :-)
z.B: https://www.amazon.de/gp/product/B07NR989HP/ref=ppx_yo_dt_b_asin_title_o04_s01?ie=UTF8&psc=1

Das sind aber eigentlich - zumindest meistens - keine echten 24 Kanal Controller sondern normale 8 Kanal Controller mit einem integrierten SAS Expander. d.H. die GesamtBandbreite von 8 Kanälen wird auf 24 Kanäle verteilt!
SATA3 hat 6Gb/s Pro Kanal
8x6G= 48Gb/s
48G/24 = 2Gb/s >> Das sind immer noch ca. 200 MB/s, was für HDDs mit 5400 U/min gerade noch reicht, aktuelle 7200er HDDs werden hier schon ausgebremst, denn die Schaffen auf den äusseren Spuren schon an die 250 MB/s
Wenn der Controller nur SATA2 bzw. 3Gb/s "spricht" wird's noch übler - und das ist bei SAS Controllern mit 6G SAS Schnittstellen gar nicht mal ungewöhnlich!

Man könnte natürlich auch eine SAS Controller und einen Expander separat kaufen - mit dem gleichen möglichem Flaschenhals.
(SAS Expander würde ich maximal 1 zu 2 bei 6G-SATA einsetzen, dann hat man immerhin noch 3G)


Ansonsten findest hier du genauso eine Konfiguration!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Achtung: diverse Supermicro-Gehäuse bringen eine sog. EXPANDER-Backplane mit, d.h. oft reicht ein Verbindungskabel (ggf. gehen auch 2) und ein „kleiner“ HBA für eigentlich nur 4 oder 8 Festplatten. Die Expander-Backplane übernimmt dann die Aufteilung auf die weiteren Platten. Performancemäßig reicht das für normale HDDs meist ganz locker aus, bei SSDs kann’s ein gewisser Flaschenhals sein.

Also: Augen auf beim Gehäusekauf. Und dann entspr. Kabel wählen - die Supermicro-Gehäuse inkl. Backplanes sind gut dokumentiert, da findest du recht leicht raus, was du brauchst. Bei anderen 19“-Cases eigentlich auch, ist ja Server-Kram. :d
 
Vielen Dank für die Antworten. Das hat mich um einiges weiter gebracht.

Werd mich noch weiter mit dem Thema befassen, sobald ich eine genaue Zusammenstellung vor Augen haben, werde ich aber die hier nochmal posten ob das so auch funktioniert xD.

Wenn möchte ich schon die volle Bandbreite nutzen. Das Supermicro les ich oft als Empfehlung, daher habe ich das vorhin genannt. Wenn kommt das aber nur gebraucht in Frage, da es sonst den preislichen Rahmen sprengt.

Das mit der Expander Backplane ist mir total neu, werd mir das aber die nächsten Tage mal anschauen. Klingt natürlich sehr nice, wenn man volle Bandbreite für Festplatten hat und nur eine HBA braucht so kann man die anderen PCIe slots einfacher belegen und muss auf weniger achten.
 
bei den Racks steht z. B.:
  • 6x SFF-8087: je 12x SAS/SATA
Die Anschlüsse kannst Du auf den Produktfotos sehen. Je 4 Platten haben einen SFF-8087 Anschluss. 4 * 6 = 24.
  • 3x SFF-8087 pro Backplane
kann mit der Aussage dann nix anfangen. Bei einem normalen Rechner ist es klar pro SATA Port eine Festplatte und fertig^^.
Das bezieht sich auf die mechanische Ausführung der Backplane. Auf dem Produktfoto siehst Du, dass es sich um zwei Backplane-Platinen handelt. Auf jeder Platine sind 3 SFF-8087 Anschlüsse. 4 * 3 = 12 Platten pro Platine.
Daher Versuch ich gerade zu verstehen welche HBA ich brauch und welche passenden Kabel. Das oben genannte ist Fantec 24 Bay, brauch ich dann bei den 6x das SFF 8087 Kabel und passt das dann an die Broadcom 9211-8I Karte? Die hat doch nur 2 SFF Anschlüsse?
Ein 9211-8i hat Anschlüsse für "8" Platten. Daher die "8" im Namen. Für alle 24 Platten benötigst du entweder 3 "8i" Controller, einen Controller der "24i" hat oder was gängig ist einen SAS-Expander. Die Controller-CPUs und die Software unterstützen durchaus 128 und mehr Laufwerke, aber mechanisch/elektrisch ist das erstmal relativ begrenzt.
Vielleicht findest Du einen günstigen 16i Controller und machst den Rest über das Board. 24 ist schon eine Hausnummer. Das muss man sich gut überlegen, da HDDs und Controller auch ganz gut Energie benötigen.
 
Achtung: diverse Supermicro-Gehäuse bringen eine sog. EXPANDER-Backplane mit, d.h. oft reicht ein Verbindungskabel (ggf. gehen auch 2) und ein „kleiner“ HBA für eigentlich nur 4 oder 8 Festplatten. Die Expander-Backplane übernimmt dann die Aufteilung auf die weiteren Platten. Performancemäßig reicht das für normale HDDs meist ganz locker aus, bei SSDs kann’s ein gewisser Flaschenhals sein.

Also: Augen auf beim Gehäusekauf. Und dann entspr. Kabel wählen - die Supermicro-Gehäuse inkl. Backplanes sind gut dokumentiert, da findest du recht leicht raus, was du brauchst. Bei anderen 19“-Cases eigentlich auch, ist ja Server-Kram. :d
die Aussage habe ich oben bereits widerlegt....
 
Ok danke. Jetzt nur zum Verständnis.^^

es gibt zb Adaptec HBA 1100 1100-24i, PCIe 3.0 x8 (2293800-R), an diesen könnte ich alle HDDs anschließen. Der ist PCIe 3.0 wäre der dann schnell genug für 24 HDDs mit 7200 rpm?
Anderenfalls dann ein 16i + 8i PCIe 2.0 für 24 HDDs.

Energieverbrauch ist auch so ein Thema was ich im Auge habe. Da spielt aber die komplette Hardware eine Rolle, damit möchte ich mich später befassen.

Will das System mit Unraid aufbauen und dort laufen ja nur die Festplatten auf die man zugreift.

Komm immer mehr zu dem Gedanken mir erstmal ein kleines Rack zu kaufen. Bei eBay hab ich gesehen, dass es da günstig gebraucht welche gibt. Damit ich eine Testumgebung habe, und mal OS und etwas rumbasteln kann.
 
@Digi-Quick Welche Aussage? Dass die Gehäuse eine Expander-Backplane haben, dass dann 1-2 Kabel (technisch) reichen oder die Performance fürs Home ausreichend ist?

Widerlegt sehe ich das nämlich alles nicht. Aber klar, wer auf kompromisslose Leistung steht, für den mag das nicht in Frage kommen. Kollege remiel hat aber zum genauen Einsatzzweck nichts geschrieben. Für ein zwei VMs und Datengrab reichen m.E. selbst 4 Kanäle @6Gb/s LOCKER.
 
@Digi-Quick Welche Aussage? Dass die Gehäuse eine Expander-Backplane haben, dass dann 1-2 Kabel (technisch) reichen oder die Performance fürs Home ausreichend ist?
SATA3 hat 6Gb/s Pro Kanal
8x6G= 48Gb/s
48G/24 = 2Gb/s >> Das sind immer noch ca. 200 MB/s, was für HDDs mit 5400 U/min gerade noch reicht, aktuelle 7200er HDDs werden hier schon ausgebremst, denn die Schaffen auf den äusseren Spuren schon an die 250 MB/s
Wenn der Controller nur SATA2 bzw. 3Gb/s "spricht" wird's noch übler - und das ist bei SAS Controllern mit 6G SAS Schnittstellen gar nicht mal ungewöhnlich!

Widerlegt sehe ich das nämlich alles nicht. Aber klar, wer auf kompromisslose Leistung steht, für den mag das nicht in Frage kommen. Kollege remiel hat aber zum genauen Einsatzzweck nichts geschrieben. Für ein zwei VMs und Datengrab reichen m.E. selbst 4 Kanäle @6Gb/s LOCKER.
[/QUOTE]
4x6G= 24Gb/s
24G/24 = 1Gb/s >> Das sind nur noch ca. 100 MB/s, damit werden alle aktuelle HDDs deutlich ausgebremst - ausgenommen vielleicht noch einfache 2,5" HDDs
Wenn man aber eh nur GBit-LAN nutzt, reicht das natürlich gerade noch, da wird die theoretisch mögliche Transfergeschwindigkeit (ca. 115MBit/s) fast erreicht und selbst bei 10GBE würde ein entsprechender Verbund (Raid10, Raid5/6,Raidzx oder Raid0) das Netzwerk auslasten können.
Insofern ist widerlegt nicht ganz korrekt!
Beitrag automatisch zusammengeführt:

Ok danke. Jetzt nur zum Verständnis.^^

es gibt zb Adaptec HBA 1100 1100-24i, PCIe 3.0 x8 (2293800-R), an diesen könnte ich alle HDDs anschließen. Der ist PCIe 3.0 wäre der dann schnell genug für 24 HDDs mit 7200 rpm?

Jain, über 1G-LAN ja, bei 10GBE nur bei Verbünden! (sieher oben)

Energieverbrauch ist auch so ein Thema was ich im Auge habe. Da spielt aber die komplette Hardware eine Rolle, damit möchte ich mich später befassen.
Pro Controller darfst du gerne mit 10-15 Watt rechnen

Will das System mit Unraid aufbauen und dort laufen ja nur die Festplatten auf die man zugreift.
Geschmackssache!

Komm immer mehr zu dem Gedanken mir erstmal ein kleines Rack zu kaufen. Bei eBay hab ich gesehen, dass es da günstig gebraucht welche gibt. Damit ich eine Testumgebung habe, und mal OS und etwas rumbasteln kann.
Dann mindestens 800er Tiefe!!! (und vorsicht bei Netzwerkschränken, die haben teilweise nur die vorderen Montageträger)
 
Zuletzt bearbeitet:
Möchte mich nochmals für die Hilfe bedanken. Bin gerade bei eBay am schauen ob es etwas günstiges von Supermicro gibt. Biete gerade bei 2 Auktionen mit, so kann ich auch gleich OS testen.

Einsatzzweck ist Plex Server und Datengrab für RAW Fotos und 4K Videos. Daher sollten die Festplatten schon schnell sein, 10 GBE ist vorhanden. Meine Frau ist genau so ungeduldig wie ich, da will ich keinen Flaschenhals haben xD.

Werde mich nochmals in Ruhe informieren, wenn ich eine genauere Vorstellung habe mach ich ein eigenes Thema auf, will das hier nicht weiter missbrauchen mit meiner Ahnungslosigkeit ;-)
 
Hängt halt vor allem von der Konfig des Pools ab: wenn die gesamte HBA-Bandbreite in einem Pool mit 24 Platten hängt, reichen 100MB/s pro Platte immer noch GANZ LOCKER auch für eine 10Gbit-Strecke aus. Im Prinzip reichen dann ja schon ca. 10 HDD á 100MB pro Platte, um die 10Gbit auszulasten.

Wohlgemerkt kommt man in den "Expander-Flaschenhals" auch nur im "best case scenario" der Platten, also beim sequenziellen Lesen großer Dateien. Die Performance auch der aktuellen tollen schnellen HDDs bei kleinen random Lese- oder gar Schreibzugriffen, lacht auch der alte HBA mit 8auf48HDDs Expander auf einer Pobacke weg. Bei dem Scenario bekommste nämlich die 10Gbit auch nicht mal annähernd zugeschaufelt, selbst wenn Du 24 Platten mit vollen SAS12 für jede HDD im Pool hättest. Der Leistungsverlust durch den "Expander-Flaschenhals" kann man da m.E. völlig vernachlässigen (wenn überhaupt vorhanden).

Also alles m.E. halb so wild. Meiner (bescheidenen) Meinung nach greift im Homeuse bei 10Gbit-Netzwerken mit hoher Wahrscheinlichkeit ein anderer Flaschenhals, als dass es ein Expander zwischen HBA und Platte wäre...
 
@remiel: Bitte genau HBA und Gehäuse aufeinander prüfen. Es gibt reichlich Gehäuse, die mit den o.g. integrierten Expandern arbeiten. Da wäre ein 24er HBA rausgeschmissenes Geld. Es gibt (wenige) Gehäuse, die jede Platte einzeln anschließen lassen. Würde ich bei 16 oder 24ern wegen des Kabelsalates nie machen. Üblich sind
1) ein Stecker je 4 Platten - das ist dann nur ein "passiver" Expander im Gehäuse, der lediglich die 4 Lanes des Kabels auf 4 einzelne SAS/SATA-Anschlüsse legt.
2) ein Stecker für 8/12/16/24 HDDs, je nach Ausführung. Das ist ein aktiver, der üblicherweise mit 1 oder 2 SAS-Anschlüssen alle Platten abdeckt.
Ich stimme besterino zu, dass für HDDs kein praktischer Flaschenhals existiert. Was Digi-Quick gerne übersieht ist der praktische Anwendungsfall, der >48Gbit ziehen soll. In welcher Konstellationen laufen 24 HDDs zeitgleich auf sequentiellem Stream ("nur 200MB je Platte"). Selbst eine Nutzung von 24Gbit über einen Array von 12 Platten muss ersteinmal verarbeitet werden. Wer ernsthaft >24GBit Datenlieferung braucht (das sind hier im Forum ja wohl nur besterino und ich, und "braucht" steht da auch in ""), hat auch 100€ für einen guten 12G-Controller und nimmt dann halt ein Gehäuse mit 1:1 Backplane, dann reicht es auch für 24xSSD.
a pro pos "gut": Nimm keinen Adaptec. Ein Freund von mir hat sich an einem solchen Teil die Finger verbrannt... wörtlich.
LSI ist gut und günstig. Empfehlungen sind:
6G: Dell H310, umflashen auf LSI "Standard"
12G: IBM M1215, ebenfalls umflashen auf LSI-"Standard". Anleitungen dazu gibt es hier im Forum oder bei serverthehome.
 
Zuletzt bearbeitet:
@danielmayer vielen Dank für die ausführliche Erklärung.

Thema Gehäuse und HBA ist das größte Problem bei mir, versteh die Erklärungen aber am umsetzten, scheitert es. Die Backplanes sorgen bei mir immer für Verwirrung. Hab jetzt einige Gehäuse zusammen gesucht und die eher günstigen sind die Bewertungen nicht so der hit. Z. B. das hier im Forum empfohlene Fantec SRC 4240x07 sind die Meinungen recht gespalten im Netz, aber es ist preislich interessant. Was für eine HBA bräuchte ich bei dem Gehäuse, da steht dabei 6x SFF-8087: je 12x SAS/SATA zu 3x SFF-8087 pro Backplane. Brauch ich jetzt eine HBA mit 3 oder 6 Steckern?


Zusätzlich noch eine kurze allgemeine Frage zur HBA, Sagen wir mal ich will Plex schauen 4k HDR und meine Frau zieht gerade ein großes Dronenvideo auf den MAC zum bearbeiten. Dann wären nur 2 Platten aktiv, würde doch bedeuten ich hätte bei beiden Platten die 6Gbit/s zur Verfügung?

Das mit dem Flaschenhals, gibt es nur, wenn ich auf alle 24 Platten gleichzeitig lesen oder schreiben will. Dann würden die 6Gbit/s nicht zur Verfügung stehen. Weil das passiert nie. Es schauen höchstens 3 Leute Plex und 1 Person arbeitet. Somit laufen höchstens 4 Platten gleichzeitig vielleicht 5, wenn der Cache gerade etwas verschiebt.
 
Hallo,

ich möchte meinen Server demnächst gern etwas aufrüsten. Derzeitiges Setup:
ESXi + OmniOS/Napp-it + 3 Linux-VMs auf folgender Hardware:
1 Fractal Design Define R4 Black Pearl, schallgedämmt (FD-CA-DEF-R4-BL)
1 Seasonic G-Series G-360 360W ATX 2.3 (SSR-360GP)
1 Fujitsu D3417-B2/D3417-B21 (S26361-F5110-V140)
1 Intel Pentium Gold G4600, 2x 3.60GHz, boxed (BX80677G4600)
2 Samsung DIMM 16GB, DDR4-2400, CL17-17-17, ECC (M391A2K43BB1-CRC)
2 Samsung DIMM 16GB, DDR4-2666, CL19-19-19, ECC (M391A2K43BB1-CTD)
1 Intel SSD 600p 128GB, M.2 (SSDPEKKW128G7X1)
2 Samsung SSD 860 EVO 500GB, SATA (MZ-76E500B)
4 Seagate IronWolf NAS HDD 10TB, SATA 6Gb/s (ST10000VN0004)

Ich hätte gern schnelleres LAN und mehr SATA/SAS-Anschlüsse. Der Stromverbrauch ist mir relativ wichtig (derzeit knapp 20W idle).
Das könnte ich nun mit den üblichen PCI-Karten Intel X550 und LSI 2307 erreichen. Wenn ich die nicht beide sehr günstig gebraucht bekomme (ohne die vielen fragwürdigen China-Angebote), dann könnte ich stattdessen auch gleich das Mainboard tauschen gegen dieses:
1 Supermicro X11SSH-CTF retail (MBD-X11SSH-CTF-O)
Wenn ich es richtig sehe, müssten dort alle vorhandenen Komponenten drauf passen.

Hat jemand Erfahrungen mit dem Stromverbrauch der PCI-Karten 10G bzw. LSI und alternativ dem des Mainboards?
Gibt es andere Vorschläge? Z.B. günstigere 5G LAN-Karten?
Bzgl. LAN hängt da ja theoretisch noch mehr dran und ich kann derzeit noch nicht wirklich abschätzen ob SFP+ evtl. besser wäre.
Ich muss sowieso noch einen Teil neu verlegen und da könnte ich auch Glasfaser nehmen. Erscheint mir nur etwas aufwändig bzw. kann ich das nicht selbst machen. Langfristig stehen zumindest Server, Backupserver und Workstation nicht im gleichen Raum (aber auch nicht >15m Kabellänge vom Switch auseinander).
 
Hallo an alle Hilfbereiten,

ich möchte meinem mittlerweile wild gewachsenen Homeserver nun endlich auch in ein vernünftiges Case packen und überlege auch auf eine 24 Port 19" Gehäuse zu wechseln um meinen Platten auch ein vernünftiges Zuhause zu geben. Ich habe noch aus meinem 2. Server eine IBM M1015 im IT-Mode übrig und würde die gerne in Kombinaton mit einem Intel RES2SV240 Expander einsetzen um alle 24 Platten anzusprechen. Mir stellen sich nur noch ein paar Fragen bezüglich der Erfahrung mit den Geäusen und der Stromversorgung der Backplanes.

Rein vom Design der Backplanes sagt mir das Fantec SRC-4240X07 am meisten zu, da es sich hier um komplett durchgehende Platinen mit Lüftungsschlitzen handelt. Bei der Alternaive Inter-Tech 4U-4424 wurde in einem anderen Thread folgendes von Inter-Tech auf eine Anfrage geantwortet:

Das "IPC 4U-4324L" wurde ja durch das "IPC 4U-4424" ersetzt.
Unter Anderem wurden hier die Backplanes erneuert.
1)Die Backplanes in dem neuen Gehäuse sind senkrecht eingebaut, sodass der Luftstrom der 3x120mm Lüfter unterbrochen ist und die HDD's schlechter gekühlt werden können. Bei dem alten Gehäuse waren die Backplanes noch waagerecht sodass größere Zwischenräume entstehen und die Luft besser zirkulieren kann.
2) Wird SGPIO unterstützt?
Die Antwort:

1) wenn Festplatten eingebaut sind ist der Luftstrom beim 4324 auch nicht besser. Allerdings werden jetzt die Platten besser gekühlt, wenn freie Schächte vorhanden sind. Beim 4324 wurde hier die Luft schön durch die leeren Schächte gesaugt und die Festplatten bekamen nichts mehr ab. Zudem ermöglicht die neue Befestigung zuküftig auch den Einsatz einer aktiven Backplane mit SAS Switch, sodass nur eine SFF Verbindung ausreicht alle 24 Festplatten zu betreiben.
2) da die Backplanes immer noch rein passiv sind unterstützen sie kein SGPIO.

Da mir eine gute Belüftung der Platten sehr wichtig ist um das ganze auch ich Bezug auf die Lautstärke unter Kontrolle zu halten würde ich eher zum Fantec Gehäuse tendieren. Weiß jemand hierzu ob die Backplanes im Fall eines Defekts irgendwo beschafft werden können oder ist dann das ganze Gehäuse nur noch Schrottwert hat ?

Mir stellt sich auch noch eine Frage zur Stromversorgung der Backplane. Laut den Bildern sind pro Plane fünf Molex Anschlüsse vorhanden. Müssen die alle belegt sein oder reicht es nur drei bis 4 Stück zu belegen ?
Die Frage kommt auf, da ich bei der Suche nach einem passenden Netzteil feststellen musste dass bei den meisten Netzteilen die 12V-Schienen für PCI-Express ordentlich versorgen aber die Sata/Molex Anschlüsse meist mit einer Schiene bei 20-30 Ampere auskommen müssen. Stell ich mir sportlich vor wenn ich an die Anlaufstöme von 24 Platten denken muss. Wollte eigentlich keine Adapter mehr einsetzen sondern einen sauberen Build haben.

Kann mir jemand hierzu Antwort geben wie am besten zu verfahren wäre oder ob ich kompett auf dem Holzweg bin ?

Vielen Dank
meshuggah89
 
Hallo zusammen,

ich hatte einen eigenen Thread erstellt um meinen idealen Home Server zu "bekommen". Dort wurde verwiesen, dass ich doch hier ein bisschen querlesen soll. Jetzt bin ich noch mehr verwirrt, was ich einsetzen soll :d

Folgende Einsatzbereiche habe ich mir für den Server vorgestellt:
- Unraid
- VPN Server (OpenVPN oder WireGuard)
- NAS - wahrscheinlich Xpenology, da ich mit der Applikation Photostation zur Sicherung von Fotos von Handys usw zufrieden bin -> habe mir jetzt schon mal Plex angeschaut...sieht auch gut aus.
- IOBroker
- EcoDMS
- Eine Windows Server 2019 VM
- eventuell pfSense

Option 1) - Fertigserver
- HP Microserver Gen10 mit einem Opteron X3421

Option 2) Fertigserver
- HP Microserver Gen10 Plus

Option 3) Eigenbau-Sever
- Reicht hier ein Intel Core i3 9100?
- 1 NVMe als Cache Drive
- 1-2 SSD als Parity Drive
- 1-2 SSD als VM/Docker Drives
- 4 HDD als Storage Drive
- mindestens 2 Ethernet Interfaces
- Welches MB würdet ihr empfehlen?

Danke schon mal für eure Antworten
 
Zuletzt bearbeitet:
Unraid ist schon ein NAS-OS...
wozu also 2?

Wieviel HDD-Speicher benötigst Du? - daran orientiert sich ja, ob ein Fertig-System oder komplett-Eigenbau sinniger ist.
auf welcher Basis willst Du virtualisieren? - auch entscheidend für die Hardware, gerade z.B. bei ESXi Free
 
Unraid ist schon ein NAS-OS...
wozu also 2?

Wieviel HDD-Speicher benötigst Du? - daran orientiert sich ja, ob ein Fertig-System oder komplett-Eigenbau sinniger ist.
auf welcher Basis willst Du virtualisieren? - auch entscheidend für die Hardware, gerade z.B. bei ESXi Free
OK, der Text stammte noch aus einer Zeit, als ich unraid noch nicht kannte. Klar würde ich soweit möglich, die NAS Funktionalitäten von unraid nutzen.
Virtualisierungen würde ich auch auf unraid-Basis.
Aktuell habe ich 3 TB auf meiner Synology nutzbar. Ich denke, dass ich nicht mehr als 10TB benötigen werde
 
Hallo an alle Hilfbereiten,

Weiß jemand hierzu ob die Backplanes im Fall eines Defekts irgendwo beschafft werden können oder ist dann das ganze Gehäuse nur noch Schrottwert hat ?
Vermutlich eher letzteres, es sei denn du nimmst Supermicro oder Chenbro = Teuer
Im Zweifel kann man mal beim Importeur anfragen - in deinem Falle dann Fantec
(Ich selber habe gerade das Probelm, daß bei meinem neuen Gehäuse 2 Ports DOA sind >> ich stehe mit Xcase in Kontakt)

Mir stellt sich auch noch eine Frage zur Stromversorgung der Backplane. Laut den Bildern sind pro Plane fünf Molex Anschlüsse vorhanden. Müssen die alle belegt sein oder reicht es nur drei bis 4 Stück zu belegen ?
2 reichen meist aus...(also 4 Stecker bei 2 12er BPs)

Die Frage kommt auf, da ich bei der Suche nach einem passenden Netzteil feststellen musste dass bei den meisten Netzteilen die 12V-Schienen für PCI-Express ordentlich versorgen aber die Sata/Molex Anschlüsse meist mit einer Schiene bei 20-30 Ampere auskommen müssen. Stell ich mir sportlich vor wenn ich an die Anlaufstöme von 24 Platten denken muss. Wollte eigentlich keine Adapter mehr einsetzen sondern einen sauberen Build haben.

Kann mir jemand hierzu Antwort geben wie am besten zu verfahren wäre oder ob ich kompett auf dem Holzweg bin ?

Vielen Dank
meshuggah89
Dafür nnimmt man dann Single Rail Netzteile - getrennte Rails für Grafikkarte /PCIe sind in einem Server i.d.R. sinnbefreit - Ausnahme vielleicht Numbercruncher zum Minen von Bitcoins oder Renderfarmen
 
Hallo,

ich brauche mal eure Hilfe...
Ich hatte jahrelang Synology. Das NAS gab dann den Geist auf und die DS220 ließ auf sich warten, daher Griff ich zu einem QNAP 253Be. Die Performance und die Hardwarespecs haben mich überzeugt, aber ich werde mit der Software irgendwie nicht warm. Dazu bin ich einfach zu viel "Non-Pro" in diesem Bereich. Eigentlich nutze ich das NAS nur als Datengrab. Dort liegen meine RAWs und allerlei Kram, aber ich nutze z.B. nichtmal den Zugriff von außerhalb. Bei QNAP überfordert mich alles. Zig verschiedenen Backuplösungen, dann noch diese internen Abbilder von denen ich nie verstehe wohin sie gespeichert werden oder nicht. Ihr seht: Ich habe keine Ahnung.
Daher überlege ich nun, ob ich wieder zu Synology wechsle, da ja nun die DS220+ angekündigt wurde. Ist diese in Sachen Performance so viel langsamer? Immerhin nur Dual Core statt Quad Core usw.

Was meint ihr?
 
Hallo zusammen,

nach einigem Lesen hier habe ich mir ein NAS zusammengebaut. Aktuell in folgender Zusammenstellung:

1 x Chenbro RM24512 2U (12-Bay Hot-Swap)
1 x Seasonic 2U Netzteil
1 x Supermicro X11SCH-LN4F
1 x Intel Core i3-9300
2 x 16GB Kingston KSM26ED8/16ME DDR4-2666 ECC DIMM CL19 Single
1 x Samsung 970 EVO 500 GB (Boot-Festplatte)

Das ganze läuft auch schon. Installiert ist OMW inklusive Docker um verschiedene Services (MYSQL, Plex, usw.) bereitzustellen. Was mir jetzt noch fehlt: Das Mainboard hat ja 8 x SATA. Ich bräuchte, bei Vollbelegung des Gehäuses, ja 12 x SATA. Ich habe hier im Forum (weiß leider nicht mehr genau wo) gelesen, dass man noch 4 zusätzliche Anschlüsse via Oculink nachrüsten könnte. Das Gehäuse hat jetzt auf der Backplane noch einen freien SFF-8643 Anschluss für die restlichen 4 Platten. Was genau bräuchte ich denn jetzt um an diesem Anschluss die restlichen 4-Platten anschließen zu können? Ich hatte schon einen M.2 M-Key auf Oculink SFF-8612 Adapter mit entsprechenden Kabel probiert, das hat aber leider nicht funktioniert (System fährt dann nicht mehr hoch). Ich danke Euch schon mal im voraus für Eure Hilfe!

Viele Grüße
Steve
 
Ich habe hier im Forum (weiß leider nicht mehr genau wo) gelesen, dass man noch 4 zusätzliche Anschlüsse via Oculink nachrüsten könnte.
Das solltest Du nochmal raussuchen und schauen, was da genau wie nachgerüstet wurde.
Das Gehäuse hat jetzt auf der Backplane noch einen freien SFF-8643 Anschluss für die restlichen 4 Platten. Was genau bräuchte ich denn jetzt um an diesem Anschluss die restlichen 4-Platten anschließen zu können?
Einen SAS-Controller und einen freien PCIe-Steckplatz dafür. Siehe auch Wikipedia: Serial Attached SCSI.

Wenn du die passive Backplane hast (die mit 3xSFF-8643), könnte auch ein SATA-Controller mit einem HD Mini SAS (SFF-8643) zu 4 SATA Reverse Breakout Kabel funktionieren. Von den Kabeln müsstest Du ja schon zwei haben.

Bauhöhe beachten. Ggf. ist eine Riser-Karte notwendig.
Ich hatte schon einen M.2 M-Key auf Oculink SFF-8612 Adapter mit entsprechenden Kabel probiert, das hat aber leider nicht funktioniert (System fährt dann nicht mehr hoch). Ich danke Euch schon mal im voraus für Eure Hilfe!
Was wolltest Du wo genau anschließen? Das Board hat soweit ich das sehen kann gar keinen OcuLink-Anschluss.
 
Hallo myBerg,

vielen Dank für Deine Rückemldung! Fa es ist das Gehäuse mit passiver Backplane (3 x SFF-8643). Das Mainboard selbst hat keinen Oculink-Anschluss, daher habe ich es mit diesem Adapter versucht: https://www.cablecc.com/pcie-30-m2-...st-adapter-for-pcie-nvme-ssd-2260-p-4591.html

Das hat aber leider nicht funktioniert, der Rechner wollte dann nicht mehr booten. Er hat dann auch die Samsung 970 EVO im anderen M.2-Slot nicht mehr erkannt. Habe diverse BIOS-Einstellungen probiert, leider ohne Erfolg. Könnte einer dieser Adapter funktionieren:
Wenn das nicht funktioniert müsste ich auf einen eigenen SAS-Controller ausweichen.

Vielen Dank und viele Grüße
Steve
 
Steve, das wird so nicht funktionieren.

Dein Problem ist, dass du (noch) nicht verstanden hast, dass ein Stecker (z.B. SFF-8643) noch nichts darüber aussagt, was auf diesem Stecker und damit Kabel an Signalen laufen.

Der Stecker ist erstmal nur ein Bauform, genauso wie das Kabel eine gewisse Bauform hat. Beides sagt nichts darüber aus, was dort für Signale laufen.

Der RJ-45 Stecker kann Netzwerk (10mbit, 100mbit, 1000mbit, 10000mbit, 40000mbit), ISDN, RS232, Telefon und sonst was transportieren. Auch dort sagt die Bauform (RJ-45) nix aus.
Wenn du versuchst ein ISDN-Telefon in einen Gigabit-Switch zu stecken, funktioniert auch nix.

Und genau das passiert, wenn du ein SATA-Gerät in einen PCIe"-Slot" steckst.
Die von dir verlinkten Adapter machen nichts anderes, außer, dass sie PCIe Signale (also quasi den Slot) in ein Kabel schicken, um den Slot quasi zu verlängern. Wenn du dann am anderen Ende ein PCIe-Gerät reinsteckst, geht das. Steckst du ein SATA/SAS-Gerät an, kann das nicht gehen, da auf der einspeisenden Seite niemand ist, der SATA/SAS in das Kabel schickt.

Der SFF-8643 kann PCIe, SATA und SAS Signale tragen. (und rein technisch sogar noch mehr). Du musst also auf der einen Seite das passende Signal einspeisen, damit du es auf der anderen Seite auch korrekt wieder rausziehen kannst.
Wenn du SATA-Platten anschließen willst, musst du auch ein SATA-Signal reinschicken. Das macht ein SATA-Kontroller, der quasi auch mit 8 Kanäle auf dem Mainboard vorhanden ist. Wenn du also noch 4 weitere möchtest, dann brauchst du wieder einen SATA-Kontroller.
Jetzt der Fakt, dass man SATA-Platten auch an SAS-Kontroller anschließen kann. (aber nicht SAS-Platten an SATA-Kontroller)
Ergo tut es anstelle des SATA-Kontrollers auch ein SAS-Kontroller.

Wenn du NVMe-Platten anschließen willst, wie z.B. mit U.2-Port, dann kannst du die verlinkten Adapter einsetzen. Dabei ist zu beachten, dass ein SFF-8643 nur einen Satz an PCIe-Lanes für eine Platte beinhaltet.
Das nur der Vollständigkeit halber erwähnt. Dazu bedarf es dann aber auch einer NVMe/U.2 Backplane, damit diese die Platten entsprechend aufnehmen kann.

Ergo, kaufe einen passenden SATA/SAS-Kontroller, vorzugsweise direkt mit SFF-8643. Es würde aber auch jeder andere Stecker gehen, da es entsprechende adaptierende Kabel gibt.
 
Hi underclocker2k4,

vielen Dank für die ausführliche Erklärung, und Du hast Recht, das mit den unterschiedlichen Steckern und Adaptern habe ich noch nicht wirklich verstanden. Ich hatte so eine Ahnung, aber jetzt ist es mir klarer ;-) Dann werde ich mir noch einen entsprechenden Controller zulegen und hoffe, dass ich die restlichen 4-Platten noch angebunden bekommen.

Vielen Dank und viele Grüße
Steve
 
vielen Dank für Deine Rückemldung! Fa es ist das Gehäuse mit passiver Backplane (3 x SFF-8643). Das Mainboard selbst hat keinen Oculink-Anschluss, daher habe ich es mit diesem Adapter versucht: https://www.cablecc.com/pcie-30-m2-...st-adapter-for-pcie-nvme-ssd-2260-p-4591.html

Das hat aber leider nicht funktioniert, der Rechner wollte dann nicht mehr booten. Er hat dann auch die Samsung 970 EVO im anderen M.2-Slot nicht mehr erkannt. Habe diverse BIOS-Einstellungen probiert, leider ohne Erfolg.
Der Adapter kann maximal dafür sorgen, dass Du auf dem OcuLink-Stecker ein PCIex4 Signal anliegen hast. Was erst einmal so elektrisch passt. Das BIOS unterstützt auf dem Anschluss NVMe. Soweit so gut. Bei der Backplane Spezifikation steht, dass sie nur "SAS" unterstützt. Also wird es an der Stelle vermutlich schon nicht weitergehen. Und selbst wenn, dann könntest Du in den HDD-Slots nur U.2 Disks (PCIe NVMe) betreiben, kein SAS oder SATA. Denn selbst wenn die Strecke elektrisch für PCIe so funktioneren könnte, würde dir für den Betrieb einer SATA-Disk das Signal fehlen. Schau dir mal das Bild des Steckers an, dann wird das klar: https://www.storage-insider.de/was-ist-u2-a-731418/

Könnte einer dieser Adapter funktionieren:
Damit hast du wieder nur ein PCIe NVMe Signal auf einem SFF-8643 Stecker. Wenn überhaupt geht damit eine U.2-Disk. Aber Du brauchst auch eine Backplane, die mit dem Signal etwas anfangen kann.
Das wird mit einem Reverse-Kabel funktionieren. Solche Marvell 88SE9230 SATA Chipsätze werden ja durchaus auch auf diversen Desktop Mainboards verbaut. Das ist eben Desktop-Consumer-Technik. Wenn das deinen Ansprüchen genügt, ist das völlig in Ordnung. Ist aber eben keine Enterprise-Technik. Da wäre ein gebrauchter SAS-HBA von Broadcom/Avago/LSI ggf. besser.
Wenn das nicht funktioniert müsste ich auf einen eigenen SAS-Controller ausweichen.
Ja, das geht dann definitiv.
 
Hallo myBerg,

vielen Dank für die ausführliche Erklärung! Mir wird jetzt einiges klarer und jetzt sollte ich es hinkriegen, die letzten vier Platten anzubinden. Der letzte "große Sprung" den ich, bezüglich Festplatten, gemacht habe war der Umstieg von "normaler" Festplatte auf SSD. Mit den ganze Standards, verschiedenen Kabeln und Controllern ist das gar nicht so einfach. Jetzt ist mir aber vieles klarer.

Vielen Dank nochmal für Eure Hilfe! Super!

Viele Grüße
Steve
 
Solche Marvell 88SE9230 SATA Chipsätze werden ja durchaus auch auf diversen Desktop Mainboards verbaut. Das ist eben Desktop-Consumer-Technik. Wenn das deinen Ansprüchen genügt, ist das völlig in Ordnung. Ist aber eben keine Enterprise-Technik. Da wäre ein gebrauchter SAS-HBA von Broadcom/Avago/LSI ggf. besser.
Solltest du mit FreeNAS oder XigmaNAS bzw. FreeBSD liebäugeln, laß die Finger von Marvell - schont die Nerven :-)
 
Das gilt m.E. auch allgemein... ;)
 
Hallo,

ich brauche mal eure Hilfe...
Ich hatte jahrelang Synology. Das NAS gab dann den Geist auf und die DS220 ließ auf sich warten, daher Griff ich zu einem QNAP 253Be. Die Performance und die Hardwarespecs haben mich überzeugt, aber ich werde mit der Software irgendwie nicht warm. Dazu bin ich einfach zu viel "Non-Pro" in diesem Bereich. Eigentlich nutze ich das NAS nur als Datengrab. Dort liegen meine RAWs und allerlei Kram, aber ich nutze z.B. nichtmal den Zugriff von außerhalb. Bei QNAP überfordert mich alles. Zig verschiedenen Backuplösungen, dann noch diese internen Abbilder von denen ich nie verstehe wohin sie gespeichert werden oder nicht. Ihr seht: Ich habe keine Ahnung.
Daher überlege ich nun, ob ich wieder zu Synology wechsle, da ja nun die DS220+ angekündigt wurde. Ist diese in Sachen Performance so viel langsamer? Immerhin nur Dual Core statt Quad Core usw.

Was meint ihr?


Letztlich ist nur die Frage, was du alles nutzen willst. Wenn es wirklich nur um eine reine Datenfreigabe geht, dürfte es relativ egal sein, ob Dual oder Quad Core. Es werden sich beide langweilen. Wenn du das ganze allerdings auch noch verschlüsselt haben willst, dann dürfte eher ein Unterschied merkbar sein.
 
Letztlich ist nur die Frage, was du alles nutzen willst. Wenn es wirklich nur um eine reine Datenfreigabe geht, dürfte es relativ egal sein, ob Dual oder Quad Core. Es werden sich beide langweilen. Wenn du das ganze allerdings auch noch verschlüsselt haben willst, dann dürfte eher ein Unterschied merkbar sein.

Also für meine Anwendung als reines Datengrab sollte es auch der Dual Core tun. Wie gesagt: Mit QNAP bin ich nie richtig warm geworden und der Standby Stromverbrauch erschreckt mich. Die DS220+ hat 1,8 Watt, die QNAP 8-10 Watt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh