[Kaufberatung] Erfahrungen mit Supermicro SC836

Ich will unbedingt ein solches Gehäuse... Möchte jemand mit meinem SC743-Gehäuse inkl. Rack-Schienen tauschen? :)

Oder gibt es im Moment irgendwo wieder ein paar gute Angebote? Das günstigste was ich im Moment gefunden habe liegt bei ca. 250 Euro.

Gruß und Danke!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
... hm , eins hab ich noch aber da steckt HW drin (allerdings derzeit nicht genutzt) ... nen 20 Port Adaptec mit BBU wollte ich mit dem Case demnächst mal auf die Bucht stellen
 
... hm , eins hab ich noch aber da steckt HW drin (allerdings derzeit nicht genutzt) ... nen 20 Port Adaptec mit BBU wollte ich mit dem Case demnächst mal auf die Bucht stellen

den controller bräuchte ich nicht (kannst ja separat verkaufen :d)

Was würdest du denn für das Gehäuse haben wollen?

Grüße


Edit:
Was ich noch fragen wollte... Kann man in das nicht-B Gehäuse ebenfalls einen HDD-Adapter hinten unter den beiden Netzteilen montieren, sodass man zwei zusätzliche 2,5" Festplatten unterbringen kann?
 
Zuletzt bearbeitet:
Hier ist kein Marktplatz ... drum werd ich hier nicht über Verkäufe reden
 
Hat mich eigentlich auch nur interessiert wann du eventuell vor hast das Gehäuse zu verkaufen.
 
Hallo nochmal...

vielleicht ist das für den ein oder anderen 836-Besitzer interessant. Es handelt sich um eine SAS2 Backplane (BPN-SAS2-836EL1) inkl Metallrahmen mit einem SFF-8087-Anschluss.

Ich habe den USA-Händler dazu überredet sein Produkt auch in Deutschland anzubieten:

Supermicro BPN-SAS2-836EL1 - Server 3U - SAS/SATA Backplane +Frame | eBay

Habe ich mir mal bestellt und hoffe diese bei meinem noch zu erwerbenden Gehäuse tauschen zu können.

Konnte mit ihm so handeln, dass ich inkl. Versand für 100 Dollar kaufen konnte. Also Preisvorschlag 50,50 Dollar und 49,50 Dollar Versand - hatte ihn aber wie gesagt im Vorfeld schon angeschrieben und das Vorgehen so abgeklärt.
 
Zuletzt bearbeitet:
Das ist halt die Backplane mit eingebautem Expander (LSI SAS2X28). Warum willst du denn die benutzen statt der Backplane die in dem Gehäuse, was du dir noch kaufen willst, drin ist?
 
Weil das meist eine veraltete Version ("nur SAS1") ist und ich so auch einen zusätzlichen Controller sparen kann. Habe als Motherboard das Supermicro Supermicro | Products | Motherboards | Xeon® Boards | X10SL7-F

Irgendwo hab ich auch gelesen, dass die alte Variante auf SATA nur 1,5 Gbps liefern soll. Wie dem auch sei... möchte halt auch etwas basteln, ist ja auch ein Hobby :-)
 
Zuletzt bearbeitet:
Basteln ok, sonderlich sinnvoll ist das aber nicht ;)

Die Gehäuse, von denen wir hier reden, haben meistens passive Backplanes. Entweder mit Einzelports, das sind die meisten hier wohl, oder aber Multilaneports. Egal wie alt die sind, da drüber geht das was die Devices aushandeln. Es gibt da keine "SAS1" Version oder so, die die Linkgeschwindigkeit beeinträchtigt. Das gibt es nur bei den aktiven Backplanes, wovon du dir eine bestellt hast.

Und als dritte Möglichkeit gibt es eben aktive Backplanes, da sitzt ein Expander direkt auf der Backplane.
Vorteil: Es würde ein Multilanekabel reichen um alle HDD Bays anzuschließen.
Nachteil: Damit bist du dann wirklich beschränkt auf das was der Expander zulässt, z.B. maximal SAS2 in dem Fall und musst dich ggf. auch noch um Themen wie z.B. Firmware der Backplane kümmern. Und du brauchst einen Controller der Expander unterstützt, das ist zum Glück nicht so problematisch.

Bei deinem X10SL7 wärst du mit der passiven Backplane mit Einzelports sehr gut bedient gewesen, denn dann kannst du die 14 Ports, die das Board hat, entsprechend 1:1 verkabeln. Jetzt brauchst du reverse Breakout Kabel für den LSI2308 auf deinem Board und musst hoffen, dass das funktioniert. Ob das der Fall ist, oder eben nicht, kann ich nicht sagen. Die sechs Ports vom Chipsatz kannst du dann gar nicht nutzen, zumindest nicht für die Bays in der Front.
 
Zuletzt bearbeitet:
Danke für deine Hinweise!

Für die Backplane nutze ich ausschließlich die Anschlüsse des LSI2308-Controllers, da ich ein NAS virtualisiert habe und den Controller per pcie-passthrough an die VM durchreiche. Im Moment habe ich 9 Festplatten (8 im Gehäuse und eine (in einem externen Gehäuse welches 4 Platten aufnehmen kann) die an einem RAID-Controller mit externen Ausgängen angeschlossen ist)

Die 6 SATA-Ports vom Chipsatz nutze ich um meine VMs bzw. den Host zu betreiben.
 
Zuletzt bearbeitet:
Die Gehäuse, von denen wir hier reden, haben meistens passive Backplanes. Entweder mit Einzelports, das sind die meisten hier wohl, oder aber Multilaneports. Egal wie alt die sind, da drüber geht das was die Devices aushandeln. Es gibt da keine "SAS1" Version oder so, die die Linkgeschwindigkeit beeinträchtigt. Das gibt es nur bei den aktiven Backplanes, wovon du dir eine bestellt hast.

Das stimmt so nicht. Bei SATA hat sich die Taktrate über die Revisionen geändert. Wenn eine Leitung (und eine Backplane ist nichts anderes) die Grenzwerte für einen Link nicht einhält, dann stuft sich das System runter.
Das ist analog zu den Sachverhalten bei twisted pair CATx-Netzwerkleitungen.
Kannst ja mal versuchen einen alte Backplane mit einer SATA6gbit SSD zu betreiben.
Nicht umsonst gibt es mittlerweile hochwertigere SATA-Kabel als es vor 10Jahren der Fall war.

Es ist nicht so, dass es nicht gehen würde. Aber eine Garantie gibt es nicht. Es gibt für jede Revision von SATA/SAS passende Backplanes, wo der Hersteller garantiert, dass sie die Grenzwerte einhalten. Alles andere kann muß aber nicht funktionieren.
 
Zuletzt bearbeitet:
*Thread ausgrab*

Hab mein SC836 immer noch am laufen, jetzt sogar mit 2 HDD :d
FreeNAS ist nun auf ne alte 160GB Sata disk umgezogen weil meine USB Sticks immer wieder rumzickten und RAM wurde auf 24GB erweitert.

Leider hab ich immer noch das alte X7DBE board drin, das bedeutet mit 1 Xeon CPU, 3 HDDs 6 DDR2-FB modulen und den Serverlüftern nen idle-Stromverbrauch von 275W, entsprechend ca. 2400kWh pro Jahr im Dauerbetrieb. Bin schon länger am rumüberlegen entweder die Hardware aufzufrischen mit nem X9 oder X11 board + ram und Pentium G oder i3 CPU und die Lüfter gegen weniger stromfressende zu tauschen um den Verbrauch zu drücken oder das Ding komplett einzumotten und ein neues System aufzubauen, z.b. HP ProLiant Microserver Gen8 oder eigenbaulösung.
 
Strom wirst du damit nie auf niedrigstem Niveau sparen :)

Allein die Netzteile saugen dir die Taschen leer

Umbauen kann man, aber es wird nie das "Homesystem" werden ... dazu war das Case nie gedacht

Hier läuft es auch mit einem etwas "neueren" 1156er Board und 16+4 Adaptec 51xxxer Controller als Coldstorage (d.h. jede Woche einmal aktiv für 2-8 Stunden)

muss aber zugeben, trotz IMPI/KVM fähigen Board hab ich es an den anderen Tagen immer total getrennt, da es ohne Last > 15W saugt in off



liegt jedoch heute auch daran, dass ich kaum mehr Hot Storage brauche (atm 4*2TB und 2*1TB jeweils 2,5" Platten)
die Virtserver laufen auf SSDs und 2,5"
 
Zuletzt bearbeitet:
@Drake: ich hab' zufällig neulich an meinem SC836E16-R1200B mal Strom gemessen im "Nacktzustand" (in diesem Thread hier - hatte zu der Zeit den Thread hier nicht auf dem Radar).

Wie Pumuckel schon sagte, ein Stromsparwunder wird das Ding nie bei knapp unter 100W schon ganz ohne Mainboard, RAM und CPU nur mit 7 HDDs im Leerlauf und 2 Lüftern! Ganz nackig ohne HDDs sind's immer noch fast 60W... Die Stromfresser sind da natürlich die Monster-Netzteile (trotz "GOLD"-Gedöns).

Zum Vergleich: mein Xeon E3-1225v1 System (also auch schon was älter) mit Intel S1200BTLR, 16GB RAM, 2 HBAs, 4xHDDs und 5xSSDs und Dual-10Gbase-T NIC in einem Lian-Li PC-Z70 (inkl. Vollbestückung mit 6 Gehäuse- + 1 CPU-Lüftern) mit 430W-Netzteil (BeQuiet Darkpower) frisst insgesamt "nur" 85W...

Du musst Dir also meines Erachtens die Frage stellen, ob Du den Mehrwert an anderer Stelle, den ein Supermicro SC836 bietet, wirklich brauchst bzw. wie hoch in Geld ausgedrückt der Mehrwert denn wirklich ist...
 
Zuletzt bearbeitet:
@besterino

die original waren keine 80+ Gold :)
die hatten an die 72-78% (die alten 800 Watt) und das auch nur mit SAS Platten (ab 120W)

war das 1. was ich getauscht hatte da ich noch 4* 80+ Gold 720W hier hatte



man kann durch das rausflexen das case mit einen TFX Netzteil bestücken (quick and dirty) wenn man auf ne single Rail 12V leitung achtet und staggered Spinup

aber die Kühlung für 16 Platten bekommt man weder super silent noch Verbrauchsarm .... es wird einfach ein guter Luftstrom gebraucht durch die 3He
 
Zuletzt bearbeitet:
Als ich das Ding damals gekauft habe schwankte ich zwischen diesem, und nem Towergerät, auch von Supermicro, aber mit X8 board. Hab dann das Rackgerät genommen weil nur halb so teuer.

Werd mir wohl ein neueres Supermicro µATX board samt CPU und RAM holen und in ein Gehäuse packen dass ich kürzlich ausgeschlachtet habe.
Darin befand sich bisher ein MSI G31T-M2 mit nem Pentium Dual Core und 4Gb RAM. Mit 6 festplatten (nur an strom angeschlossen zum testen) lag das bei knapp 90W im idle.
Leider hats hald kein ECC-RAM
 
Zuletzt bearbeitet:
Jo. Vom Verbrauch her bin ich mit meinem aktuellen Lian-Li Build auch ganz glücklich. Könnte man bestimmt auch noch niedriger schrauben, aber da stehen (Zeit)Kosten und Nutzen nicht im Verhältnis.

Aus Neugier (hinsichtlich Lautstärke) werde ich das System wohl schon mal in mein SC836 bauen, auch weil das Lian Li PC70 für einen Server eigentlich zu Schade ist.
 
Leider hab ich immer noch das alte X7DBE board drin, das bedeutet mit 1 Xeon CPU, 3 HDDs 6 DDR2-FB modulen und den Serverlüftern nen idle-Stromverbrauch von 275W

Das ist bei der Plattform völlig normal. Allein deine 6 FB-DIMMs sind schon für gut 60W Verbrauch verantwortlich :fresse:

muss aber zugeben, trotz IMPI/KVM fähigen Board hab ich es an den anderen Tagen immer total getrennt, da es ohne Last > 15W saugt in off

Das ist dank IPMI kein Wunder zumdem sind ja auch die original Netzteile immer "wach" und deren Lüfter laufen.

Wie Pumuckel schon sagte, ein Stromsparwunder wird das Ding nie bei knapp unter 100W schon ganz ohne Mainboard, RAM und CPU nur mit 7 HDDs im Leerlauf und 2 Lüftern! Ganz nackig ohne HDDs sind's immer noch fast 60W... Die Stromfresser sind da natürlich die Monster-Netzteile (trotz "GOLD"-Gedöns).

Hatte darmals mit der original Hardware zwar ähnliche Werte, (http://www.hardwareluxx.de/community/f101/erfahrungen-mit-supermicro-sc836-962338.html#post20727195) allerdings bin ich im jetzigen Zustand doch deutlich darunter...

Das erste Case kommt bei mir mit einem X9DRi-F, einem Xeon E5-2630 und 64 GB RAM auf etwa 65W Idle unter ESXi.
Das zweite kommt mit einem X9DR3-F, einem Xeon E5-1620 (war eigentlich nur temporär, läuft aber so jetzt auch schon ein paar Jährchen), 64GB RAM und 12 Platten unter ESXi auf etwa 170W im Schnitt. Schätze mal Idle düften es 140-150W sein.

Beide haben allerdings jeweils nur ein Netzteil gesteckt und nur zwei der inneren original Lüfter verbaut. Da nur das zweite Case bei mir mit PWM Lüftern ausgestattet war, hatte ich die auf beide Cases verteilt. Außerdem zieht jeder dieser Lüfter auf voller Drehzahl knappe 15W...
Die beiden Lüfter reichen aber aus um die Platten im Standard Mode bei etwa 3000rpm und aktuell gut 30° Raumtemperatur auf 35-42° zu halten :)

Aus Neugier (hinsichtlich Lautstärke) werde ich das System wohl schon mal in mein SC836 bauen, auch weil das Lian Li PC70 für einen Server eigentlich zu Schade ist.

Klar, mit nem Desktop kannste das SC836 nicht vergleichen, aber meine beiden sind so "leise", dass du noch das Seeken der 7200er Platten aus einem Meter Abstand raus hören kannst :d
 
Klar, mit nem Desktop kannste das SC836 nicht vergleichen, aber meine beiden sind so "leise", dass du noch das Seeken der 7200er Platten aus einem Meter Abstand raus hören kannst :d

Na das macht mir doch Hoffnung. Wenn nur endlich das Mistkabel da wäre.
 
Das SC836 Gehäuse wird mit einer länge von 648mm angegeben.
1. Sind da die Griffe mit ein gerechnet und wie lang ist das Gehäuse ohne Griff?
2. Hinten beim MB sind die Anschlüsse weiter rein gesetzt. Wie weit ist das, vom Gehäuse Ende bis da hin?
Kann das jemand mal nach Messen?
 
Jepp. Morgen, spätestens Sonntag.
 
Super danke dir!
 
Moin,

bei mir sind die gut 65cm ohne Griffe. Mit sinds etwa 68cm
Die Rückwand liegt etwa 2,2cm nach innen versetzt.
 
Könnte knapp werden, vor allem mit den Kabeln. Hast du vorne ne Glastür oder ist dein Schrank vorne offen oder hat nur Mesh?

Was die Netzteile angeht, die sind nun mal servertypisch laut. Ich höre zumindest keinen Unterschied zwischen meinen 800ern und den 920ern, die ich in der Firma im Einsatz hab.

Was den Verbrauch angeht, haben die 920er zwar eine deutlich bessere Effizienz, aber kosten natürlich auch eine Stange Geld. Musst du halt nachrechnen ob sich das für dich lohnt.
Ich hab zwar keine Messwerte der 920er, aber ich kann dir von den 800ern sagen, dass die selbst bei ausgeschaltetem Server pro Einschub 15W aus der Dose ziehen.
 
Zuletzt bearbeitet:
Das SC836 Gehäuse wird mit einer länge von 648mm angegeben.
1. Sind da die Griffe mit ein gerechnet und wie lang ist das Gehäuse ohne Griff?
2. Hinten beim MB sind die Anschlüsse weiter rein gesetzt. Wie weit ist das, vom Gehäuse Ende bis da hin?
Kann das jemand mal nach Messen?

Also:

Mal ein paar Maße:

Alles tutto completti misst das Gehäuse vom äußersten hintersten Ende (also einschließlich Griffe der Netzteile) zum äußersten vorderen Ende (inkl. Griffe) ziemlich genau 690mm.

Ende Netzteilgriff bis zum eigentlichen Gehäuse: ca. 17mm

Einbuchtung Gehäuseende bis Mainboardblende: ca. 24mm

Griffe selbst (lassen sich abschrauben): ca. 25mm - aber Achtung: das Laufwerksgedöns ragt vorne auch etwas über das eigentliche Gehäuse hervor (ca. 10mm, du kannst also bestenfalls ca. 15mm durch Weglassen der Griffe sparen).
 
Also:

Mal ein paar Maße:

Alles tutto completti misst das Gehäuse vom äußersten hintersten Ende (also einschließlich Griffe der Netzteile) zum äußersten vorderen Ende (inkl. Griffe) ziemlich genau 690mm.

Ende Netzteilgriff bis zum eigentlichen Gehäuse: ca. 17mm

Einbuchtung Gehäuseende bis Mainboardblende: ca. 24mm

Griffe selbst (lassen sich abschrauben): ca. 25mm - aber Achtung: das Laufwerksgedöns ragt vorne auch etwas über das eigentliche Gehäuse hervor (ca. 10mm, du kannst also bestenfalls ca. 15mm durch Weglassen der Griffe sparen).

Wau, das ist ja cool! Da kann ich mir das schon gut vorstellen. Danke


Könnte knapp werden, vor allem mit den Kabeln. Hast du vorne ne Glastür oder ist dein Schrank vorne offen oder hat nur Mesh?

Was die Netzteile angeht, die sind nun mal servertypisch laut. Ich höre zumindest keinen Unterschied zwischen meinen 800ern und den 920ern, die ich in der Firma im Einsatz hab.

Was den Verbrauch angeht, haben die 920er zwar eine deutlich bessere Effizienz, aber kosten natürlich auch eine Stange Geld. Musst du halt nachrechnen ob sich das für dich lohnt.
Ich hab zwar keine Messwerte der 920er, aber ich kann dir von den 800ern sagen, dass die selbst bei ausgeschaltetem Server pro Einschub 15W aus der Dose ziehen.

Ich habe ein Glastür.
Für das Netzkabel, kann man ja ein 90 Grad Kabel nehmen. Dann gibt es keinen bogen.
4 +2,4 = 6/7 cm sollte noch für ein Netzwerkkabel bogen reichen. ;)
 
Würde das noch gehen mit der Kühlung des SC836 Gehäuse?
Der Schrank zieht von unten die frische Luft an und gibt die oben mit 4 Lüfter wieder raus.
Es sind Noctua NF-F12 mit Airflow 121,8 m³/h und werden Temperatur gesteuert.
Schrank hat eine Glastür.
 
Die vier Lüfter werden kaum einen Unterschied machen. Ich weiß nicht wer auf die Idee kam Serverracks von unten nach oben zu belüften (schon klar, undurchlässige Glastür, aber trotzdem...macht nur wenig Sinn), aber einen großen Unterschied dürfte das nicht machen. Die Server saugen Luft vorne an und das tun sie auch ohne Belüftung des Schranks, der ist ja trotzdem nicht luftdicht. Mit anderen Worten: Ja klar, das wird schon gehen! Hinten wird er dann ja offen sein, oder ist da auch noch eine Tür?
 
Hinten ist auch eine Tür und die Seiten sind auch zu!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh