Stromsparendes Mediendatengrab mit WakeOnLan und AutoShutdown

Du hättest dir einiges erspart, hättest du meine Fragerei in "Server Vorstellung" mitbekommen...
Wie wohl auch du, lese ich leider nicht jeden Thread in jedem Forum.
Wie kommst du darauf, daß ein Mainboard etwas mit LBA zu tun hat? Bzw. das Thema hörte in die Biosen spätestens ab der Zeit von XPsp1 rauskam.
Ein Board muss selbst ja auch über irgendeinen SATA-Controller zum Ansteuern etwaiger onboard-SATA-Ports verfügen und entsprechend adressieren. Weißt du nun aus dem Stehgreif, was alles beim Adressieren bspw. aus eben Unraid bis zur HDD über den Controller letztlich beteiligt ist?
Wie alt das Board denn?
Dürfte wohl aus 2008 rum sein.
Wenn du nach den vorgeschlagenen diesen HBAs schaust, stellst du fest, daß sie eh alle (?) x8 PCIe fahren.
Welche denn genau und ist dann das 2 TB-Problem erledigt?
Ich werde das Eindrucks trotzdem nicht los, daß für dich primär ein gebrauchter TS-431+ die ideale Wahl gewesen wäre und das ganze 19" Zeug eher als "Storage" - auch für den 431+ - hätte dienen sollen. Das hätte an in Ruhe aufbauen können, während der 431+ längst seine Arbeit verrichtet.
Der Eindruck täuscht dich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Eindruck täuscht dich.
Lassen wir das mal so stehen ;)

Hej ich hab das nicht ganz mitbekommen. Hast DU ein 2TB Problem?

Hast du denn auch mitbekommen, wieviel von dem vermiendlichen 2TB-Problem, einfach nur Laufwerke betrifft die >2TB haben, und wieviel BOOTlaufwerke die >2TB haben. Möchtest du das System von einem >2TB Laufwerk booten?

Welche HBAs,, hat Asche77 ja geschrieben. Die Zahlenbeschrieben aber nicht die Bezeichnungen der KArten selbst, sondern das sind die Chipsätze welche die Karten haben sollten.

Du hättest dir einiges erspart, hättest du meine Fragerei in "Server Vorstellung" mitbekommen...
Nee, das war kein Vorwurf und Spott. Eher eine Art Bedauern ;) Ich hab mich auch erst durchboxen müssen.
Ich habs aber weniger wild gemacht. Für mich war klar, ich will Hardware auf der u.a. XigmaNAS sofort rund läuft, ergo ich will auch ZFS und nicht Unraid (XFS). Da gibt es direkte klare Empfehlungen was HW angeht und man kann nur etwas falsch machen, wenn man sie nicht befolgt.
Und da ich da noch nichtmal einen groben Plan hatte, hab ich mich strikt an die Empfehlungen gehalten und die auch strikt befolgt.

Erstmal aber vernünftig durchgefragt bis ich auch nur einen Handgriff machte.
 
Lassen wir das mal so stehen ;)

Hej ich hab das nicht ganz mitbekommen. Hast DU ein 2TB Problem?
Jep.
Hast du denn auch mitbekommen, wieviel von dem vermiendlichen 2TB-Problem, einfach nur Laufwerke betrifft die >2TB haben, und wieviel BOOTlaufwerke die >2TB haben. Möchtest du das System von einem >2TB Laufwerk booten?
Der alte Raid Controller kann damit nicht umgehen. Das hat nichts mit dem "Booten von einer Platte" zu tun, sondern mit dem Initiieren der Platte während des Bootens und dem dazugehörigen Zuweisen der Adressbereiche, um die Platte eben erkennen und vernünftig ansprechen zu können.

Der Hintergrund ist ein wenig komplexer, siehe hier und ich möchte einfach nur erstmal rausfinden, ob und wie ich es mit dem alten Board gelöst bekomme.
Welche HBAs,, hat Asche77 ja geschrieben. Die Zahlenbeschrieben aber nicht die Bezeichnungen der KArten selbst, sondern das sind die Chipsätze welche die Karten haben sollten.
Das ist mir schon klar. Was mir hingegen nicht klar ist: Welche Karten (eben mit SAS2008-, SAS2308- oder SAS3008-Chipsatz) für das alte Board überhaupt geeignet sind und ob damit das 2 TB-Problem endgültig gelöst wäre. All diese Karten haben nämlich gemein, für PCIe 2.0 ausgelegt zu sein, worüber das alte Board nicht verfügt. PCIe ist zwar abwärtskompatibel, aber ich weiß nicht, ob sich das lediglich auf die Geschwindigkeit auswirkt oder ggf. auch noch andere Restriktionen mit sich bringt (wie eben die erweiterte Adressierungsmöglichkeit).
Ich habs aber weniger wild gemacht. Für mich war klar, ich will Hardware auf der u.a. XigmaNAS sofort rund läuft, ergo ich will auch ZFS und nicht Unraid (XFS). Da gibt es direkte klare Empfehlungen was HW angeht und man kann nur etwas falsch machen, wenn man sie nicht befolgt.
Und da ich da noch nichtmal einen groben Plan hatte, hab ich mich strikt an die Empfehlungen gehalten und die auch strikt befolgt.
Ich benötige kein "übliches" NAS, sondern einfach nur Storage, die zentral von einem Rechner aus bedient wird. Dazu habe ich mir vor einigen Jahren schon mal Gedanken gemacht (war glaube ich sogar der Grund, mich hier anzumelden) - daraus das Fazit und vor ziemlich genau 2 Jahren nochmals nachgehakt.

Es geht bei mir vorwiegend um Medien (Video- & Audiodateien, Spiele, Bilder) - und nein: ich möchte mich nicht online abhängig machen (Netflix, Plexshares, GDrive, Steam, Stadia, whatever), sondern autark die volle Kontrolle meiner Medien behalten. Es ist für mich ein Unding, dass bspw. bei Steam/Stadia Auto-Updates gefahren werden und die eigens gekauften Inhalte (man kauft ja nur Lizenzen, gell) von heute auf morgen nicht mehr wie üblich funktionieren oder die dir mal eben den Account sperren können oder Netflix plötzlich in politischer Überkorrektheit Szenen zensiert, umschneidet oder Disney+ eigene Klassiker gleich gänzlich entfernt. Von der grundsätzlichen Abhängigkeit von US-amerikanischen Unternehmen ganz zu schweigen. Aber das nur am Rande.

Um es kurz zu machen, änderten sich zwischendurch meine Belange (das Leben halt) und ich habe mich vorläufig immer darauf zurückgezogen, den Speicher eben weiterhin dort zu halten, wo ich ihn brauche/nutze: in der Workstation, die sowieso läuft. Da habe ich Platz für 8 SATA-HDDs, wovon ich 6 direkt an- und ausknipsen kann. Das Problem ist aber wie üblich, dass die Platzanforderungen ständig wachsen und jederzeit die Gefahr des totalen Datenverlustes besteht. No risk, no fun - seit Jahrzehnten läuft alles gut, aber who knows.

Nunja... jedenfalls hat man mir glaube ich schon 2013 zu einem irgendwie gearteten 19"-Aufbau geraten. Ich habe es dann vor mir hergeschoben und hier bin ich, nur 8 Jahre später 🤪 und komme nochmal auf eine Antwort aus 2013 zurück: also spontan das Teil besorgt und rumgespielt, learning by doing. Ob's am Ende wieder rausfliegt, weiß ich jetzt noch nicht.
 
Irgendwie wird es langsam undurchsichtig.
Stromsparend, aber einen Hobel von 2008 kaufen...
Ganz ehrlich:

Kauf dir diese Kiste, lass sie in diesem Gehäuse oder Bau alles in dein 19" Gehäuse um und hab Ruhe.

Ich hatte den damals von ceiber als Backup-Gerät empfohlen bekommen und bin mehr als zufrieden damit.
Läuft bei mir mit ESXI und TrueNAS, aber auch mit anderen Storage VM's (wahrscheinlich sogar ESXI 7, wenn du den Controller nur durchreichst).

- Die Kiste hat ein passendes Netzteil
- ESXI 6.7 läuft ohne jegliche Probleme
- remote-management hat er an Bord
- LSI2008 Controller, den du für deinen Storage im IT Mode flashen kannst ist mit im Lieferumfang
- 2x LAN + 1 dediziert für IRMC (Fernwartung)
- viele Teile kannst du noch bei eBay verticken und dann wird das Gerät noch günstiger
- 16GB ECC RAM an Bord (bis 32GB gehen)
- 5 x 3,5" Festplatten gehen locker rein, mit Metallbearbeitung und basteln auch zehn

Ich würde in den alten 19" keinen Cent mehr investieren. Laut, frisst wahrscheinlich Strom ohne Ende, Kompatibilität wird immer gruseliger, Groschengrab.
 
Zuletzt bearbeitet:
Bin bei Gen8 Runner (Leerzeichen im Namen ist total krass... :unsure:) Und ich muss dir ehrlich sagen, der Unterschied zwischen einem "üblichen NAS" und einem "Storage" ist mir bis heute nicht ganz klar. Jedenfalls nicht, sobald das Storage am Netzwerk hängt. Von daher kann ich dich glaub ich auch nicht wirklich unterstüzend beraten. Leider.

Was ich aber weiß: Das Board ist Mül. Wenn man heute was vernünftiges aus Altteilen machen will, dann sollte das alles bis auf vielleicht das Gehäuse, von wenigstens 2011/2012 sein. imho.
 
Wo ist das Problem?
Der verlinkte Server ist von 2013.

Hauptsache ohne Wissen und Sachverstand Sachen schlechtmachen, ist das dein Motto?
Beitrag automatisch zusammengeführt:

Was auch noch interessant wäre, zu wissen:
- Es piepte, als ich nur 1 der beiden Netzteile angeschlossen hatte - ist das grundsätzlich auf Doppelbetrieb ausgelegt oder eine BIOS-Einstellung?
- Wieso lüften die Netzteile bereits, sobald sie am Strom hängen und der Server aus ist? Ist ja nervig - brauch man dann zwingend eine Netzwerksteckdose oder kann man das irgendwie dauerhaft deaktivieren?
- Kann man die Backplane des Gehäuses bei Bedarf austauschen - auf eine mit SATA III 6 GB/s?
- Gibt es leisere Lüftervarianten?
Wenn du das Netzteil rausziehst, dann piep auch nichts.
Weil die Netzteile sonst überhitzen, da sie im standby schon jeweils 15-20W ziehen, wenn ich mich noch recht erinnere.
Tauschen kannst du die Lüfter, dazu brauchst du aber andere Anschlusskabel oder verzichtest auf hotswap und baust normale Lüfter ein. Das kann aber zu einem Hitzeproblem führen.
Deine Lüfter brauchen aktuell irgendwas um 40W.
Sprich also, dein Gehäuse zieht selber, ohne Rechenrechnik, ~60W .

ansonsten:

Ansonsten gilt zu brachten, dass beim Mainboardtausch, das FrontIO Kabel nicht passt, da es speziell für SM-Boards gemacht ist. Dafür bracht man dann ein Adapterkabel.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: tar
@underclocker2k4
Ja, der Server ist von 2013, fünf Jahre jünger, was bei der Technik schon wieder Quantensprünge ausmacht.

Und die Diskrepanz erwähnst du doch gerade selber.
- Stromsparend im Titel: Gehäuse zieht deiner Äußerung nach ~60W (!)
- Unraid und ESXI soll laufen, aber es ist nichtmal ESXI in der bereits verlinkten Kompatibilitätsliste vermerkt

Daher auch mein Verweis auf den TX140S2. Der ist wenigstens definitiv kompatibel und hat alles an Bord und wäre zum "hauptsache erstmal anfangen" deutlich besser geeignet.
 
Wo ist das Problem?
Der verlinkte Server ist von 2013.
Diesbezüglich nirgendwo, da ich damit das Board (& Co.) von tar meinte. Ich fing ja damit an, daß ich bei Gen8 Runner bin...

p.s
Quant, Quantisierung usw. bedeutet das Kleinstmögliche um physikalische Größen zu beschreben oder kleinstmögliche Änderungen die zu möglichst genauen Änderungen führen. D.h. ein Quantensprung wäre eigetlich sowas wie wenn... man OC am 2500k macht und von 3700Mhz auf 3710Mhz geht. Das wäre ein Quantensprung :d
(sorry, Klugsch...modus aus ;))
 
Zuletzt bearbeitet:
@Gen8 Runner
Das ist an sich echt nicht schlecht (der Preis ist natürlich sehr gut) und entspricht in etwa dem Aufbau meiner Workstation, der noch nen Zacken besser ist, wie ich finde (war ja auch entsprechend teurer). Da würde ich einfach die als Server nehmen und mir ne neue WS aufbauen (Zeit ist eh reif). Irgendwie erinnert mich das an meine Odyssee 2013... hab damals letztlich auch meine WS aktualisiert. Diesmal kann ich aber die bisherige Hardware weiternutzen.

Das Grundproblem ist und bleibt das Gehäuse (ausreichend HotSwaps), weswegen ich spontan das SM bestellt hatte, um's mir einfach mal live anzuschauen. Nur habt ihr recht: das Teil ist nicht nur extremst laut (was mich erstmal weniger stört, aber auch deutlich besser geht), sondern höchst ineffizient und nervig (die Netzteillüfter laufen im ausgeschaltenen(!) Zustand des Geräts weiter - das ist wohlgemerkt kein StandBy). Nun könnte man das über 'ne schaltbare Steckdose "lösen", aber dann dürfte WoL nicht mehr funktionieren. Dann dachte ich, dass gerade Servergehäuse auf effiziente Kühlung ausgelegt seien, aber das wird da wohl eben einfach mit kräftigeren Lüftern "gelöst".

Nun könnte ich da zwar mein sehr leises, gedämmtes Lian-Li-Gehäuse als Server nutzen. Aber so richtig glücklich wäre ich damit nicht, da die HotSwaps fehlen und ich da auch nur beschränkt Platten aufstocken kann.

Also zurück zu Schritt #1: passendes Gehäuse suchen.
Wenn du das Netzteil rausziehst, dann piep auch nichts.
Meinst du ganz rausziehen? Weil ich hatte es nur ein paar Zentimeter rausgezogen... werd ich dann nochmal testen.
Weil die Netzteile sonst überhitzen, da sie im standby schon jeweils 15-20W ziehen, wenn ich mich noch recht erinnere.
Also wenn ich den Server ausschalte, leuchtet er noch. Ist er da per se im StandBy und ausschließlich nur per schaltbarer Steckerleiste auch wirklich auszuschalten? Das wäre blöd. Oder ist auch das wieder vom Mainboard abhängig und das "war halt früher so"?

Bei den ganzen Umbauten wäre wohl ein anderes 19"-Gehäuse mit von vornherein "normalem" Netzteil und Noctua-Lüftern besser.
 
Eine Option wäre noch:
Im BIOS (falls einstellbar) die Option, was nach Spannungsverlust passieren soll (meist irgendwas (After Powerloss = Boot / Nothing...). Dort könntest du dann Boot einstellen und das ganze wie folgt handhaben:
- Server wird heruntergefahren (nicht Standby, da dann alles im Arbeitsspeicher bleibt)
- Smarte Steckdose per App oder Script ausschalten mit dem Effekt -> Lüfter auch aus und Ruhe und wirklich null Verbrauch
- Smarte Steckdose per app oder Script ein -> BIOS erkennt Power-Loss und bootet komplett hoch

Wäre eine sehr eingeschränkte und gebastelte Lösung, aber noch eine Idee. WOL für Bastler quasi.
 
Die Version des 836, die du hast, ist 15 Jahre alt.
Da hat man einfach die Lüfter auf Volldampf laufen lassen.
Aktuell Server, wie z.B. einen DL380 G10 lässt du im Idle direkt neben dir laufen, ohne Ohrenbluten.

Wir haben im RZ nen 15Node ESX Cluster mit den SM-Cases laufen, du kannst da nicht neben arbeiten.
Mit aktuellen Dell/HP Cluster kannste du auch nen Meeting daneben abhalten.

Das Thema effizient war früher nicht Energieeffizienz, sondern Baueffizienz. Daher auch passive Kühler und ordentlich Luftstrom. Den braucht du nämlich an anderer Stelle eh.
Und auch bei den Netzteilen hat sich was getan, in den letzten 15Jahren.
Wir haben HP DL380 G5 und wenn du den Server ausstellst, dann kochen dir die Netzteile weg, weil deren Lüfter nämlich nicht angeht, wenn aus.
HP wird halt sagen, Server schaltet man nicht aus, die sollen laufen.

Und das ist der default. Ich habe meine umgebaut. Dazu gibt es SQ-Netzteile und auch PWM Lüfter, direkt von SM, für die neusten Versionen des Cases.
Das ist aber mit Invest verbunden. Des Weiteren muss man beim PSU auch aufpassen, dass man die richtigen PSU zur richtigen PDU nimmt. Denn auch da gibt es verschiedenen Versionen.
Das wird dann schon leiste und hängt dann, bei den PWM Lüfter, vom MGMT ab. Flüsterleise wird es nicht. Und die Sunon-Lüfter(Nennstrom je 1,1A bei 12V) sind nunmal keine Leisetreter, wenn aufgezogen und sind auch nicht auf Strom Sparen ausgelegt.

Also ja, man kann das leiser bekommen, auch mit Standardbauteilen von SM.
Und auch ja, man kann das noch leiser bekommen. Dazu braucht es nur ne Flex und nen Bohrer. Dann kann man das ganze Case komplett entkernen und z.B. ein SFX NT einbauen.
Wichtig ist dann, dass man den Rest auch beachten muss. NICs und RAID-Controller leben z.T. auch vom Luftstrom, den so nen Case erzeugen kann.
Reduziert man den Luftstrom, wird es ggf. wärmer.

Geringerer Energieverbrauch ist auch die Folge reduzierter Lüfterstärke, neben der allgemeinen technischen Entwicklung.
Die im Video gezeigten Noctua würden bei möglichem Vollausbau den Server nicht kühl bekommen. Aber auf genau diesen Vollausbau ist das Design und die Komponenten ausgelegt.
Wenn man jetzt den Use Cases spezifizieren kann, kann man auch an der Umgebung Hand anlegen und das hat der Kollege in dem Video gemacht.

Wie gesagt, schau mal im SC836 Thread nach, da sollte ein wenig gezeigt werden, was geht.
Das upgraden mit Originalteilen, kostet halt auch entsprechend Geld. Vorteil ist, man behält das Design bei, Nachteil, neben dem Geld, es wird nicht ganz so leiste und stromsparend.

@Netzteilpiepen
Stromkabel alle raus. 1 NT aus, 2.NT mit 230V beaufschlagen. Kein piepen.
Alle ATX Rechner sind nach dem Runterfahren im Standby. Maximale unterschiede sind in den Standby-Modi (S3 usw...).
Ansonsten muss das Netzteil, damit ATX und die Standby-Modi funktionieren, noch immer einen Grundbedarf decken und dazu müssen alle Komponenten bestromt werden. Das ist neben dem MB auch das/die PSU selber, aber auch das PDU.
Und da kommt man eben darauf, dass die NTs halt gut was brauchen, mit dem PDU. (MB z.B. abgeklemmt)
Und dieser Grundstrom würde das NT überhitzen, damit das nicht passiert, muss der Lüfter ran.
Sprich das Ding braucht dann noch mehr Strom. Und so kommt man eben auf die 15W. (Case only)

Das verbaute MB kommt also zu dem NT-Strom noch dazu. Da wird man sicherlich bei 5-10W liegen.
Sprich da, wo normale komplette Rechner evtl. auf max. 5W kommen, ist das SC836 bei 15W+(5->10")W.
Strom sparen geht wohl nur, wenn man das beim Nachbar anklemmt.

Also ja, wenn du in Richtung 0 willst, alles komplett umbauen oder halt "Stecker ziehen".
Auch beim Betrieb bist du bei den ~60W Grundlast, ohne das MB.

Wenn du also ernsthaft vorhast, das Case zu verwenden, und dabei Strom als auch Lautstärke ein Thema sind, hilft nur Umbau, entweder in der SM-Linie, mit Profiausrichtung oder aber die Brecheisenmethode und dann mit Anlauf.
Die Basis vom Case ist OK. Es bietet mit 3HE Vollausbau mit Standard Steckkarten, GPUs können je nach Stromstecker ein Problem darstellen, hat ne passive Backplane mit 16 Slots. Gut für weitere Umsetzungen.
Nachteil ist, es wird nie U.2, U.3 und ähnliche Schnittstellen geben. Sprich spätestens bei x-mal 40TB SSDs wird das nichts mehr.

EDIT: Von der Steckerziehen-Methode und dem Vorschlag von Gen8 Runner kann ich nur warnen.
Das ständige Einschalten vom Server durch 230V Trennen/Schalten sorgt für eine harte Belastung der Kondensatoren im NT, bedingt durch den Strom-burst.
Sowas killt auf Dauer die Kondensatoren. Sowas würde ich nur machen, wenn ich noch nen Stapel von den Dingern im Schrank habe oder aber ich in 1h Ersatz ranbekomme, weil Standard-ATX-NT.
Stirbt dir das NT, wars das mit dem Server. (2. NT mal außen vor)
Man darf nicht vergessen, dass diese Dinger gut und gerne mal 10 Jahren RZ Dauerlauf hinter sich haben. Für die gab es also kein Kaffee und Kuchen, sondern nur Schläge, sprich also vorbelastet.

PPS:
Man kann auch erstmal mit dem MB so anfangen und die ersten Sachen aufsetzen. ESX muss ja nicht direkt der Aktuelle sein. Man kann auch nen 6.0 nehmen. HBA müsste gehen (keine Garantie). Einzig beim Durchreichen könnte es Stress geben, da schon sehr alte CPU Technik. (aber das kann man auch im Trockenen üben)
Und dann kann man entweder so nen FSC-Herz reinpflanzen oder was brandaktuelles nehmen. Auch die v3 Xeons werden "bald" sterben beim ESX.
 
Zuletzt bearbeitet:
Anti-"Strom-Burst":
USV nutzen und halt mit ihr an/aus machen.
Nach FN332-10A-05 googeln und es nach den Schaltern platzieren
Wenn man mit gesundem Menschenverstand und bisschen Elektrik klarkommt + an der Stelle doch nich bisschen Platz im Netzteil ist, nach etwas ähnlichem wie Yunpen YB03T1 googeln. Die Amper sollten halt zu den Watts des Netzteils passen ;)

Bei Storages bin ich aber eigentlich glasklar für eine kleine USV. Selbst wenn es um ZFS geht.

Wichtig ist dann, dass man den Rest auch beachten muss. NICs und RAID-Controller leben z.T. auch vom Luftstrom, den so nen Case erzeugen kann. Reduziert man den Luftstrom, wird es ggf. wärmer.
Das ist klar ein Punkt. Auch die haben Hitzeschutzschaltungen (!) Ich meine die 3 hier schon erwähnten LSI Chips drosseln sich imho schon ab 50°C damit sie ja nicht über 55°C schiessen wo sie quasi komplett dicht machen.

Wenn man sich die Watts anschaut die sie verballern ist das nicht so nebensächlich wie es zuerst aussieht.

Der 3008 der da nicht dabei ist zieht sich nominal schon 14.5W rein (das sind schon knapp 5W mehr als der 2308) und wenn er in 4i/4i von allen 8 >200MB/s Laufwerken so wirklich was zu tun bekommt, zieht er in den Spitzen bis zu 22.5W. Wenn man sich die Kühlerchen auf den HBAs anschaut und die Plätze wo sie stecken... Immer mit bedenken.
Das ist dann ausgerechnet Mitten beim ggf. Rebuild schon blöd, wenn der Controller plötzlich dicht macht.
 
Zuletzt bearbeitet:
Anti-"Strom-Burst":
USV nutzen und die an/aus.
Nach FN332-10A-05 googeln
Wenn man mit gesundem Menschenverstand und bisschen Elektrik klarkommt + Bisschen Platz im Netzteil ist, nach etwas ähnlichem wie Yunpen YB03T1 googeln. Die Amper sollten halt zu den Watts des Netzteils passen ;)
Und was soll die USV machen? Auch die schaltet einfach nur den Strom stumpf ein und der Kondensator im NT saugt sich voll.

Die gezeigten Netzfilter helfen gegen Oberwellen und ähnliche Einstreuungen. Sie reduzieren aber nicht effektiv den Einschaltstrom, dazu ist die Induktivität im Filter einfach viel zu Gering.
Des Weiteren baust du so einen Netzfilter genau nirgends ein, weil 1. kein Platz, in den 1HE NTs von SM erst recht nicht und 2. änderst du damit die technischen Eigenschaften und damit erlischt die CE für das Gerät und damit der sorgenfreie Betrieb.

Das einzige was da hilft, sind Nulldurchgangsschalter oder echte Einschaltstrombegrenzer. Diese wirken aber nur, wenn man diese sozusagen mit einschaltet. Sprich also, einen vor die Steckdosenleiste und danach die Geräte einzeln dran hilft auch nicht.
 
@underclocker2k4
Was gäbe es für zukunftsfähige Gehäuse mit 16 HDD-HotSwap- oder -Wechselschächten, die sich für (silent) Standard-Netzteile eignen, die man entweder regelmäßig komplett an- & abschalten könnte oder deren Standby-Verbrauch sich deutlich in Grenzen hält?
 
Und was soll die USV machen? Auch die schaltet einfach nur den Strom stumpf ein und der Kondensator im NT saugt sich voll.
Wenn man weiß was da passiert ;) dannw eiß man auch was passiert wenn mechanische Schalter klacken. Und was ein Burst dann auch wirklich bedeutet. Demgegenüber ist eine USV an der Ausgangsseite butterweich.

Ja, richtig erkannt. Die Belastung bei einer Einschaltung kann man so nicht eliminieren. Man müsste etwas aus der Motortechnik für Sanftanlauf nutzen. Falls das überhaupt geht. HJab darüber noch nie nachgedacht :) Bisher reichten besagte Filterungen damit mir bisher noch nie etwas um die Ohren flog.

Ja. Wenn die CE des Herstellers nicht mehr ist, ist ein "sorgenfreier" Betrieb nicht mehr möglich :ROFLMAO:
Bi später mal. Muss mich erstmal sammeln... :geek:
 
Wie dieser sogenannter Sanftanlauf aussieht, habe ich oben geschrieben.

Besagt Filter reichen nicht, weil die Filter einen ganz anderen Fokus haben. Die sollen Oberwellen und sonstige Störer aus dem Netz filtern, um die Elektronik zu schützen. Deren Ziel ist aber keine Begrenzung des Einschaltstroms.
Des Weiteren gehen die Geräte auch nicht unmittelbar defekt, sondern altern, ganz unterschiedlich. Das hängt auch vielmals von den Geräten und dem Schaltverhalten ab, sprich wie oft man sowas macht. Zudem werden die Geräte auch immer schlechter, weil billiger.

Und ja, wenn dir die Bude abfackelt, weil ein Defekt am Netzteil vorlag, egal ob der nun durch den Umbau kam oder nicht und der Sachverständig bekommt raus, dass das Netzteil nicht mehr im Originalzustand ist, dann bist du sowas wie nen Brandstifter und das meine ich mit sorgenfrei.
Und ja, ich weiß, dass Mörder auch völlig seelenruhig schlafen können, nur sollte man vorsichtig sein, welche "Tipps" man so in die Welt bläst. Nennt sich Reflektion und Pflichtbewusstsein.
(Nur so als Info, ich kann auch den lieben langen Tag genau solche "Tipps" geben, da ich sehr gut Bescheid weiß, was man wie womit alles machen kann. Und wie man an deinem Tipp auch sieht, was nicht geht. Und dennoch gebe ich sowas nicht raus, warum nur?)

@tar
Das SC836 ist jetzt kein schlechtes Case. Wie gesagt, man kann das komplett Umbauen, wenn man ein wenig basteln mag. Kann auch nen spannendes Projekt für mehrere Bastelnachmittag mit der Family sein.

Ansonsten, wenn man möglichst zukunftsfähig sein will, dann sollte man wenig fixes haben. Das würde z.B. ein SC836 ausschließen, aber auch sowas wie Chenbros.
Flexibler wären dann 5,25" Cases,. wo man dann dedizierte Backplanes einbaut.
Dann ist die Frage, was man will. Tower oder doch lieber 19"?

z.B.
oder

mit
oder

Das jetzt nur mal beispielhaft.
Wichtig ist eben, dass es Standard 5,25" oder ggf. 3,5" Slots sind. Darin kann man dann jede beliebige Backplane einsetzen.
Da gibt es dann irrwitzige Möglichkeiten, wo man in dem verlinkten Tower mal eben >50 SSDs reinbekommt mit jeweils gerne ~8TB = ~400TB...

Die Backplanes kannst du dann eben auch austauschen, wie es beliegt. Und von 3,5" auf 2,5" sowie SATA, SAS, NVMe usw.
EDIT:
Ob das nun 16 sein müssen, muss man auch sehen. Solche großen Anzahlen (und größer) sind in der Regel nur durch Business-Geräte wie eben 19".
 
Zuletzt bearbeitet:
@underclocker2k4
Wäre es auch möglich, ein kleineres Gehäuse mit ebensolchen Backplanes und einem Daughter Board zu bauen, so dass es mit dem Server an und ausginge?

Also das Gehäuse bräuchte dann nur:
- Netzteil zum Betreiben der HDDs
- 10 HDD-Schächte (Backplanes) (6 wären bereits im Server), ggf. erweiterbar
- eine zentrale Stelle, in der alle HDD-Anbindungen nach außen gingen (vielleicht irgendwie über SFF-8644 zum HBA im Server - da muss es doch was geben)

Also irgendwie derart: 24 Bay Low Cost JBOD Solution by X-Case
... nur eben kleiner, da kein Mainboard nötig.

Falls man problemlos vom Servergehäuse die SAS/SATA- und Molexkabel zum anderen Gehäuse bekäme, wäre sogar das Netzteil und das Daughterboard unnötig.

Ginge das?
 
Zuletzt bearbeitet:
Als allererstes solltest du dich mal entscheiden, was du willst.

Ich mein, du kaufst dir für relativ wenig/viel Geld nen 30kg Case, was 60cm tief ist. Mal ganz unabhängig vom Strom und Lautstärke.
Auf der anderen Seite soll es jetzt wieder kompakt sein.

Wasn nu?

Am einfachsten wäre es, wenn du dir sowas holst.
Gibt es auch als 20er und 24er Variante.
Das ist zwar keine Stütze für nen Panzer, wie es das SM Case ist. Aber für @home reicht es 3x aus.

Da kannst du dann jedes ATX Board und NT einbauen wie du willst.
Du hast kein Gefummel mit externen SAS-Controllern und entsprechend teuren 8088 oder 8644 Kabeln. Dafür geht dir der Spaß verloren, wenn mal irgendwas beim Einschalten des Zusatzgehäuses oder der SAS-Verbindung schief geht. (soll Menschen geben, die stehen aus so Schmerzen)
(8088 oder 8644 würde ich nur im Rack-Betrieb machen, mit entsprechender Hardware)

nimm doch einfach sowas:
oder
oder
oder

Aber ja, man kann auch JBOD Cases bauen. SM bietet z.B. auch passenden Platinen an.

PS:
sowas macht sich auch gut
Sowohl zum Föhnen als auch Heizen.
 
Als allererstes solltest du dich mal entscheiden, was du willst.
ewms.PNG

Ich mein, du kaufst dir für relativ wenig Geld nen 30kg Case, was 60cm tief ist. Mal ganz unabhängig vom Strom und Lautstärke.
Auf der anderen Seite soll es jetzt wieder kompakt sein.
Das doch nur bei der Idee, einfach mein jetziges Teil als Server so zu nehmen, wie es ist (da gar nichts aus- oder umzubauen) und dann eben was daneben/drauf zu stellen, was davon betrieben und automatisch mit an/ausgeschalten wird. Das braucht dann ja kein 19" Riesenteil mehr sein, weil das Board dort nicht mehr rein müsste - und im günstigsten Fall sogar auch gar kein eigenes Netzteil :geek:
nimm doch einfach sowas

- QNAP TL800S und TL1600S
- Silverstone SST-RS831S und SST-TS821S
NA GEIL - das wär doch was 👌 Schau ich mir genauer an.
Sowohl zum Föhnen als auch Heizen.
🤪
 
Wow. Ok. Für das Geld für Cases kann man am Board halt was sparen und ein Teil von 2008 weiterverwenden. Find ich richtig gut...

@[U]underclocker2k4[/U]
Gibt es überhaupt noch Buden ohne FIs? Aber ja. Wenn man in der Materie drin steckt vergisst man gelegentlich, daß es für andere auch mal der Kaninchenbau sein kann. Ok. Schon gut.

Gegen den Filter an sich brauchst du dich aber nicht so mit Händen und Füßen wehren. Da braucht man sich garnicht dermaßen im eigenen Saft garen. Ich hab mal paar Tage mit einem Chauvix Arnou 8335 2 Tage lang geloggt was rein mechanische ("Klack") Schalter eingangsseitig alles produzieren. Das stellt die Elkos vor ganz anderen Herausforderungen wie einfach nur der Einschaltstrom.
 
@Uhrzeit
Ich weiß nicht wo du die letzten Jahre so warst, aber die elektrische Installation in Wohngebäuden gibt es seit ~100 Jahren.
Die DIN VDE 0100 Teil 410 schreibst erst seit 2007 für Endstromkreise, die durch einen Laien bedient werden, einen RCD vor. Und auch erst seit 2018 gilt dies neben Endstromkreisen bis 32A auch für Beleuchtungsstromkreise.
Des Weiteren gilt, wie so oft, eine Bestandsschutz, sprich keine Nachrüstpflicht.
Bis 2007 gab es lediglich die seit 1984 bestehende Forderung nach RCD für Feuchträume.
Wenn du also Server nicht gerade im Bad stehen hast, bedeutet das, dass du nur in Neubauten/Rekonstruktionen seit 2007 mit einem RCD rechnen kannst.
Alles andere ist zu großen Teilen völlig RCD frei und allenfalls mit einem 300mA Gesamt-RCD ausgestattet.

Des Weiteren frage ich mich, was ein RCD nun zwingend damit zutun hat, dass durch ein Netzteil ein Brand entstehen kann?
Dein Rechner kann lichterloh in Flammen stehen und weder ein RCD, noch ein LS oder gar NEOZED und auch kein AFDD lösen da aus.

Und ich wehre mich nicht gegen einen Filter. Ich sage nur, dass du da, warum auch immer, auf einem Holzweg unterwegs bist, was die Möglichkeiten eines solchen Filters anbelangt. Das kannst du bei einem 20W Netzteil machen, ansonsten braucht du Induktivitäten, die gefühlt bald so groß sind wie das NT selber.
Und auch ich weiß um das Prellverhalten von einfachen Steckdosenschaltern und deren Auswirkungen auf nachgelagerte Bauteile und auch das geänderte Verhalten bei AC vs. DC.
Aber selbst wenn du das mit einem Schütz (oder richtige Oldschoolschalter) einschaltest, die Einschaltflanke hast du trotzdem.

Wie gesagt, es gibt geeignete Geräte um dem zu begegnen und ein solcher Oberwellenfilter ist keines.

Und jeder kennt das Verhalten, was beim Einschalten passiert. Das kann man gelegentlich beobachten, wenn man sein NT vom Lappi in die Steckdose steckt. Das Leuchten und Knistern wird genau durch sowas hervorgerufen.

Und ich sage nicht, dass man sowas zwingend beachten muss. Aber wenn du mal regelmäßig Netzteile in einer Summengrößenordnung von 2-3kW regelmäßig ein und ausschaltest, dann weißt du, was da passiert und was das im Netz verursacht.
 
Ne, ein Hauselektriker bin ich nicht. Deswegen meine Formulierungen, die eine Fragestellung andeuteten... (lol) Dem bist du nachgekommen. Danke. Wie ich aber schrieb (!) da gehe ich letztendlich mit dir. Ließe sich also auch wesnetlich kürzer halten ;)

Das Problem mit dem Filter verstehe ich nicht. Du kannst ja auch sagen, daß es nett ist, aber nicht wirklich ausreichend, und etwas anderes vorschlagen. Da es aber nicht passiert muss man sich halt damit begnpgen was man bekommen kann. Ich hab das mal recht einfach getestet und einen uralten Verstärker angelassen, auf die Hälfte aufgedreht und verfolgt was in den Lautsprechenr passiert, wenn ich den Verstärker eingeschaltet in die Steckdose stecke. Und dann das gleiche mit dem FN332 dazwischen. Der Knack aus den Lautsprechern war gefühlt halb so laut.

Wenn also Sachen hart eingeschaltet werden kann das niemals nichts bringen. Ich bin aber wie gesagt eher für eine USV. Am Storage sowieso sinnvoll und filter noch besser (jedenfalls line-interactive)

Aber ok. Erstmal ein Gehäuse finden, sobald es mal klar ist was wirklich passieren soll ;)
Ich bin dann netterweise raus. Man liest sich.

p.s.:
Nichts zu danken an tar für das beleben des Threads ;)
 
Also ich habe folgende Optionen:


1) SC836-Gehäuse von 2008 nehmen

Da ich das Teil nicht 24/7 laufen lassen möchte und laut @underclocker2k4 die Supermicro-Netzteile und -PDB im Standby massiv Strom verbrauchen sowie eine ständige Stromtrennung für deren Kondensatoren schädlich ist, sind "Profi"-Updates mit Supermicro SQ-Netzteil(en) usw. vom Tisch.

D.h. ich müsste "etwas" rumbasteln:
- Grundreinigung
- Netzteile und PDB ausbauen -> eBay
- ATX- oder SFX-Netzteil einbauen (dafür muss wahrscheinlich das Case selbst modifiziert werden -> vielleicht reicht hier doppelseitiges Klebeband :asthanos: oder ab zum Metallbauer mit konkreten Abmessungen (ojemine))
- Lüftertausch zum Reduzieren von Stromverbrauch und Lautstärke (3x mittig auf Noctua, 2x hinten auf Papst für mehr Unterdruck)
- Floppy und Slim-CD-Laufwerk ausbauen -> eBay und passende Frontblende(n ) für die freien Schächte besorgen

-> mind. 200 €
-> altes, aber stabiles Gehäuse mit HDD-LEDs, ordentlichen Schächten, direkter Backplane

1a) Altes Board/CPU/RAM von 2008 drinlassen:
- 2x SAS2008 Raid-Controller rein und flashen

-> ca. 110 € (inkl. Gehäusekosten mind. 310 €)
-> höherer Stromverbrauch, ESXi geht nicht
-> als reines Unraid-Datengrab wahrscheinlich ausreichend
-> könnte Workstation weiter nutzen

1b) Meine Workstation von 2013 reinknallen (natürlich ohne Graka):
- altes Board usw. raus -> eBay oder Schrottwiese
- Austausch des CPU-Kühlers
- 2x SAS2308 HBA rein (flashen wohl nicht nötig?)
- Adapterkabel für Front-IO (noch nicht gefunden)

-> ca. 260 € (inkl. Gehäusekosten mind. 460 €)
-> bessere Stromeffizienz als altes Board, gute Performance, ESXi läuft
-> ich könnte mit VMs usw. rumspielen und bei sinnvollem Bedarf 24/7 laufen lassen
-> bräuchte zeitgleich neue Workstation-Hardware


2) Intertech 4U-4416

Im Grunde wie bei 1b) mit den Vorteilen, dass ein ATX-Netzteil und mein bisheriger CPU-Kühler direkt reinpassen würden.

- SC836 inkl. alter Hardware -> eBay
- Lüftertausch
- 2 SAS3008 Raid-Controller und flashen
- 4 Kabel SFF-8643 auf SFF-8087 (richtig rum?)

-> ca. 790 € abzgl. SC836-Verkauf
-> Nachteile wären:
- keine Fehler-LEDs bei den HDDs
- keine Doku der Backplane
- schlechtere Qualität als Supermicro


3) Intertech 4U-4424 oder Fantec SRC-4240X07

Wie 2), nur:
- 2 SAS3008 Raid-Controller (flashen) und 1 SAS Expander
- 4 Kabel SFF-8643 auf SFF-8087 (richtig rum?)
- 4 Kabel SFF-8087 auf SFF-8087

-> ca. 930 € abzgl. SC836-Verkauf
-> Ich sehe auf absehbare Zeit keinen Bedarf für 24 Platten.
-> hinfällig


4) Mein jetziges Gehäuse nutzen und ein HDD-Gehäuse anbinden

Ist letztlich teurer und wahrscheinlich kurzlebiger, anfälliger, unsicherer bei der Anbindung mit gleichzeitigem Start/Shutdown und hat insgesamt mehr Stromverbrauch als die anderen Varianten.
-> hinfällig


Schwierig... tendiere eher zum SC836 als zum 4U-4416.

Pro SC836: Ich könnte da erstmal das alte Board verwenden. Da wäre es wahrscheinlich auch sinnvoll, direkt den SAS3008 Raid-Controller einzubauen (und zu flashen), auch wenn er da langsamer läuft als er sollte, weil er in einem veralteten PCIe-Slot steckt.

Pro 4U-4416: Es wäre halt neu und mit weniger Hickhack verbunden. In dem Fall müsste ich mich zuvor aber erst mit neuer Hardware für die Workstation beschäftigen und bei aktueller Hardware (Wechsel auf AMD) gibt es ja allgemeine Produktionsengpässe/Lieferprobleme.

Erstmal drüber schlafen :sleep:
 
Zuletzt bearbeitet:
Um "Fault"-LEDs ansteuern zu können brauchst du Controller, die SPGIO können und entsprechende Kabel!
Die "einfachen" Raidcontroller, die auch als HBA auf IT-FW geflashed werden könnnen, haben das idR nicht.
Das Argument ist daher für deinen Fall nicht existent!

P.S. man kann sich alles "Schönrechnen".....
In deiner Rechnung verwendest du 4 unterschiedliche Controller zwischen 50 und 130 € pro Stück
 
p.s.:
Und auch eine Backplane die SPGIO kann, braucht man ;) Erstens.
Zweitens kann eine 9207 (2308) die garnicht mal so unbeliebt ist, sehr wohl bereits SPGIO. Man braucht halt nur ne SB Strippe (mit Sideband also).
 
Um "Fault"-LEDs ansteuern zu können brauchst du Controller, die SPGIO können und entsprechende Kabel!
Die "einfachen" Raidcontroller, die auch als HBA auf IT-FW geflashed werden könnnen, haben das idR nicht.
Das Argument ist daher für deinen Fall nicht existent!
Ah, okay.
P.S. man kann sich alles "Schönrechnen".....
In deiner Rechnung verwendest du 4 unterschiedliche Controller zwischen 50 und 130 € pro Stück
Ja, für das alte Board hätte es auch die SAS2308 sein können. Ansonsten ergibt es sich daraus, dass bei dem SC836 bereits 4 Kabel mit SFF-8087 auf SFF-8087 vorhanden sind - bei den anderen natürlich nicht und da könnte ich auch direkt auf SAS3008 gehen, da ich ohnehin teure Kabel bräuchte.

Ich habe mich mittlerweile dafür entschieden, den Spontankauf abzuhaken und wieder abzustoßen. Statt dem 4U-4416 werde ich aber das 4U-4420 nehmen, wobei ich zusätzlich 2 Dual-SSD-HotSwap-Träger montiere. Diese und die obere Backplane plane ich dann direkt mit dem Board (hat 6+2 SATA) zu verbinden und die übrigen 4 Backplane-Verbindungen zu 2x8i SAS. Das werde ich vorerst natürlich nicht komplett bestücken, bin aber so ausreichend flexibel für potentielle Cache-Drives, VMs usw.

Ob es dann SAS2008, SAS2308 oder SAS3008 wird und welcher genau, weiß ich noch nicht. Mir sind die Unterschiede noch nicht ausreichend klar.
 
Und auch eine Backplane die SPGIO kann, braucht man ;) Erstens.
Die BP vom SC836 hat doch "Fault"-LEDs oder habe ich das da oben falsch interpretiert?
Zweitens kann eine 9207 (2308) die garnicht mal so unbeliebt ist, sehr wohl bereits SPGIO. Man braucht halt nur ne SB Strippe (mit Sideband also).
Hätte ich jetzt nicht vermutet, hätte erwrtet, daß das eher den "großen" Raidcontrollern mit Raid5/6 etc. und Controllercache vorbehalten ist....
Man lernt halt nie aus :-)

@tar
das https://www.heise.de/preisvergleich/fantec-src-4240x07-1873-a1620796.html?hloc=at&hloc=de wäre deutlich günstiger
 
Die BP vom SC836 hat doch "Fault"-LEDs oder habe ich das da oben falsch interpretiert?
Die BPN-SAS-836TQ hat 2 Modi, die man per Jumper wechseln kann: SGPIO (default) und I²C
Für SGPIO hat sie 4 Sideband-Anschlüsse.
Aja, die 24er-Cases hatte ich erst verworfen... aber mit dem Plan der 4 SSDs wäre das so wohl sogar besser als mit Extra-Trägern - bräuchte da nur 4x 2,5-auf-3,5 HDD Adapter für die SSDs.

Im Fantec sind wohl 2x Backplanes dieses Herstellers verbaut. Leider finde ich da nur diese Beschreibung, die aber nicht ganz hinhauen kann, weil da von 2 Stromanschlüssen geschrieben wird, während wir hier ganze 5 je Backplane sehen:

fantec_bp.PNG

Ich mutmaße mal wild herum, dass man nicht alle anschließen muss, wenn man kein redundantes Netzteil betreibt. Sicher bin ich mir aber nicht, weil es je Backplane eine ungerade Anzahl ist. Die ganzen Lüfteranschlüsse lassen aber zudem vermuten, dass die auch über die Stromanschlüsse angetrieben werden und wenn man sie nicht nutzt, eben auch nicht angeschlossen werden müssten. Welche da nun wie zugewiesen sind, bleibt ohne Beschreibung leider unklar.

In der Beschreibung der ähnlichen Backplane steht zumindest schon mal "Supports hard disk drive alarm functionality (SGPIO signal)", wobei das für diese Backplane natürlich nicht auch gelten muss. Überaus seltsam finde ich aber die kurze SGPIO-Kompatibilitätsliste, wobei es noch dazu ein "LSI 9708EM2" gar nicht gibt.

Wäre also schon interessant, mal die genaue Backplane und zugehörige Beschreibung herauszufinden.
 
@tar du brauchst keine Adapter für 2.5" > 3.5" bei dem Fantec Gehäuse, die Carrier haben die Bohrungen für 2.5" an der Unterseite.
 
  • Danke
Reaktionen: tar
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh