[Guide] NAS/Server Hardwareguide 2020

Status
Für weitere Antworten geschlossen.
Ich brauch mal ne Anregung. Hab zurzeit nen Epyc 7282 im Homeserver, aber ich hab das Gefühl, dass mir für manche Sachen die Kerne ausgehen. An zu wenig Takt glaube ich eigentlich nicht, da vor allem Server-Dienste darauf laufen. Leistung fressen am meisten wohl verschiedene Game-Server (Conan, Minecraft usw.).

Was wäre denn ein sinnvolles und vor allem preiswertes Slot-in Replacement für die CPU mit mehr Bumms? Ich dachte an so 32 Kerne? Bin gerade zu unmotiviert, die verschiedenen Specsheets zu wälzen. Board ist ein Supermicro H12SSL-C.
AMD mit Segment: Server, CPU-Serie AMD: Epyc 7002/Epyc 7003, Kerne ab 24

Epyc 7453? 28C Zen3? ~1100€

Du hast im Grunde die freie Auswahl. Preiswert ist halt so 'ne Sache.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hatte auf so'n Geheimtipp-Preisleistungswunder gehofft... ;)
 
Hatte auf so'n Geheimtipp-Preisleistungswunder gehofft... ;)
Einen regulären Tipp habe ich leider nicht. Was mir aber auffällt, dass alle Jubeljahre hier und da mal ein Epyc zum sehr günstigen Preis aufpoppt.
Bei Mindfactory gab es in den letzten 3 Monaten zwei mal supergünstige Epyc-Einzelstücke im Mindstar mit irgendwas bei 50%-60% des regulären Preises. Da hat's bei mir schon gezuckt, aber ich laste ja den 7282 schon bei weitem nicht aus. Was soll ich da mit 64 Kernen :-) .

Vor kurzem gab es den 7282 bei Amazon mal punktuell für 322€. War halt immer auf der Warenkorbmerkliste und dann bin ich auch nochmal schwach geworden. Wenn bei solchen Aktionen nur die Folgekosten nicht immer wären...

Epyc 7282 kostet im Moment nur noch ~420€. Wechsel auf ein 2-CPU-Mainboard? Braucht natürlich auch wieder mehr von allem - Energie, RAM, Boardspace, Belüftung - und mehr Komponenten die ausfallen können. Eine CPU ist da schon mehr KISS. Von daher würde ich eher Richtung Zen3 tendieren, wenn mehr Leistung benötigt wird.

Vielleicht hat ja noch jemand einen Tipp, wie man bei so exotischeren Sachen die Tagespreise gut im Blick behalten kann. Bei Mydealz wird sowas vermutlich eher nicht auftauchen.
 
Ich brauch mal ne Anregung. Hab zurzeit nen Epyc 7282 im Homeserver, aber ich hab das Gefühl, dass mir für manche Sachen die Kerne ausgehen. An zu wenig Takt glaube ich eigentlich nicht, da vor allem Server-Dienste darauf laufen. Leistung fressen am meisten wohl verschiedene Game-Server (Conan, Minecraft usw.).
puh kann ich mir nur sehr schwer vorstellen das dir wirklich die 'Kerne ausgehen' wegen 'Server-Dienste' vorallen welche Server Dienste brauchen bei dir soviel Leistung.
Ich kenne das halt nur bei so sachen wie Folding@home oder ähnliches.
Gerade Gameserver wie MC brauchen halt nicht viele langsame Kerne sondern wenige schnelle.
Zudem ist halt der Epyc 7282 halt weder besonders alt noch wirklich schlecht und hat eine relative hohe Singelcore Leistung hat in Vergleich zu vielen anderen CPU's mit so hohen Kernzahl.
 
Ich werd nochmal bisserl genauer die Server- und VM-Auslastung beobachten. Vielleicht klemmt's ja doch woanders. Sehe in der Tat grad noch nicht ein, jetzt vierstellig in die Kiste zu stecken. Zur Not reaktivier ich meinen "Threadripper-Server", mit dem 3960X gäbs ja dann nochmal 24 recht flotte Kerne dazu und der müsste wahrscheinlich nichtmal 24/7 laufen.
 
Servus,

Ich habe da Mal eine Frage, ihr kennt euch da besser aus.
Was mache ich damit: HP M6720
Das ist rein ein Disk Enclosure oder wie sich das nennt oder? Sprich, da steckt man nur HDDs rein und verbindet das Ding mit nem Controller in einem anderen Server oder?
Hintergrund der Frage: Ich habe schon einen Server mit 16Bays und will mir nochmal was für 24Bays zu legen. Es muss allerdings kein wirklich eigener Server sein. Mir würde es auch reichen, wenn ich nur die Platten in was anderes auslagern würde. Dann spare ich mir ein weiteres MB mit Zubehör und gibt auch nur einen Server zu warten. Auf dem 16er läuft schon TrueNas Scale.

Oder wie würdet ihr das ganze lösen?

Gruß Turbo
 
Die NetApp und der HP sind doch mehr oder weniger vergleichbar oder? Womit ich noch Probleme habe: Der HP hat 6 Ports hinten und die NetApp 4 Ports. Was für einen HBA brauche ich denn dann? Muss der dann 6 bzw. 4 externe Ports haben? Und wie schaut es aus, wenn es SAS Expander Backplanes sind? Bei einer Expander Backplane würde doch dann auch ein externer Port reichen oder?
Und welche HDDs passen in die NetApp? Kann ich da 20TB Platten reinschieben oder laufen nur die, die drin sind?
 
Die 3par Kiste hat auch nur 4 SAS Ports. Die anderen 2 sind keine SAS, wofür die waren kriege ich aber nicht mehr zusammen.
Die haben soviele Ports, weil man damit SAS Topologien aufbaut. Das sind SAN Enclosure, dementsprechend ist Hochverfügbarkeit > alles und daher eben mehrere Pfade. Das geht soweit, dass die 2 Controllernodes haben, eben damit nichts passiert, wenn man wo ein Fehler ist.
Grundsätzlich reicht auch ein SAS Ports am Controller.
Ob 20TB laufen, muss man testen, sollte aber in der Regel gehen, weil die Enclosures kaum Intelligenz haben und der (SAN)Controller alles regelt.
 
D.h. die Ports sind doppelt ausgeführt wegen der Ausfallsicherheit genauso wie die Netzteile.
Ob NetApp oder HP ist dann wurscht? Oder geht HP dann zb, auch nur an nem HP Controller oder sowas? Mich macht etwas stutzig, dass die alle so günstig sind :)
 
Das dürfte wurscht sein. Dem Enclosure ist der Hersteller des Controllers egal. Der spricht SAS. (es gibt aber mitunter gewissen Inkompatibilitäten)
Die kosten nix, weil die keiner mehr haben will. Das schieben die RZs LKW weise raus. Und wiederverwenden macht auch keiner, die, die es brauchen, brauchen Support, das nimmt man nix ausgeleiertes, wo er Hersteller eh schon vergessen hat, dass es das gab. Die Preise richten sich also an Firmen die das System unbedingt weiterbetreiben willen (Ersatzteile), und kein Geld für was Neues haben, oder an so Durchgeknallte wie dich. ;)

Ich habe in der Firma auch auch irgendwie 6PB in solchen Enclosures rumstehen.
 
Guten Morgen

Ich suche nach einer guenstigen Moeglichkeit um meine Synology DS218 off-site zu sichern. Ein Wireguard Tunnel zu meinen Eltern steht bereits.

Nun koennte ich guenstig eine DS216+II ersteigern. Was denkt ihr? Zu alt oder wuerde das NAS als off-site Backup taugen? Fuers Backup wuerde ich Hyper Backup verwenden. Den Arbeitsspeicher koennte ich theoretisch auch noch erhoehen.

Vielen Dank fuer eure Antworten.
 
Die würde ich nicht mehr nehmen. Es ist damit zu rechnen, dass sie ab nächstem Jahr keine Updates mehr bekommt.
(das gleiche gilt dann btw. auch für die 218, aber eben etwas später)
Wenn du die für 50EUR bekommst, dann evtl. ja.

Soll die nur fürs Backup dienen, also keine Dienste oder sowas?
Dann würde ich eine 223j nehmen, wenn man neu kauft(sind halt 200 Taler) oder eine vergleichbare, etwas ältere wenn günstig gebraucht, z.B. 220j oder sowas.

Musst du für die abwägen, wieviel Geld du hast und woran man für welchen Preis rankommt.
 
Genau, reines off-site Backup. Koennte das NAS fuer 50 kaufen, 8GB wuerden zuesaetlich 15 kosten.

Beim 223j stoert mich ein wenig der RAM (512).

Laengerfristig bin ich mir aber sowieso am ueberlegen auf eine DIY Loesung umzusteigen (ggd. OMV).

Viele Gruesse
 
Wenn es aber nur fürs Backuppen ist, da brauchste nichmal 64MB RAM für.
Wie gesagt, ohne Updates wird es irgendwann zäh, besonders wenn die Systeme einen unterschiedlichen Stand haben und ggf. dann das Backuptool wegen Versionsunterschiede nicht mehr geht.

Wenn du mittelfristig ne andere Lösung anstrebst, dann kann man das 216 zum später eh wegwerfen nehmen.

Ich würde anschließend auf ein TrueNAS/ZFS System setzen. Dann hast du auch bei der Replika die ZFS basierten Funktionen und damit eine bessere Konsistenz beim Backup. (wenn man es richtig einstellt)
 
Gibt es eigentlich irgendeine Möglichkeit in einem normalen Server Mainboard, U2 oder U3 SSDs nachzurüsten?

Könnte man sowas hier zB. 3x einbauen und so 12x U2/3 SSDs verwenden auch wenn das Board kein Bitfurcation kann?


Irgendwie sind derzeit ja U2 SSDs mit 7TB+ günstiger als SATA SSDs
 
An sich kann man das alles machen.
man braucht dann nur so ein Kabel:
+ entsprechend Strom-Ports vom NT
Alternativ
oder
kann 8x SSD
+

Alternativ
"Controller" deiner Wahl
+
+
oder
(je nach "Controller" und dessen Porttypen)

Und ja, die brauchen kein Bifu, weil die richtigen alle einen PLX sprich PCIe Switch verbaut haben. (Bifurcation nicht Bitfurcation, das steht für Gabelung)
Aber obacht, PCIe ist etwas störrich, daher immer kurze Kabel verwenden. (siehe andere Threads hier, ggf. in meiner jüngsten Posthistorie suchen, das war die Tage erst Thema) Weiterhin können die PLXen aktuell nur PCIe 3.0, was den Speed begrenzt.

Ob sich das rechnet, ist die Frage. Am Ende muss die SSD nur groß genug und damit teuer sein, damit der Kabel/Controller Preis nicht mehr so ins Gewicht fällt.
Außerdem sollte man beachten, dass die U.2/3 SSDs in der Regel Enterprise SSDs sind und damit entsprechend Strom ziehen, auch/insbesondere im IDLE. 24/7 longterm ist SATA ggf. dennoch die bessere Wahl. (je nach Typ) Wer seinen Strom nicht bezahlt (Solar z.B.), muss anders rechnen.
Ansonsten jedes 1 Watt 24/7 im Jahr ~2,6EUR.
 
Zuletzt bearbeitet:
auch hier gern mal gucken


da gibts sowas inkl redriver/retimers

für normale U2 sollten aber auch die neueren Broadcom SAS HBA (z.B 9xxx Trimode) reichen die ja auch U2 PCIe unterstützen
 
Zuletzt bearbeitet:
Schwierig.
1. keine PLX basierten Varianten und damit braucht das MB unbedingt Bifu (die Frage oben war ne andere)
2. ist das zu einem gewissen Maße eher unter experimentiell zu verbuchen
3. Trimode HBAs werden von einigen Anwendungen nicht unterstützt, z.B. VMware vSAN mit ESA

Trimode HBAs hätten den Vorteil, dass man (höhere) RAIDs für NVMe fahren könnte.
 
Zuletzt bearbeitet:
Vielen dank für die Antworten!

Würden denn ein Trimode HBA auch ohne Bifu funktionieren? Die Geschwindigkeit wäre eigentlich fast egal, da würde auch sata gut ausreichen.

Ich überlege halt derzeit hauptsächlich wegen der Lautstärke auf SSDs umzusteigen, nur ist das gar nicht so einfach, weil ich dann vom Speicher her 10x 7,68TB bräuchte (Raid Z3).

Und in der Größe gibt es derzeit leider keine Consumer SSDs. nur SATA SSDs liegen bei mind. 600€, während U2 SSDs teilweise schon für 400€ erhältlich wären. Daher der Gedanke.
 
Trimode ist nichts anderes als ein SAS Controller, der auch PCIe bzw. darauf aufbauend NVMe kann. Der hat mal also zu CPU hin seine normalen PCIe lanes und in Richtung Laufwerke entweder SAS oder (seine eigenen) PCIe lanes.
Allerdings muss man da stark aufpassen.
Ein 16er Trimode Adapter kann 16 SAS/SATA Laufwerke, aber nur 4 NVMe, mit Standardkabeln.
Das liegt daran, dass Standardkabel immer mit 4 PCIe Lanes arbeiten und ein 16er Controller eben 4x 4 Lanes hat.
Will man davon abweichen, braucht es wieder spezielle Kabel, die entweder aus einem 4er 2x 2er machen oder einem 8er Port 4x 2er. Es gibt aber auch Config mit aus 8 mach 8x 1.
Kurzum, es gibt da viele Möglichkeiten.
Wenn du ZFS machen willst, würde ich versuchen mit einfachen PLXen zu arbeiten.

Ansonsten bekommt man doch ne 8TB Samsung QVO für etwas über 300EUR. (klar, kein Enterpriseprodukt...)
 
QVO? kann man machen wenn da i.w. nur Readonly-Daten wie z.B. Medienarchive oder ISO-Files liegen. Also "einmal schreiben, dann nur noch lesen".

Wenn permanent Daten geschrieben werden, würde ich von QVOs als ZFS-Devs stark abraten. Sobald der SLC-Cache voll ist, bricht die QVO gnadenlos ein. Die kleineren meine ich unter 100 MB/s bei sequentiellen Zugriffen, die großen da auf 160 MB/s.
Ferner ist die Haltbarkeit der Zellen bzgl. Schreibvorgängen halt auch deutlich eingeschränkt.
 
QVO? kann man machen wenn da i.w. nur Readonly-Daten wie z.B. Medienarchive oder ISO-Files liegen. Also "einmal schreiben, dann nur noch lesen".

Wenn permanent Daten geschrieben werden, würde ich von QVOs als ZFS-Devs stark abraten. Sobald der SLC-Cache voll ist, bricht die QVO gnadenlos ein. Die kleineren meine ich unter 100 MB/s bei sequentiellen Zugriffen, die großen da auf 160 MB/s.
Ferner ist die Haltbarkeit der Zellen bzgl. Schreibvorgängen halt auch deutlich eingeschränkt.
Hat bei mir bei Raid 5 mit 4 SSDs immer noch für 500MB/s+ gereicht. Ich seh zwei Vorteile bei den Dingern. Geringer Stromverbrauch und weniger WakeUp Zyklen bei Festplatten. Bei Daten unterscheide ich zwischen Frequent und Infrequent Access. Letztere landen auf meinen Festplatten. Die fahren dafür nicht so häufig aus dem Ruhezustand. Erstere landen auf den SSDs.
 
Hi Leute,
hab momentan ein debian 12 system mit zfs (bislang ein mirror) und einigen containern (paperless, archivebox, linkding, kein streaming geplant) auf nem 2013er xeon. Die Kiste war umsonst und ganz gut fürn Einstieg, aber idled momentan bei 65W rum, daher hier der Versuch es etwas besser zu machen.

Der Build ist angesetzt um nicht auf ECC verzichten zu müssen. Daher hab ich um den i3-9100 gebaut, da das der letzte i3 ist, der das noch supportet.
Zu RAM Kompatibilität konnte ich auf der supermicro Website nicht viel finden, google hat das ausgespuckt. Das wirkt recht günstig, weiß wer ob die Seite legit ist?
Jemand Erfahrungen mit dem Board, irgendne Idee was ich da ein Idle Verbrauch erwarten kann?

Ich hab das Board nicht wirklich ausgewählt, weil ich IPMI unbedingt brauche, oder 4 NICs. Es war halt das günstigste lieferbare.
Hab rausgefunden, dass für stromsparende Builds da eher das Fujitsu D3644-B bevorzugen. Das schaut sehr nett aus, aber nicht lieferbar. Wie schaut es bei dem mit RAM Kompatibilität aus?
 
Ich zitiere mich hier einfach mal selbst, wobei der i3 8100 hier rumliegt und durch einen 2126G ersetzt wurde. (Falls du interesse an einem gebrauchten i3 8100 hättest ;))
Beim Wechsel wurden die P-States aktiviert und das Unraid über Powertop optimiert.
Denk Verbrauch mit Platten im Spindown ging damit ein gutes Stück runter.

Hab etwa 33% C7, 2,5% C8 und 30% C9 damit.
Läuft aktuell ein Firefox Docker und eine HomeAssistant VM

Habs aber net gemessen. Sollte damit aber <20W sein.

Ich hatte das ähnlich bei mir laufen: Is halt ITX ohne IPMI vs ATX mit IPMI. Würde Idle also min mit 25W rechnen
  • Gigabyte C246N-WU2 ITX Board
  • Intel i3-8100 (unterstützt ECC RAM) Boxed
  • 8GB Kingston ECC-RAM 2666MHz KSM26ES8/8ME
  • Samsung PM961 128GB m.2 SDD
  • SAS auf 4x SATA Kabel
Dafür hab ich Anfang des Jahres 250€ inkl. hier im Forum gezahlt.

Den 8GB Kingston Stick hab ich mit 2x 16GB Kingston ECC getauscht, die PM961 garnet benutzt und dann Toshiba 14TB Festplatten rein.

Nen Unraid mit 5x14TB zieht bei mir Idle (Platten im Spindown) ~22W

PS. aktuell is sogar nen gebrauchtes C246 ITX bei eBay Kleinanzeigen drin ;)
 
Falls es jemanden interessiert:
  • Gigabyte C246N-WU2 ITX Board
  • Intel XEON E2126G 6C/6T
  • 2x 16GB Kingston ECC-RAM 2666MHz KSM26ED8/16HD
  • 2x Crucial CT500 MX200
  • 5x Toshiba 14TB MG07ACA14TE
  • FSP FSP350-60EGN 350W Gold
Mit aktivieren C/P-States sowie im Unraid mit powertop --auto-tune durchgeführt, Platten im "Spin-Down" und CPU Scaling Governor auf Power Save komme ich mit abgeschalteten VMs und Dockern auf einen Verbrauch von 15,2W. Ohne aktivierte C/P-States und ohne powertop waren es vorher mit Platten im "Spin-Down" etwa 22W

Platten weiterhin im "Spin-Down", Home-Assistant VM sowie ein paar Dockern dann etwa 17W

Habe auch noch eine Win10 VM, damit werde ich die Tage vlt. noch etwas testen und den Verbrauch messen. Messgerät hängt ja jetzt am Server.
 
Zuletzt bearbeitet:
Falls es jemanden interessiert:
  • Gigabyte C246N-WU2 ITX Board
  • Intel XEON E2126G 6C/6T
  • 2x16GB Kingston ECC-RAM 2666MHz KSM26ED8/16HD
  • 2x Crucial CT500 MX200
  • 5x Toshiba 14TB MG07ACA14TE
  • FSP FSP350-60EGN 350W
Mit aktivieren C/P-States sowie im Unraid mit powertop --auto-tune, durchgeführt Platten im "Spin-Down" und CPU Scaling Governor auf Power Save komme ich mit abgeschalteten VMs und Dockern auf einen Verbrauch von 15,2W. Ohne aktivierte C/P-States und ohne powertop waren es vorher mit Platten im "Spin-Down" etwa 22W

Platten weiterhin im "Spin-Down", Home-Assistant VM sowie ein paar Dockern dann etwa 17W

Habe auch noch eine Win10 VM, damit werde ich die Tage vlt. noch etwas testen und den Verbrauch messen. Messgerät hängt ja jetzt am Server.
also 1W weniger als mein 12400 auf nem Asrock H670 itx unter Proxmox mit 2*2TB (im ZFS mirror, was CState auf 3 Limitiert, da Chipsatz dauerhaft aktiv) Nvme und 2* 4TB SSds und 2* 12TB HDDS (die 2 SSds und 2 HDDs laufen per passthrough des Intel onboard in Freenas Scale jeweils als ZFS Mirror) ohne powertop/Govener :)
 
Zuletzt bearbeitet:
also 1W weniger als mein 12400 auf nem Asrock H670 itx unter Proxmox mit 2*2TB (im ZFS mirror, was CState auf 3 Limitiert, da Chipsatz dauerhaft aktiv) Nvme und 2* 4TB SSds und 2* 12TB HDDS (die 2 SSds und 2 HDDs laufen per passthrough des Intel onboard in Freenas Scale jeweils als ZFS Mirror) ohne powertop/Govener :)
Was für ein Netzteil nutzt du?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh