[Kaufberatung] NAS HW-Upgrade

Sin10

Enthusiast
Thread Starter
Mitglied seit
03.07.2012
Beiträge
83
Ort
Österreich
Hallo zusammen,

ich plane in der nächsten wochen / monaten ein HW upgrade für meine alte selbstbau NAS welche aktuell mit OMV rennt.

Bestand ist folgender:
Asrock AM1B-ITX AMD AM1
AMD Athlon 5350
8 GB DDR3 (ka wie schnell)
300 Watt PSU von Be Quiet

HDDS:
5x 4TB WD RED im Software Raid 5 via mdadm
1x 8 TB WD RED
1x WD Blue 450 GB 2,5" notebook hdd (test HDD)
1x Patriot 120 GB SSD als OS HDD


Upgrade entweder auf AMD oder auf Intel .. meine vorschläge:
AMD: https://geizhals.at/?cat=WL-1977553
Intel: https://geizhals.at/?cat=WL-1961532

Weiterverwendete hardware:
- 5x 4TB WD RED
- 1x 8 TB WD RED
- PSU => hier gilt die frage ob die leistung noch ausreichend ist
- die M2 ersetzt die 2,5" HDD+SSD

Die frage stellt sich was Pro / Contra ist für AMD bzw Intel?


Was habe ich geplant?
Alles zu virtualisieren, weil aktuell rennt alles im gefrickel direkt am OMV, was weder schön noch lustig ist wenn man alles neu machen muss.
Ich denke meine Wahl wird auf Proxmox fallen, weil das system direkt zfs zur verfügung stellt.
ESXi kann ja sowas nicht, somit müsste ich jede platte einzeln ins OMV reinmounten und dann in der VM Raid erzeugen. Klingt aber nach: gefrickel und keine ahnung was passiert wenn sich eine HDD verabschiedet. Ihr könnt mir dazu aber gerne Input geben.
Persönlich würd ich lieber ESXi vorziehn, einfach weil ich mich damit auskenne.

Sollte dann wie folgt aussehn:
- OS auf die M2 inkl viruteller maschinen
- OMV VM => Stellt den kompletten speicher im netzwerk zur verfügung => dh muss ich meine 5x4 TB HDDs wieder zu einen Software Raid vereinen
- 2 oder 3 debian VMs => da rennt nur die software alleine in der VM, die daten gehn via NFS in die OMV VM . Große datenmengen werden da aber nicht hin und hergeschoben.

Systemlast erzeugt meine software sowieso so gut wie keine. Mein AMD hat aktuell eine durschnittsauslastung von 0,11
Es kommt noch einiges an software dazu in nächster zeit, genau deswegen will ich nun alles trennen und virtualisieren. Aber die software ist nichts was last erzeugt.


Ich hoffe ihr könnt mir etwas auf die sprünge helfen!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Prinzipiell ist Proxmox wie OMV ein vollwertiges Debian das als Virtualisierungsplattform genutzt wird. Man hat also nach wie vor ein volles Linux als Basis. Die Hauptalternative ist tatsächlich ESXi. Hier hat man nur eine reine Startumgebung für VMs die über den Browser gemanagt wird. Es bleiben dabei deutlich mehr Resourcen für VMs übrig. Auch ist die Unterstützung von Nicht-Linux Gästen besser und ein System viel schneller nach einem Crash wiederhergestellt, insbesondere da man keinerlei Abhängigkeiten zwischen Virtualisierer, Storage und Diensten hat.

Die Lösung mit ESXi erfordert aber dass alle VMs virtualisiert sind, also auch Storage. Das Konzept habe ich vor ca 12 Jahren als All in One zusammen mit einer Solarisbasierten Storage VM (da kommt ZFS her). Mit dem Solaris Fork OmniOS der eine ideale und wohl die kompakteste Basis für einen vollwertigen ZFS Fileserver mit FC/iSCSI, NFS und SMB mit Web Management ist, stelle ich eine ZFS Template bereit das man nur bereitstellen muss, siehe mein HowTo dazu https://napp-it.org/doc/downloads/napp-in-one.pdf


Zur Hardware
Ich habe bisher immer Intel Serverboards genommen. Mit aktuellem Epyc bin ich aber am Umschwenken. AMD bietet doch erheblich mehr Leistung fürs gleiche Geld und auch deutlich mehr was z.B. PCI- Slots angeht, siehe meine aktuelles Serverkonfiguration und Vergleich zu meinem letzten (gleichteuren) Intel System vom letzten Jahr, https://napp-it.org/doc/downloads/epyc_performance.pdf
 
Zuletzt bearbeitet:
Das Gehäuse kann "nur" 2HE Netzteile aufnehmen und ist nicht für ATX, SFX oder TFX geeignet.
Ich hab bei mir gerade das Seasonic SS-500L2U verbaut, welches danke semipassivem Betrieb auch schön leise ist.
 
Beim freien ESX bekommst nur einen Bruchteil der Features von Proxmox. Eine echte Alternative wäre eher XEN-ng.

Im OMV Forum findest du eine passende Doku wie man es in einem LXC Container betreibt. Den Storage stellst du dann per Mountpoint bereit, z.B. ein simples ZFS Dataset. Sobald du anfängst HW durchzureichen, bist du an den Host gebunden. Replikation, Backup,.. ist ab dem Zeitpunkt nur noch begrenzt möglich.
 
Danke für eure antworten
Prinzipiell ist Proxmox wie OMV ein vollwertiges Debian das als Virtualisierungsplattform genutzt wird.
OMV ist nur ein halb vollwertiges debian. Hab immer wieder probleme gehabt software zum laufen zu bekommen, was in einen reinen debian problemlos laufen. Aber das ist ja jetzt dann egal
Die Lösung mit ESXi erfordert aber dass alle VMs virtualisiert sind, also auch Storage. Das Konzept habe ich vor ca 12 Jahren als All in One zusammen mit einer Solarisbasierten Storage VM (da kommt ZFS her)
Ich finde das ist halt nichts ganzes und nichts halbes. Die lösung mit Proxmox ist da echt gut.
Mit dem Solaris Fork OmniOS der eine ideale und wohl die kompakteste Basis für einen vollwertigen ZFS Fileserver mit FC/iSCSI, NFS und SMB mit Web Management ist, stelle ich eine ZFS Template bereit das man nur bereitstellen muss, siehe mein HowTo dazu https://napp-it.org/doc/downloads/napp-in-one.pdf
Danke für den input, aber ich bleibe richtung Proxmox
Ich habe bisher immer Intel Serverboards genommen. Mit aktuellem Epyc bin ich aber am Umschwenken. AMD bietet doch erheblich mehr Leistung fürs gleiche Geld und auch deutlich mehr was z.B. PCI- Slots angeht, siehe meine aktuelles Serverkonfiguration und Vergleich zu meinem letzten (gleichteuren) Intel System vom letzten Jahr, https://napp-it.org/doc/downloads/epyc_performance.pdf
AMD epyc bekommt man leider nicht so günstig wie die Intel Xeon. Deswegen auch die buged variante mit dem Ryzen.
Wobei ich trotzdem zum Intel System tendiere, obwohl es deutlich weniger leistung hat. Aber ich weiß das alles garantiert funktioniert.
In wirklichkeit ist das was ich zusammen gestellt habe schon massiver overkill für meine software anforderungen. Aber ich habe genug leistungs reserven für die nächsten zig jahre.
Das Gehäuse kann "nur" 2HE Netzteile aufnehmen und ist nicht für ATX, SFX oder TFX geeignet.
Ich hab bei mir gerade das Seasonic SS-500L2U verbaut, welches danke semipassivem Betrieb auch schön leise ist.
Danke, das hab ich ganz übersehn und danke für den tipp für das netzteil.

Beim freien ESX bekommst nur einen Bruchteil der Features von Proxmox. Eine echte Alternative wäre eher XEN-ng.

Im OMV Forum findest du eine passende Doku wie man es in einem LXC Container betreibt. Den Storage stellst du dann per Mountpoint bereit, z.B. ein simples ZFS Dataset. Sobald du anfängst HW durchzureichen, bist du an den Host gebunden. Replikation, Backup,.. ist ab dem Zeitpunkt nur noch begrenzt möglich.
okay, also deuten die zeichen schon richtung proxmox bzw XCP-ng, wobei ich mir XCP erstmal genau anschauen muss.
Laut div. foren einträgen geht OMV nicht in einen LXC Cointainer, weil OMV ein block device braucht. Wobei es wäre die schönere lösung den storage einfach in die VM durchzureichen.
Aber da muss ich dann sowieso etwas probieren und mich spielen.
 
Ich habe mich nun für das Intel system entschieden - einfach wegen den support. AMD wär mir lieber gewesen, aber ein TR oder die Epyc plattform ist mir dann doch zu teuer.
Board + CPU hab ich mal... Rest wird nach und nach gekauft.

Aber mal eine frage an euch:
Würdet ihr HDDs wiederverwenden was eine reine laufzeit von über 6 Jahren haben?
Die ersten 3 HDDs haben das nämlich schon erreicht... oder vl dann doch gleich neue und vor allem größere platten kaufen. Gedacht hab ich an 5x12 TB => WD Red/Gold


Software: Es wird Proxmox mit ZFS.
allerdings müsst ihr mir da etwas auf die sprünge helfen...

Das zfs wird in eine omv vm rübergegeben
zusätlich will ich eine backup hdd mit in omv rübergeben für backup der wichtigsten daten. Diese soll aber dann nicht ständlig laufen, sondern eben nur wenn das backup rennt (ein mal die woche). So wie das raus gelesen habe ist das dann aber nicht so einfach die hdd in standby setzen zu lassen.... die muss ja nicht ständig rennen.

gibs da irgend einen guten weg wie ich das relaisiern kann? hat da wer erfahrung von euch?
 
Das Gehäuse kann "nur" 2HE Netzteile aufnehmen und ist nicht für ATX, SFX oder TFX geeignet.
Ich hab bei mir gerade das Seasonic SS-500L2U verbaut, welches danke semipassivem Betrieb auch schön leise ist.
Das NT hab ich auch schon laengers auf dem Radar und hätte ein paar Fragen:
- Wo bezogen (war Zubehör (Kabel) dabei)?
- Bis wieviel Watt ca ist es lautlos und falls der Luefter anläuft wie verhält sich die Hysterese (aufheulen oder angenehm)?

Hab damals aus dem Grund extra nen 2HE Case mit ATX NT Slot (+ Seasonic SFX-L) gekauft.

@Sin10 wenns im Idle sparsam sein soll und IPMI wichtig ist, führt kein Weg an Intel vorbei.
 
Ich hab das Seasonic NT bei Alternate gekauft. Es war keine Verpackung dabei sondern nur in Luftpolsterfolie eingewickelt und mit allen modularen Kabeln.
Der Lüfter läuft langsam an, bisher habe ich das NT nicht aus meinem Server heraus hören können, da sind die 4x 80mm Serverlüfter (1300-1800rpm bei mir) lauter.
 
Alles klar, danke. Grad bei Alternate hat ichs auch im Auge aber bei anderen Server NTs war als Comment erwaehnt das es ohne Kabel kommen wuerde, und der Support wusste es selbst nicht...
 
Waren alle Kabel dabei und alle modularen Anschlüsse am NT konnten belegt werden. Bin sehr zufrieden.
 
Würdet ihr HDDs wiederverwenden was eine reine laufzeit von über 6 Jahren haben?
Ja. 6 Jahre sind nicht immer gleich 6 Jahre. Der eine hat 4000 Stunden in 6 Jahren erreicht (weil Server nicht 24/7 läuft), der andere hat 30.000 Stunden. Die eine Platte verabschiedet sich nach 2 Wochen, die andere läuft auch munter weiter nach 12 Jahren.

So lange der Platz reicht, S.M.A.R.T. keine Fehler meldet und keine seltsamen Geräusche vorhanden sind sehe ich keinen Grund, warum man perfekt funktionierende Platten im häuslichen Umfeld entsorgen sollte.
 
@oNyX` jap, auch ein grund warum zu intel - weil die hardware wird einfach zu 90 % im tag einfach im IDLE sein. Und da wäre ganz gut wenn er dann etwas sparsamer ist. Wobei die festplatten brauchen halt auch immer etwas strom

@tolga9009 @Trambahner
hier mal die smart werte von der platte was am meisten stunden runter hat, aber auch am saubersten von den werten her ist

Code:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   200   200   051    -    0
  3 Spin_Up_Time            POS--K   176   174   021    -    8191
  4 Start_Stop_Count        -O--CK   100   100   000    -    190
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0
  7 Seek_Error_Rate         -OSR-K   200   200   000    -    0
  9 Power_On_Hours          -O--CK   025   025   000    -    55099
10 Spin_Retry_Count        -O--CK   100   100   000    -    0
11 Calibration_Retry_Count -O--CK   100   100   000    -    0
12 Power_Cycle_Count       -O--CK   100   100   000    -    111
192 Power-Off_Retract_Count -O--CK   200   200   000    -    93
193 Load_Cycle_Count        -O--CK   176   176   000    -    73014
194 Temperature_Celsius     -O---K   119   103   000    -    33
196 Reallocated_Event_Count -O--CK   200   200   000    -    0
197 Current_Pending_Sector  -O--CK   200   200   000    -    0
198 Offline_Uncorrectable   ----CK   200   200   000    -    0
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
200 Multi_Zone_Error_Rate   ---R--   200   200   000    -    0

eine hat bei ID#200 13 erros, eine andere hat bei #196 4 errors, das wars dann aber auch schon mit den fehlern. Wobei nicht alle gleich lange gelaufen sind.

ich denke ich werde aber auf 5x12 TB upgraden im raid, weil man ja bei zfs nicht einfach mal eben eine neue platte im verbund hinzufügen kann. Und der speicherbedarf wird nun anständig ansteigen.
Die alten platten werden aber keinesfalls entsorgt - da werden 2 davon als backup für die wichtigsten daten eingebunden, Und für die anderen gibs auch verwendung ;)
 
Ja... Das Drama mit einem 2HE Netzteil... Bin ich grad auch bei. Das Board hat warum auch immer (X9SCL+-F) einen 8pin für die CPU :poop:
Aktuell bin ich bei einem FX350-G hängen geblieben. Glasklar mit einem Noctua Lüftermod.

Andere Frage wäre, warum ich nicht einen Flex-ATX nehmen sollte und den Lüfter wie beim HEC 250SR-AT Flex-ATX bauen... Wärme steigt eh nach oben und ein 2U Gehäuse mit so einem Flex-ATX, da ist noch genug Luft zwischen deckel und Netzteil (?)

Irgendwie riechts nach einem Vollmod aus :geek: :cautious: 1HE, keine Chance für nichts. Da weiß man warum man sich drauf einlässt. 3HE, da passen schon oft ATX oder wenigstens TFX/SFX.
2HEist irgendwie kein Fisch-kein Fleisch. Das ist meist irgendwie für 2x 1HE ala redundant. Keine Lust mich mit 1He Flex-ATX zu quälen. Wird wohl ein Umbau werden.

edit:
Der FX350-G hat übrigens sehr wohl eine Regelung. Das Prob ist nur, daß sie das ne Weile versemmelt haben und kaputte Steuerung verbauten :rolleyes2: mit welcher der Lüfter permanent 100% dreht. Die haben sogar eine Anleitung wie man das außerhalb des Gehäuses testet. also ohne Last anwirft um zu schauen, ob der Lüfter sehr langsam dreht.
1x mit Profis arbeiten... Elektrisch gefällt es mir aber recht gut. Die DC/DC Seasonics sind aber ebenfalls schon top. Nur eben nichts SO gutes in 350W.
 
Zuletzt bearbeitet:
Nun hol dir doch bitte einfach das Seasonic SS-500L2U... ich verstehe dein Problem nicht...
Warum willst du umbedingt unbequeme Sonderlösungen + Umbau?
 
Den L2U gibt es ja auch mit 400W. Warum sollte ich den 500er nehmen? Hat der L2U denn eine 8pol "CPU" Strippe? DAS wäre die eine entscheidende Information ;) (wie oben geschrieben). Nehme aber an, damit ist "EPS12V" gemeint.

Ich schau mir also grad dei SS an. Wäre schon ok :) Was ich allerdings echt nicht finde, was für Strippen genau da mitgeleifert werden (SS "Datasheet" ist eher so... Datashit) Und bei den Händlern, OB überhaupt welche beiliegen (und welche). Wasist das denn für Schwachsinn mit der "Bulk".

Ich kaufe umgehend einen SS-400L2U mit allen Kabelln :) Bitte schickt mir einen Link in bezahlbar...
 
Zuletzt bearbeitet:
Ja, der hat einen 8-Pin EPS für die CPU. 400W kostet mehr und ist schlechter verfügbar... Ich hab die 500W Version genommen da dieser dann länger im passiven Modus ist, als die 400W Variante.
Im Verbrauch nehmen die sich mit Sicherheit keinen Unterschied.
Das hier habe ich und da waren alle Kabel dabei (ist halt ohne schöne Verpackung...): https://www.alternate.de/Seasonic/SS-500L2U-Bulk-PC-Netzteil/html/product/1152823
 
Ok. Kabel sind aber immer alle dabei? Egal ob Bulk oder nicht?

Im Verbrauch nehmen die sich mit Sicherheit keinen Unterschied.
Netzteile haben unter 20% Last eine graunevolle Effizienz. Das ist also schon eine brauchbare Frage imho. Grad weil ich wohl niemals über 100W im Idle komme.

edit:
400W geordert. Kommt laut Händler mit allen verfügbaren Kabeln :) Vielen Dank für die Beratung.
 
Zuletzt bearbeitet:
Es b leibt noch das Gehäuse. Erstmal Inter-Tech 2408. Wer hat was besseres - UND WARUM - zu empfehlen? Noch und nöcher teurer muss nicht... ;)

Lüftermod auf Noctua ist fest geplant (!) Das Board hat aber 4x PWM für Gehäuse (+ 1x für die CPU), ich muss also keine behämmerten Adapter für irgendwelche abgef...ten 6pol Lüfteranschlüsse der Backplanelüftern basteln.
 
ich sehe schon, @Uhrzeit hat ungefähr den gleichen plan wie ich :d

allerdings ist nach den HW upgrade meine VM-HW deutlich stärker wie mein desktop PC - der muss aber warten mit dem upgrade :fresse:
 
@Sin10
Naja... Fast ;) Ich rüste um mit Hw von 2012 :d Neu ist nur das Netzteil und das Gehäuse (und die Platten). Es gibt ebenfalls keine VMs, womit auch ein E3-1265Lv2 dicke ausreicht.

Das Ding macht nur NAS/Dateiserver. Alle Clients arbeiten auch jeweils nur mit Daten die sie auch lvon selbst verarbeiten können, also muss da auch kein Mediagedöns drauf rumlaufen. Das macht das Leben entscheidend einfacher ;)
 
Zuletzt bearbeitet:
Es b leibt noch das Gehäuse. Erstmal Inter-Tech 2408. Wer hat was besseres - UND WARUM - zu empfehlen? Noch und nöcher teurer muss nicht... ;)

Lüftermod auf Noctua ist fest geplant (!) Das Board hat aber 4x PWM für Gehäuse (+ 1x für die CPU), ich muss also keine behämmerten Adapter für irgendwelche abgef...ten 6pol Lüfteranschlüsse der Backplanelüftern basteln.
Wenn 4HE auch gehen würde:
+ Kostengünstiger (billiger oder preiswerter?)
+ geringere Tiefe (ist für den ein oder anderen ja durchaus von Bedeutung)
+ ATX Netzteil möglich
- keine direkte Belüftung der HDDs (Mesh unterhalb der HDDs)

3HE; https://www.heise.de/preisvergleich/fantec-src-3168x07-1781-a1265468.html?hloc=at&hloc=de
+/- geringer Aufpreis
+ 16 HDDs möglich
+ direkte Belüftung der HDDs

- deutlich teuerer
+ 16 HDDs möglich
+ ATX Netzteil möglich
+ direkte Belüftung der HDDs
 
Zuletzt bearbeitet:
Ich guck mir das alles noch an. Danke.

Aktuelle Frage bei Aufrüstung:
Auf älteren Boards USB 3.x nachrüsten. Es gab eine recht gute Karte die aber quasi nicht mehr erhältlich ist. Zwar mit Renesas, aber halt ausreichend. Das war diese und die lief schon unter FreeBSD 10

Welche von den aktuell erhältlichen (muss ja keine 3.1Gen2 sein, 3.0 reicht schon), also welche von solchen Karten läuft unter XigmaNAS/TrueNAS?
Ich hab natürlich gesucht, aber wirklich gute Infos sind irgendiwe rar. Oder ich benutze nicht die richtigen Stichwörter beim Suchen.

Wenigstens 1x Pfostenstecker und extra Stromversorgung wären schon wichtig. Die Syba wäre mir echt noch am liebsten :(

p.s.:
Warum wird mal von 19 und mal von 20 Pin Pfostenstecker gesprochen (?)
 
20 Pin = Original Pfostenleiste >> Stecker mit "verstopften" Pinloch können nicht ohne abknipsen des entsprechenden Pins gesteckt werden
19 Pin = 1 Bin "abgeknipst", damit Stecker mit "verstopften" Pinloch gesteckt werden können

2 USB3 Ports benötigen theoretisch 2 10 Pin Reihen, bei den 19 Pin wird halt einmal Masse zusammengefasst
Das Ganze gilt als "Verpolungsschutz"
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh