[Kaufberatung] Selbstbau NAS mit 8 Platten - oder fertiges System?!

Dominik

Enthusiast
Thread Starter
Mitglied seit
03.06.2003
Beiträge
186
Hallo zusammen,

mittelfristig brauche ich deutlich mehr Platz, da ich mir einen größeren Video- und Audio-Server gönnen will. Nebenbei müssen auch noch die ganzen privaten Daten, insbesondere Fotos dort abgelegt werden. Mein altes 2-Bay Synology platz bald aus alle Nähten, es soll also was schnelleres und größeres her. Ebenfalls mittelfristig ist der Umstieg auf 10GBit/s geplant, allerdings wird die Hauptlast vermutlich das Streamen von UHD Videos oder Musik sein.

Da NASen mit 8 Bays schon recht teuer sind, dachte ich auch über einen Selbstbau nach. Platzprobleme sollte es im Keller keine geben, auch zu warm wird es dort nicht, weswegen mich die Lautstärke eher nicht so interessiert.

Ich dachte so an folgendes:
- 8x 10TB HDD, z.B. Seagate Ironwolf
- Ryzen 2200G
- 16GB ECC RAM
- X370/470 Board mit 8x SATA
- 128GB SSD für OS
- 19" Gehäuse mit 8x HotSwap

Das OS könnte z.B. FreeNas oder OpenMediaVault sein. Eine 10GBit NIC, z.B. Intel X540 könnte ich nachrüsten. Die Platten würde ich in einem RAID 6 o.ä. betreiben, also 60TB Nutzdaten, 2x 10TB Spare.

Macht sowas Sinn, v.a. mit dem Ryzen?
Oder gibt es bessere Alternativen?

Danke & Grüße,
Dominik
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wirst wohl 7 Platten nehmen müssen + ssd oder noch ne controller Karte für nen 9ten Port ;)

falls dir 10G zu teuer ist und du mehrere Geräte oder VM´s auf der Kiste laufen hast kannst du ja evtl auch nen Port mit 4x 1GBit etc.. nehmen.
Supermicro X11SSH-LN4F retail ab Preisvergleich Geizhals Deutschland
boards mit 2x x540 onboard (1x gibts afaik nicht) kosten halt auch schon ~350€
Supermicro X11SSH-TF retail ab Preisvergleich Geizhals Deutschland

wobei du bei sowas dann auch gleich 400€ fürs board ausgeben kannst -> 16 ports + 2x 10gbit
Supermicro X11SSH-CTF retail ab Preisvergleich Geizhals Deutschland

Wenn das der einzige PC im Keller ist brauchst du noch fast nen Monitor und ne Tastatur etc... alternativ halt nen Board wo du die entsprechenden Fernwartung Möglichkeiten über nen Netzwerkport hast.

bei den ganzen server Boards von intel kannst du auch nur nen Pentium reinhauen - wobei ich ehrlich gesagt von den Ryzen Boards nicht wirklich Ahnung habe da ich mich in den letzten Monaten damit ned wirklich beschäftigt habe -> drum nur die Intel Boards :).
 
Naja, wenn die SSD per PCIe angebunden ist habe ich die 8x SATA ja noch frei! ;-)

CPU-Leistung brauch ich ehrlich gesagt nicht sehr viel, aber so ein 4-Kerner x86 wäre ja schonmal ne ordentliche Basis. Maus, Tastatur und Monitor werden angeschlossen und können dort am 19" Schrank stehen bleiben, das ist Problemlos möglich.

Hat vielleicht jemand schon so ein ähnliches System gebastelt? Ryzen inkl. ECC Ram und ein paar Platten?
V.a. welche Software sollte man nehmen? FreeNAS mit ZFS oder Open Media Vault mit Ext4?

Wie gesagt, mein Anforderungsprofil wäre 10GBit Tauglichkeit (d.h. entsprechend schnell) und ansonsten wäre das Teil die meiste Zeit am Idlen. Schön wäre die Möglichkeit ein paar kleinere Dinge über Docker Container laufen zu lassen, z.B. nen Download-Manager oder die ein oder andere kleine Linuxsoftware.
 
Die Ryzen APUs (z.b.2200g) unterstützen kein ECC. Das können nur die normalen Ryzen, dann musst du dir aber eine zusätzliche Graka rein bauen. Leider sind beide Lineups für Server nicht ganz optimal. Wäre schon nice, wenn AMD noch ein Home-Workstation/Server Lineup bringen würde, mit ECC, iGPU und einer soliden Mainboardbasis mit ein paar netten netzwerkfunktionen. So wie bei Intel die Xeon-Reihe.
 
Zuletzt bearbeitet:
also ich habe einen 2200g auf einem Asus B350-Plus mit 8GB DDR4 ECC Ram aus dem Dell T30 am laufen unter Windows 10 bekomme ich mit der Powershellabfrage auch angezeigt das ECC aktiv ist ;)
 
:eek::eek::eek: ohhh ich dachte wirklich, dass das bei denen gar nicht geht. Das habe ich zumindest schon mehrmals gelesen! Aber man lernt nie aus. Thx für die Info
 
Der Ryzen zeichnet sich ja auch wegen einer im Vergleich zu Intel starken grafikeinheit aus.
Braucht man aber für nen Server nicht wirklich.

Ich würde in dem Fall ebenfalls auf eine Intellösung setzen.
Wenns nur ein Fileserver sein soll reicht ein Pentium.

Wegen dem Os......joa für Freenas solltest du viel Ram einplanen.
Bei 80TB würde ich mal minimum 16GB nehmen.

OMV ist für ausschließlich Daten bereitstellen auch gut.

Ich nutze mittlerweile Unraid und bin sehr zufrieden.
Finde das RAID System klasse, auch wenn es als großen Nachteil die Geschwindigkeit hat.
Es schreibt Quasi immer nur mit dem Speed von einer HDD.
Ist aber bei GB Netzwerk ja egal / vorsorglich (für 10GB) habe ich aber eine SSD als Cache schon mal verbaut.

Kostet allerdings in der mittleren Ausführung auch 80 € und lohnt meiner Meinung nach nur, wenn du auch die anderen Feature nutzen willst.
 
16GB bei 80TB? Ich hatte mal was gelesen von ~1GB/1TB Festplattenspeicher. Wären dann schonmal mind. 80GB RAM, also eher 96. Allerdings ist das glaube ich dann auch mit Deduplizierung gerechnet. Aber solche Fragen können sicher im ZFS Stammtisch besser beantwortet werden :)

Ich bin auch gerade in dem Prozess und nachdem ich gestern endlich das System (danke "tapen" meines DELL HBAs) stabil ans laufen bekommen habe, bin ich in der ähnlichen Situation; FreeNAS gefällt mir sehr gut (gestern nochmal ausprobiert) - es scheint auch beim Zugriff auf die Platten per 10G deutlich performanter als der mdadm zu sein, allerdings kenne ich mich mit Linux aus, nicht so mit BSD.

XPEnology ist mir ehrlich gesagt etwas zu "unsicher", auch wenn ich jetzt jahrelang mit ner Synology sehr gute Erfahrungen gemacht habe, das ist wie Hackintosh :d Auch lange genutzt aber so 100% lief das nie, das ist mir bei Daten ehrlich gesagt zu riskant.

Aktuell läuft bei mir noch ein simples Ubuntu 16.04 mit nem nfs-kernel-server und Samba, das läuft gut, ist aber wie oben bereits erwähnt nicht so irre performant.

Dann gibt es da noch Solaris-Derivate (OpenIndiana, OmniOS usw) und dann natürlich napp-it - aber davon habe ich noch weniger Ahnung, weswegen ich da etwas vorsichtig bin. In der Vergangenheit habe ich viel damit rumprobiert, aber auch einmal richtig übel Daten verloren. Seitdem bin ich vorsichtiger geworden (es lag damals an der Hardware, nicht an napp-it möchte ich betonen!).

Was mir vorschwebt ist ein performantes System mit sicheren Daten. Ich habe ECC Speicher und 4x 4TB HDDs sowie 3x 500GB SSDs die ich für die Virtualisierung per 10G via NFS zur Verfügung stellen möchte. Dazu könnte ich noch 2 SSDs (120 & 240GB) für SLOG & L2ARC einbauen. Dank dem HBA und dem P9D-M habe ich 14 Ports, die ich nutzen kann.

Sorry, wollte den Thread nun nicht kapern - wollte eigentlich nur sagen: bist nicht alleine mit der "Qual der Wahl" :d
 
Oder einfach nen Windows Server 201X Standard mit StoragePools?
 
Eigentlich geht nichts über die Kombination ZFS Storage Appliance und SuperMicro Mainboards (z.B. X11) wenn es um Datensicherheit, Performance, einfaches Handling und Stabilität geht. Dazu dann ein Storage OS oder eine webbediente Appliance auf Unix Basis (Solaris/OmniOS, dafür wurde ZFS entwickelt und da ist die OS Integration immer noch am Besten oder Free-BSD, da wurde ZFS auch schon vor einigen Jahren portiert).

Ich habe da mal einige Optionen zusammengestellt
https://napp-it.org/doc/downloads/napp-it_build_examples.pdf
 
So, hab nochmal alles mögliche quergelesen, danke für die Hinweise!

Wenn ich aktuell bauen würde wäre das mein Vorschlag:

- Supermicro X11SSH-CTF (2x 10GBit Intel, 8x SAS HBA)
- 2x Kingston ValueRAM Server Premier DIMM 16GB, DDR4-2400, CL17-17-17-32, ECC
- Intel Pentium Gold G4560, 2x 3.50GHz, boxed
- Intel SSD 760p 256GB, M.2 (fürs OS --> FreeNAS)
- SilverStone CS380 schwarz (8x 3,5" HotSwap auch für SAS)
- be quiet! System Power 9 400W
- 8x Seagate Exos X X10 10TB, 4Kn, SAS 12Gb/s

Das FreeNAS würde ich direkt ohne Virtualisierung installieren, ich brauche eben nur einen Storage!
Auf Read- oder Write-Cache-SSDs würde ich erstmal verzichten, zumindest wird das ja immer vorgeschlagen. Besser sei einfach mehr RAM...
Ich plane damit ein "simples" RAID6, also ein RAID-Z2, d.h. von den 80TB bleiben mir 60TB übrig inkl. zwei Paratätslaufwerken!

Die Zusammenstellung wird so oder so ähnlich eigentlich überall für ZFS/FreeNAS empfohlen.
Welche Kabel brauche ich denn für den Anschluss meiner 8x SAS/SATA Stecker von der Backplane an den HBA? Da gibt's ja zig Bezeichnungen!

Und wird Supermicro ein vergleichbares Board auf Basis des "neueren" C246 Chipsatzes bringen?
 
Zuletzt bearbeitet:
Ich denke eine m.2 SSD für das FreeNAS ist ein wenig übertrieben. Da würde es auch ein nicht zu mieser USB Stick tun :)

Bei den Platten, ja... das ist eher Glaubsfrage. Für mich würde da nur HGST NAS oder WD Red reinkommen, weil ich mit denen gute Erfahrung habe (und mit Seagate und damals Maxtor (erinnert sich noch jemand an die?) wirklich schlechte).

PS. Hast du dir schon Gedanken zum Backup deiner Daten gemacht? Das scheint ein heikler Punkt bei FreeNAS zu sein (und auch einer, der mich davon abhält, dieses einzusetzen). Rsync auf einen rsync-Server geht wohl, aber mal einfach ein Borg Backup auf eine andere Platte oder per SSH/Share auf einen anderen Rechner.

Bei dem Board sieht es so aus, als könntest du 1:1 SATA Kabel direkt draufstecken. Kein SFF-8087 oder sowas zu sehen.
 
Zuletzt bearbeitet von einem Moderator:
Für ein Storagesystem ist das X11SSH-CTF derzeit quasi perfekt. Warten auf ein ähnliches C246 halte ich dafür für eher kontraproduktiv, da das Potenzial für die mehr Kerne der Xeon E nicht genutzt würde und der C236 nebst den Onboard-Komponenten perfekt in BSD 11 (und auch ESXI) 6.x unterstützt werden. Eine neuere Plattform müsste eh erst eine gewisse Zeit erprobt werden und man hat ggf. Treiberprobleme. Und wenn man bedenkt, dass Supermicro auf den 2066er-Board sogar diese ... Aquantia-NICs draufgepackt hat, ist die Frage, was bei C246 noch an Varianten kommt.

Und selbst als kleiner AIO mit ESXI und Passthrough ist das X11 nebst E3-Xeon v5 oder v6 potent genug für viele Anwendungen. Ausserdem hats noch genug Slots, um brauchbare Erweiterungen bzgl. Storage oder ggf. ne NIC dranzuhängen.
=> für das Geld bekommt man mit dem X11SSH-CTF verdammt viel gute Hardware. (wenn man 10GB mit Kupfer fahren will).

Fürs OS würde sich ggf. eine kleine Intel DC-SSD (S3500/S3510) anbieten, die Dinger stehen im Ruf ziemlich fehlerfrei zu laufen.

Das X11SSH-CTF hat 2 Buchsen für SFF-8643 Mini-SAS Stecker für die SAS3008-Ports, nix 8087. Dazu noch 8 reguläre Sata-Ports und ein M.2-Slot (letzterer mit Schraube an der Stelle für 60mm lange Karten, aber 2280-Karten gehen auch vom Platz. Bissi doppelseitiges Klebeband auf den Standoff für die Schraube (aber Achtung, dass man damit nix von der SSD reisst beim Ablösen).

Beim RAM hab ich mich an die SM-Testliste bzgl. 16GB-Module gehalten (ich hab ja ein solches Board :cool: )

Aber 12GB SAS-Drives für einen Audio-/Videofiler daheim würde ich schon für etwas überzogen halten.
 
Zuletzt bearbeitet:
Bei den Platten, ja... das ist eher Glaubsfrage. Für mich würde da nur HGST NAS oder WD Red reinkommen, weil ich mit denen gute Erfahrung habe (und mit Seagate und damals Maxtor (erinnert sich noch jemand an die?) wirklich schlechte).

Vielleicht solltest auch kein deutsches Auto mehr kaufen, so wie die in den 90ern alle gerostet sind...

die EXOS sind bedeutend billiger als die vergleichbare Ultrastar oder GOLD. Da alle drei Festplatten qualitativ gleich gut sind darf hier ruhig der Preis entscheiden
 
Müssen es denn High-load (550 TB/Year) / High-Performance Enterprise HDDs sein?
Reichen nicht auch Lower-Duty (80 TB/Year) / High-Performance HDDs?
Ist halt ein Kostenfaktor

Wenn du nicht gerade 'ne Große SQL Datenbank z.B. unter SAP in einem großen Unternehmen (z.B. Unilever) im 24h Hochlastbetrieb am Start hast, reichen i.d.R. auch die Preiswerteren NAS HDDs. *justmy2cents*
 
Vielleicht solltest auch kein deutsches Auto mehr kaufen, so wie die in den 90ern alle gerostet sind...

die EXOS sind bedeutend billiger als die vergleichbare Ultrastar oder GOLD. Da alle drei Festplatten qualitativ gleich gut sind darf hier ruhig der Preis entscheiden

OT: Witzig, wir haben gerade unsere Seats (VW-Konzern, also quasi deutsch) gegen Hondas getauscht :d
 
Würde so ein Zweikerner Pentium Gold für meinen Fileserver nicht ausreichen? Welche Vorteile hätte in diesem Use-Case denn ein Quad-Core? Und welche Vorteile ein "echter" Xeon?
Solange der kurzfristig über die beiden 10GBit Ports Daten an ein paar Clients gleichzeitig rausschieben kann, ist für mich alles ok. Bis auf vielleicht nen Downloadmanager oder dergleichen werd ich da nicht viel anderes als SMB Shares laufen lassen.


Auf die SAS Platten bin ich eigentlich nur durch das Board gekommen. Wenn ich nen Mobo kaufe, ne X550-T2 reinpacke bin ich ja alleine schon teurer als der Supermicro Board. Zudem hat man ja noch den BMC mit drauf, ist nie verkehrt für nen Server...
Und die SAS Platten kosten im Vergleich zu den SATA Pendants auch keinen Cent mehr, alles im Bereich von 300 bis 320 Euro.


Meine wenigen wirklich wichtigen Daten, insbesondere Fotos, würde ich übers Netz automatisiert auf die bestehende 2-Bay-Synology (2x 4TB Raid1) schieben.
 
Für reine Fileservices würde sogar ein Celeron reichen!
Ein Scrub unter ZFS dauert dann halt etwas länger.
(i3 geht auch noch)

Die Exos sind in der Tat überraschenderweise nur geringfügig teurer als z.B. die Ironwolf - 8x 20 € sind aber auch 160 €
 
Zuletzt bearbeitet:
Kleine Warnung, falls du ZOL (also ZFS On Linux) einsetzen möchtest. Ich habe letzte Nacht mit einem Backup Server gespielt und hatte 4x 3TB HDs (WD Green) in einen RAIDz1 gepackt und dann vom Storage Server per 10G mit Daten betankt. Zu meiner Überraschung kamen nur ~1G rüber. Ab und an mal ein Peak von 150 MiB/s. Gemountet war das Ganze per NFS; kopieren per rsync (-vap).

Ich habe dann den zpool mal "destroyed" und einen mdadm SW RAID5 aus den 4 Platten gebaut und mit ext4 formatiert. Ich habe NICHT gewartet, bis die Platten in sync waren (das läuft jetzt noch), es ist also ein Grundlast auf den Platten vorhanden gewesen. Dann habe ich auf diesen RAID5 den gleichen rsync Prozess angestoßen und habe über Nacht 5,7 TiB an Daten gesynced. Im Durchschnitt bin ich bei über 220 MiB/s ausgekommen, sehr oft hatte ich Peaks von 400 MiB/s.

Ja, ZFS ist sicherer, aber auch deutlich langsamer. Ich habe auch einfach kein gutes Bauchgefühl bei so einem "angeflanschten" Dateisystem* (* ja ich weiß das ZFS als ein Dateisystem ist) und überlege ernsthaft bei ext4 zu bleiben oder max. noch btrfs über den mdadm RAID5 zu legen; aber da bin ich auch noch nicht so sicher, wie gut die Idee ist. Nur schade, dass RAID56 noch immer nicht stable in btrfs ist :(

Ist natürlich alles Unsinn, wenn du eh auf napp-it mit OmniOS/OpenIndiana oder FreeNAS setzen möchtest, bezog sich nur auf ZFS On Linux.
 
Zuletzt bearbeitet von einem Moderator:
ZoL ist da bezüglich Performance nicht wirklich schlechter/besser.
 
also ich habe einen 2200g auf einem Asus B350-Plus mit 8GB DDR4 ECC Ram aus dem Dell T30 am laufen unter Windows 10 bekomme ich mit der Powershellabfrage auch angezeigt das ECC aktiv ist ;)


:eek::eek::eek: ohhh ich dachte wirklich, dass das bei denen gar nicht geht. Das habe ich zumindest schon mehrmals gelesen! Aber man lernt nie aus. Thx für die Info

Ein bisschen OT aber zum Thema Ryzen2 und ECC
ECC Memory & AMD's Ryzen - A Deep Dive.

Ich hab nämlich hier eine Kombi aus Ryzen 2400G, 470 Mainboard (MSI) und einem 16 GB ECC Riegel. Erkannt wird der auch unter windows wird mit in der PS angezeigt das ECC aktiv ist; aber! Funktioniert das ECC auch ? Wenn man sich den Artikel durchließt kommt man etwas ins grübeln :P
 
Dass ZFS langsam sei, ist eine Legende. Das kommt auf das jeweilige OS und Setup an. Ich hab unter virtualisiertem FreeBSD ein Raidz2 mit 6*HGST Nas, 12GiB Ram zugewiesen und kam leer auf etwa 800 MiB/s sequentiell, jetzt 1/3 betankt etwa auf 650 MiB. Beides jeweils auch annähernd über 10GBase, sobald die Netzwerksettings dafür geeignet eingetragen sind.
ZoL kann ich da nicht beurteilen. Aber ich wage zu bezweifelen, dass WD Greens eine gute Wahl dafür sind. @DieTa: Eventuell hattest Du da ein Problem mit dem Partition-Alignment (ashift).

@ Dominik: Freilich reicht ein Dualcore dafür. Ich wollte mit dem Xeon nur drauf hinweisen, dass man bei Bedarf bei geänderten Anforderungen durchaus noch Reserve auf dem C236 hat und nicht wirklich auf ein C246 warten muss.
 
Zuletzt bearbeitet:
ZoL ist da bezüglich Performance nicht wirklich schlechter/besser.

Also 150 MiB/s Peak vs 400 MiB/s Peak finde ich bei der gleichen Hardware schon nen Unterschied.

@Trambahner Das möchte ich nicht ausschließen. Wobei ich jetzt auch nicht ZFS unter Linux mit ZFS unter FreeBSD oder Solaris-Derivaten vergleichen wollte. WD Greens sind sicher eine schlechte Wahl. Sind halt "Reste". Im Storage Server sind HGST und WD Reds. Vermutlich würde ich heute aber eine SAS-Variante wählen, wenn ich es neu bauen würde.
 
Ich würde übrigens Festplatten von zwei verschiedenen Herstellern nehmen. Das hilft falls man eine Charge mit einem Serienfehler erwischt hat.
 
Nochmal danke für die ganzen Infos!

Eine Frage hätte ich aber noch:
Kann ich bei ZFS dann z.B. mit 4x 10TB Platten starten und einen Pool mit RAID-Z2 aufsetzen, d.h. von 40TB bleiben mir 20TB Nutzkapazität übrig, und diesen dann irgendwann mal dynamisch um 2 oder 4 Platten erweitern. Vollausbau wären dann 8x 10TB Platte, also 60 TB Nutzkapazität!
 
Dann war mein Post ja doch ganz brauchbar :) *freut mich*

Die Exos sind auch schon auf meiner Kaufliste für den nächsten Filer
Mit den WD Red 6 TB (non Pro) hatte ich leider sehr oft Probleme beim Resync vom Raid 1 teils 4x anstoßen damit er es durchläuft.... (3x2 6TB verbaut) Win10 Prof.
Was noch hinzu kommt (das selbe bei der 8 TB Backup Platte in der Arbeit) ist dass die Bohrungen von den Schrauben nicht so tief sind und auch gefühlt eine komplett fehlt wie ich bei den alten Platten war, und ich deshalb nicht die Einbaurahmen von meinem Case verwenden kann bzw. sie nur 2x statt 4x anschrauben kann....

edit:
Vom nachträglichen erweitern wurde mir damals hier abgeraten - sowohl was Z2 als auch Raid6 angeht - sofern du zusätzlich ein Vollbackup hast ggf. davon zurückspielen.
 
Zuletzt bearbeitet:
Wenn Du mit "RAID10" (also Striped + Mirror) arbeitest, geht das. RAIDz1/2/3 sind hingegen nicht erweiterbar.

Was aber geht: Du baust jetzt einen Pool aus 4x 10TB Platten, machst einen RAIDz2 daraus. In 1 Jahr brauchst du mehr als die ~18TB und steckst nochmal 4x 10TB dazu, auch die packst du in einen RAIDz2, die beiden kannst du dann aneinanderhängen. Dann hast Du, wie bei einem RAID10 zB auch, allerdings 50% Verlust, allerdings ist ein RAIDz2 über 4 Platten schon SEHR sicher (und ausfallssicherer als ein RAID10).

Constantin Gonzalez hat vor einigen Jahren zu dem Thema etwas gebloggt. Vielleicht ist das interessant für dich.
 
Okay, dann wäre hier mal mein leicht abgespeckter Vorschlag zum Start, Erweiterungen jederzeit möglich. Das Board hätte ja auch noch 8x SATA zu bieten...

- Supermicro X11SSH-CTF (2x 10GBit Intel, 8x SAS HBA)
- 1x Samsung DIMM 16GB, DDR4-2400, CL17-17-17, ECC (M391A2K43BB1-CRC) --> steht auf der Liste von SM, Single-Channel RAM sollte ja keinen negativen Einfluss auf die NAS Performance haben, oder?
- Intel Pentium Gold G4560, 2x 3.50GHz, boxed
- Intel SSD 760p 256GB, M.2 (fürs OS --> FreeNAS) --> vielleicht auch ne andere günstige SSD...
- SilverStone CS380 schwarz (8x 3,5" HotSwap auch für SAS)
- be quiet! System Power 9 400W
- 4x Seagate Exos X X10 10TB, 4Kn, SAS 12Gb/s --> wird in ein RAID-Z1 (RAID-5) gepackt, damit etwa 30TB Nutzkapazität!
- 2x miniSAS HD SFF-8643 auf 4x SATA

Ist das so machbar, oder hätte ich da was vergessen bzw. irgendeinen Denkfehler drin?

Weitere 10TB Platten (oder größer) könnte ich bei Bedarf nachkaufen, evtl. von nem anderen Hersteller. Die Einrichtung eines Raid-Z2 über z.B. 8 Platten wäre dann eine Neueinrichtung. Hierzu müsste ich die Daten vorher umkopieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh