[Kaufberatung] Debian-NAS im Eigenbau

speedxxy

Neuling
Thread Starter
Mitglied seit
09.12.2014
Beiträge
4
Hallo,

ich plane, mir einen NAS zu bauen. Ich habe in Sachen Storage bisher auf Fertigsysteme von Thecus gesetzt (N3200PRO, N5200PRO), war soweit immer sehr zufrieden, möchte jedoch nun mehr Flexibilität und Sicherheit durch die Austauschbarkeit der Komponenten und ein vollständiges Betriebssystem gewährleisten.

Im Folgenden meine Konfiguration:
4 x Western Digital WD40EFRX 4 TB, Festplatte
1 x ASRock AM1H-ITX, Mainboard
1 x Mushkin DIMM 8GB DDR3-1600 Kit, Arbeitsspeicher
1 x AMD Athlon 5350, CPU
1 x ADATA Premier Pro SP900 2,5" SSD 128 GB
1 x Avago Storage by LSI MegaRAID 9240-4I, Controller
1 x be quiet! System Power 7 300W, Netzteil
1 x Fractal Design NODE 304, Gehäuse
[1 x DeLOCK mini SAS 36 Pin zu 4x SATA (SFF 8087)]
[1 x Mushkin SSD Einbauadapter 2,5" auf 3,5"]

Insgesamt liegt der Hardwarepreis bei rund 1.200 € und leistet im Betrieb mit RAID 5 später 12TB Speicher. Das Betriebssystem (Debian) soll auf der SSD liegen. Genutzt wird der Server später für:
- Local Storage (SMB/FTP)
- Media-Streaming
- inkrementelle rsync-Backups (pull) per VPN
- Ggf. Betrieb per HDMI am Fernseher (dafür ist jedoch eigentlich ein RaspberryPi gedacht, der ist auch schon vorhanden nur eben sehr langsam ;))

Nun meine Fragen dazu:
- Haltet ihr die Konfiguration für gut gewählt oder erwartet ihr Flaschenhälse hinsichtlich der Performance oder Probleme in Sachen Kompatibilität?
- Sollte ich auf einen (den genannten) RAID-Controller setzen oder das RAID über ein Software-RAID bilden?
- Ist der Einsatz eines RAID-Controllers ohne Cache im RAID 5 ausreichend performant?
- Gibt es Probleme beim Ausfall des Controllers oder der Festplatten zu befürchten, wenn Komponenten ausgetauscht werden müssen?
- Ist die Nutzung von Debian in Kombination mit OpenMediaVault eine sinnvolle Lösung?
- Wäre theoretisch sogar der Betrieb von virtuellen Maschinen denkbar bzw. spricht etwas dagegen?

Vielen Dank für eure Meinungen!
Speedxxy
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...my 2 cents:

- nimm ZFS...das läuft bärenstark und schnel unter Debian
- das Board hat nur einen PCIe x4 elektrisch...um den Controller voll auszunutzen brauchst Du aber einen x8...für ZFS brauchst Du nur einen HBA...gleicher Chipsatz, andere FirmWare, zB LSI 9211-8i
- hat das NT dual-Rail?...dann such/nimm eines mit single-Rail für ein NAS..falls du mal weitere Platten brauchst.
 
wozu denn eigentlich der HW Controller? Um Geschwindigkeit wirds dir wohl nicht gehen, da der Flaschenhals in so einem NAS eindeutig das GBit Lan sein wird.

Entweder ZFS (wobei dann mehr Ram zu empfehlen wäre (ca 1 GB pro TB HDD Kapazität). Außerdem ist in dem Fall der Einsatz von ECC Ram geboten. Unter Debian würde ich persönlich ein Software Raid 5 mit MDADM und LVM empfehlen (Habe ich auch selbst im Einsatz). Die Geschwindigkeit wird dabei sowohl lesend wie auch schreibend nur vom GBit Lan begrenzt.
Wenn du Verschlüsselung machen willst, solltest du halt eine entprechend starke CPU mit AES-NI Unterstützung besorgen. Dein Athlon sollte da aber auch ausreichen.
Dazu kannst du dir dann eine einfache SATA Controller Karte kaufen, die nur ein viertel des Raidcontrollers kostet. Zum Bsp. Sowas hier: Digitus DS-30104-1. Oder du installierst dein Debian einfach auf nem Hochwertigen USB Stick und machst nachdem alles Läuft ne Sicherheitskopie davon.

Die Intellösung: Du nimmst das gesparte Geld und investierst 50€ davon in ein Intel Board: z.B.: ASUS H87I-Plus (C2) Das hat 6 SATA Ports. Dazu ein Intel Core i3-4150 (mit AES und HT), oder einfacher ein normaler Dual Core wie zum Bsp. der Intel Celeron G1820

Wenn der HDMI Betrieb wichtig ist käme dann zu dem Intel System noch ne kleine Grafikkarte dazu, das AMD System ist da schon bestens gerüstet.
 
...8GB für ein ZFS NAS sind OK...ECC wenn man es "richtig" machen will....habe es so auf einem Opteron 3350HE mit LUKS/dm-crypt in Vollverschlüsselung laufen..
Ein einfacher ACI Adaper reicht, ja...der LSI wenn man noch weiter aufrüsten will, zur Not mit einem SAS-Expander.
 
Erstmal Danke für eure Antworten! :)

Also ich höre klar raus, dass ich wohl hier auf ZFS setzen sollte, wofür ich dann ggf. etwas mehr (ECC) RAM einplanen sollte. Gibt es dabei etwas zu Beachten oder mögliche Probleme?
Sollte ich denn nun auf der Schiene bleiben, ein HW-Raid einzusetzen oder reicht für meine Bedürfnisse auch ein Software-Raid? Der Hintergrund ist dass ich möglichst schnell und sicher im Falle eines HDD-Crashes das Raid wieder zum Laufen bringen möchte. Den Controller kann ich im Falle eines Defekts ja sogar austauschen da die RAID-Informationen u.a. auf den Platten liegen. Sollte es mir die OS-HDD zerschiessen, hätte ich mit einem Software-Raid da wohl eher ein Problem, oder?

@hominidae:
- Laut Asus (ASRock > AM1H-ITX) hat das Board "PCIe 2.0 x16", was doch für meinen Controller ausreichen würde. Oder was meinst du?
- Ich vermute mal, dass das ein Dual-Rail-Netzteil ist (Leises Netzteil SYSTEM POWER 7 | 300W be quiet! Leise Netzteile & Kühlungsprodukte für Ihren PC). Kannst du eine Alternative empfehlen?

@KJaneway:
- Welche Vorteile hätte deine genannte Intel-Lösung denn? Ich glaube im Endeffekt ist sie ein Stückchen teurer (jetzt mal bei Verwendung eines Software-Raid) und würde ja sogar beim Einsatz von HDMI noch ne GraKa benötigen... Oder ist die Performance deutlich besser?

Danke :)
 
ZFS unter Linux/Debian ist nicht kompliziert, wenn man keine Angst vor der Commandline hat.
Es gibt napp-it auch für Debian/Ubuntu, aber ich habe es noch nicht getestet.
ZFS ist sozusagen SoftwareRaid, ein HW-Raid Controller ist dafür nicht nötig bzw. wird erst garnicht genutzt.

ECC bedeutet i.d.R. - zumindets bei Intel - Server-Hardware...Du braucht Support dafür im Chipsatz/Board und in der CPU.
Bei AMD gibts das auch für Desktop Boards...die AM3+ Boards von ASUS angucken...da steht es in den Specs...alle AM2, AM3 und AM3+ CUPs sollten ECC können.

In den Specs Deines AMD Boards steht ganz klar -> "1 x PCI Express 2.0 x16 Slot (PCIE1 @ x4 mode)" -> ein x4er Slot im x16er Gewand.
Der Kontroller wird auch mit x4 laufen, aber eben nicht mit voller Bandbreite..für 4x Disks aber wohl nicht relevant.

NT: suche Die eines aus in 80+Gold oder besser. Die Specs verraten ob es Mulit-Rail oder Single-Rail ist...ein Multi-Rail hat für jedes 12V Rail eine Ampere Angabe, also 12V1-14A, 12V2-12A..ein Single-Rail hat nur eine 12V Angabe, zB 12V-36A.
Du brauchst 2A an 12V pro Disk plus Extras für Board/RAM/CPU/Kontroller/PCIe Karten/Lüfter/Reserve/SSD (4-8A, würde ich sagen)...also 300W (25A) sind schon viel, aber "Gold" gibts erst ab 350W -> http://geizhals.at/de/sea-sonic-ssp-350gt-350w-atx-2-3-a871950.html
 
Vorteile der Intel Lösung: Mini ITX mit bis zu 6 Laufwerken OHNE zusätzliche Controllerkarte. Und die Grafikkarte wird nur bei Bedarf nachgerüstet. Das Board selbst hat ja auch HDMI. Möglicherweise reicht das (für FullHD Filme reicht das sicher).
Der Kabini hat ne stärkere integrierte GPU. Dafür brauchste da auf jeden Fall ne Controllerkarte für mehr als 4 Laufwerke.

Nachteil: Kein ECC. Aber wie mein Vorredner gesagt hat, braucht man das bei ZFS nur, wenn man es richtig machen will. Wobei ich immernoch ein Verfechter von mdadm + lvm bin. Sehr flexibel und erweiterbar. Ohne Probleme in ein neues System migrierbar (falls mal was am Mainboard sein sollte). Wenn dir dein Raidcontroller abschmiert ist das kritischer. Dann brauchste nen Baugleichen um überhaupt ne Chance zu haben wieder an deine Daten zu kommen. Gut von ZFS habe ich auch weniger Ahnung, und man empfiehlt ja immer dass, was man kennt. Spätestens wenn du deinem ZSF ne neue Platte verpassen willst kommste in Schwierigkeiten. Bei MDADM ist das erweitern des Raidverbundes sehr einfach.

Zur Performance: Ich denke nicht das man im reinen NAS Betrieb nen Performanceunterschied zwischen beiden Systemen sehen wird. Da langweilen sich sowohl aktuelle Intel Dual Core, wie auch AMD Kabini CPUs. Die Praktischere Lösung seh ich für mehr als 4 Laufwerke halt bei Intel wegen den 6 SATA Ports.
 
Zuletzt bearbeitet:
ZFS ohne ECC sollte man sich besser verkneifen. NAS ohne ECC ist aber machbar. Dann aber ohne ZFS.

Gesendet von meinem OnePlus One
 
ZFS ohne ECC sollte man sich besser verkneifen. NAS ohne ECC ist aber machbar. Dann aber ohne ZFS.

Gesendet von meinem OnePlus One

Wo ist da die Logik.
Ein Speicherfehler beim Schreiben führt bei jedem Dateisystem zu Schrott auf der Platte
also defekter Datei oder defekter Dateistruktur. ZFS erkennt das Problem aber beim Lesen als Dateifehler/ Prüfsummenfehler oder pool error wohingegen ext4 oder ntfs mit dem Schrott munter weiterarbeiten. Immer nach dem Motto "was ich nicht weiss, macht mich nicht heiss"

Ein unentdeckter Speicherfehler beim Lesen kann bei alten Dateisystemen wie beliebig andere Dateifehler (z.B. silent errors auf der Platte) wegen fehlender Prüfsummen grundsätzlich nicht erkannt werden egal ob die auf der Platte, im Controller, der Backplane oder im Treiber entstanden sind. Bei ZFS ist ein Ramfehler nun aber der einzige Fall, das irgendwo zwischen Platte und OS Fehler entstehen und dann nicht erkannt werden und zum Verarbeiten falscher Daten führen.
 
Zuletzt bearbeitet:
Ich hatte das Problem bei ZFS ohne ECC so verstanden, dass wegen der Checksums und des Scrubbings Speicherfehler dazu führen können, dass eigentlich korrekte Daten zerstört werden.

Wobei ich anmerken muss, dass ich ZFS nicht einsetze. Man liest aber häufig von dem oben beschriebenen Problem.

Gesendet von meinem OnePlus One
 
Ich hatte das Problem bei ZFS ohne ECC so verstanden, dass wegen der Checksums und des Scrubbings Speicherfehler dazu führen können, dass eigentlich korrekte Daten zerstört werden.

Das ist wie im richtigen Leben.
Man kann sich Situationen vorstellen, bei denen man einen tödlichen Autounfall ohne Sicherheitsgurt eventuell überlebt hätte oder eine Schutzimpfung zu einem Schaden geführt hat. Der positive Nutzen beider Massnahmen überwiegt aber bei weitem.

So ist es auch hier.
ZFS führt beim Lesen jedes Datenblocks einen Prüfsummentest durch und wenn es dabei einen bei Datenfehlern entdeckt so wird es diesen (sofern es eine Redundanz gibt) auch umgehend ohne weiteres Zutun reparieren (nennt sich selbstheilendes Dateisystem). Damit daraus ein Problem entsteht, muss beim Test ein Speicherfehler auftreten. ZFS liest dann den korrekten Datenblock z.B. aus dem Raid und schreibt diesen auf den Pool. Damit da ein Problem auftritt bedarf es eines erneuten Fehlers ansonsten würde der falsch als fehlerhaft deklarierte Block lediglich unnötigerweise durch eine korrekte Kopie überschrieben. Insgesamt ist das aber ansonst der ganz normale Fall eines Speicherfehlers beim Schreiben, der immer zu Datenfehlern führen kann.

Die Anzahl der Speicherfehler darf aber nicht zu groß werden, sonst wäre ein ganz normaler Systemabsturz die Folge. Richtig ist aber schon, dass mehr Tests auch mehr Schreiboperationen bedeuten können und damit auch tendentiell mehr Fehler. Da einzelne Speicherfehler aber recht selten sind, und stille Dateifehler auf der Platte (die entstehen durch Magnetfelder, Radioaktivität oder einfach mit einer statistischen Wahrscheinlichkeit) insbesondere bei heutigem Multi-Terabyte Speicher sehr viel häufiger auftreten, ist der umgekehrte Fall viel wahrscheinlicher, dass nämlich ZFS Fehler entdeckt und automatisch repariert die ohne ZFS unentdeckt geblieben wären.

Richtig ist aber sicher, dass jeder Server ECC haben sollte. Dieses Rest-Risiko lässt sich nämlich mit relativ wenig Geld aus der Welt schaffen. Bei Storage nimmt ja schliesslich auch Raid damit Plattenfehler folgenlos bleiben.
 
Zuletzt bearbeitet:
Hi !

Ich nutze OMV für mein NAS und bin damit sehr zufrieden. Läuft stabil und schnell und die Administration über das Webinterface geht sehr einfach. Über die verfügbaren Plugins ist das System sehr gut erweiterbar.

Das Debian-Grundsystem kommt bei OMV direkt mit. Kannst du direkt installieren ohne vorher Debian installiert zu haben.

Gruß

Karl
 
[...]
ZFS führt beim Lesen jedes Datenblocks einen Prüfsummentest durch und wenn es dabei einen bei Datenfehlern entdeckt so wird es diesen (sofern es eine Redundanz gibt) auch umgehend ohne weiteres Zutun reparieren (nennt sich selbstheilendes Dateisystem). Damit daraus ein Problem entsteht, muss beim Test ein Speicherfehler auftreten. ZFS liest dann den korrekten Datenblock z.B. aus dem Raid und schreibt diesen auf den Pool. Damit da ein Problem auftritt bedarf es eines erneuten Fehlers ansonsten würde der falsch als fehlerhaft deklarierte Block lediglich unnötigerweise durch eine korrekte Kopie überschrieben. Insgesamt ist das aber ansonst der ganz normale Fall eines Speicherfehlers beim Schreiben, der immer zu Datenfehlern führen kann. [...]

d.h. man hat ein Problem wenn während dem Lesen ein bit kippt, ZFS versucht aus der Parität zu reparieren und dann beim zurückschreiben auch nochmal ein bit kippt, nur in diesem Fall macht man "heile"Daten kaputt ?

Verstehe ich richtig das man abgesehen von dem Fall oben ZFS damit nur zurück auf die gleiche Stufe anderer Dateisystem bringt wie ntfs oder ext die bitfehler nicht korrigieren können und nur in dem Fall wenn wirklich beim Lesen und beim versuch zu korrigieren gleichzeitig ein Fehler auftritt ?
 
ZFS ohne ECC ist wesentlich problematischer als andere Dateisysteme ohne ECC. gea, bitte lies den folgenden Artikel aufmerksam durch, bevor du weiter deine Ratschläge erteilst:

https://pthree.org/2013/12/10/zfs-administration-appendix-c-why-you-should-use-ecc-ram/

Da ZFS jeden im Daten-Block prüft und gegebenenfalls repariert bedeutet das mehr RAM Aktivität und damit mehr durch RAM Fehler hervorgerufene Probleme.

In der Gesamtbetrachtung bliebt aber das Problem das kleine RAM Fehler (unentdeckt, bringen das System nicht zum Absturz) genau wie Silent Data Errors sehr selten auftreten. Die Häufigkeit dass ZFS bei Multi- Gigabyte korrupte Dateien erzeugt bleibt damit um Größenordnung unter der Häufigkeit dass ZFS bei Multi-Terabyte Storage vorhandene/korrupte Daten repariert.

Korrupte Dateien möchte natürlich niemand erzeugen und Silent Errors auf Platte natürlich automatisch reparieren. Dass ECC hier das Mittel der Wahl ist und umso wichtiger wird, je größer der RAM wird bleibt unbestritten.

Für mich bleibts damit mit der Aussage, dass ZFS ohne ECC besser ist als ext/NTFS mit ECC.
Man sollte aber bei beiden nicht auf ECC verzichten (ist ja nicht so, dass ext4 bei RAM-Fehlern keine korrupten Daten schreiben kann und das Schlimme dabei, durch fehlende Prüfsummen merkt man es nichtmal). Das damit selbst ZFS Datenkorruption erzeugen kann und auch hier ein Backup wichtig bleibt sollte man nicht vergessen.

Aber ganz klar in diesem Sinne:
Besonders sicheres Storage = ZFS + ZFS-Raid mit HBA + ECC RAM
Besonders unsicheres Storage = alte Dateisysteme + Software/Hardware-Raid ohne BBU (write hole Problem) + kein ECC

mit vielen Abstufungen dazwischen.

@OP
Ein kleiner LSI Controller wie 9240 ohne BBU und Raid-5 ist langsam und unsicher.
Besser ein HBA wie LSI 9207 oder IBM 1015 (umgeflashed zu LSI9211-IT) nehmen
oder nur Sata (AHCI) und darauf Software-Raid - idealerweise ZFS.

Das Board ist damit wegen fehlendem ECC (und dem langsamer Realtek Nic) keine
besonders hochwertige Wahl. Ich würde auch eher versuchen auf uATX zu gehen. Da ist die Auswahl einfach besser und wertige Boards billiger. Alternativ einen HP Microserver/ Dell T20 mit ECC.
 
Zuletzt bearbeitet:
d.h. man hat ein Problem wenn während dem Lesen ein bit kippt, ZFS versucht aus der Parität zu reparieren und dann beim zurückschreiben auch nochmal ein bit kippt, nur in diesem Fall macht man "heile"Daten kaputt ?

Verstehe ich richtig das man abgesehen von dem Fall oben ZFS damit nur zurück auf die gleiche Stufe anderer Dateisystem bringt wie ntfs oder ext die bitfehler nicht korrigieren können und nur in dem Fall wenn wirklich beim Lesen und beim versuch zu korrigieren gleichzeitig ein Fehler auftritt ?

Aus der Parität kann man nichts reparieren. Da kann man feststellen, dass die Daten korrupt sind. Zum Reparieren braucht man zusätzlich Redundanz wie copies=2 oder ZFS Raid.

Mit den Dateisystemen verhält es sich eher so, dass wenn man keine Prüfsummen hat, kann man nicht prüfen und aufgrund einer dann möglicherweise fehlerhaften Prüfung durch fehlerhaften RAM auch keine zusätzlichen Fehler erzeugen. Das RAM Problem ist damit bei alten Dateisystemen geringer, die Fehlermöglichkeiten insgesamt dennoch höher.
 
Nachdem ich das Thema in der Hoffnung sich entspannender Hardwarepreise nun eine Weile auf Eis gelegt hatte, greife ich es nun doch einmal wieder auf, da sich abzuzeichnen scheint, dass man auf günstige Preise wohl noch länger warten muss.

Ich habe mir eure Tipps und Hinweise zu Herzen genommen und meine Konfiguration ein wenig überarbeitet. Es wäre klasse, wenn ihr mir dazu ein kurzes Feedback geben könntet, ob diese Konfiguration nun besser ist, welche Kompatibilitätsprobleme zu erwarten wären und ob ich alles korrekt verstanden habe ;)

Folgende Komponenten sind beibehalten:
4x Western Digital WD40EFRX 4 TB
1x Fractal Design NODE 304

Bei folgenden Komponenten habe ich eine andere Wahl getroffen:
1x GIGABYTE GA-78LMT-USB3
1x AMD FX-4300
1x Fractal Design Edison M 450W
1x ADATA Premier Pro SP900
2x Mushkin DIMM 4 GB ECC DDR3-1333

Die Wahl ist hier wieder auf AMD gefallen, da ich gern auf ECC-Memory zurückgreifen wollte. Das Netzteil sollte nun Single-Rail sein und 80 PLUS Gold zertifiziert. Die CPU ist in meinen Augen etwas zu stark, jedoch die günstigste kompatible Lösung, die ich auf Anhieb gefunden habe. Da ich nun ebenfalls überlege, meinen Media-Center ebenfalls über den NAS abzudecken, brauche ich sowieso mehr Leistung. Da ich früher oder später eine Erweiterung auf 6 Platten à 4TB plane, würde ich auf MDADM und LVM zurückgreifen. Hier wird dann ggf. noch ein SATA-Controller nötig werden. SATA2 wird ja sicherlich ausreichen, da die Geschwindigkeit in erster Linie durch Gigabit begrenzt ist.

Leider lande ich preislich trotz Verzicht auf den RAID-Controller ungefähr gleich: Nämlich bei ca. 1.250,00 € - schade...

Vielen Dank schon einmal für eure vielen Antworten Tipps und im Voraus für weitere Anmerkungen!
 
...bis Du sicher, dass das Board ECC unterstützt? Habe in den Specs nix gefunden...bei ASUS steht es zweifelsfrei drin, ob oder ob-nicht.

- - - Updated - - -

...ich habe das hier: http://geizhals.at/de/asus-m5a78l-m-usb3-90-mibg70-g0eay00z-a644321.html?hloc=de und es läuft mit ECC (und nem Opteron)

- - - Updated - - -

...ist das FD 304 nicht nur mini-ITX/DTX...Dein Board ist micro-ATX...gibt es überhaupt AM3+ boards in mini-ITX?
 
nope es gibt keine ITX Boards für AM3+ es gab nur mal welche mit alten Chipsätzen für AM3.
 
Danke für den Hinweis! Da war ich wohl etwas voreilig mit dem Mainboard. Finde leider bei bestem Willen kein passendes Board mit ECC-Support auf Mini-ITX im Preisrahmen unter 100€. Habt ihr nen Tipp?
Ist ECC denn ein Merkmal auf das ich wirklich besser nicht verzichten sollte oder ließe sich darauf guten Gewissens im Heim-Umfeld bei der Nutzung als NAS und ggf. Media-Center verzichten?
 
Zuletzt bearbeitet:
AMD & ECC
Die AMD CPUs unterstützen alle ECC, aber ECC wird nur von einigen / wenigen Asus Boards unterstützt.
Weder MSI, Asrock oder Gigabyte unterstützen ECC - ich finde das irgendwie schon fast kurios, ich hatte mich da vor ca. 2 Jahren intensiv damit befasst und die Hersteller dann auch kontaktiert. Ich glaube nicht, daß sich das geändert hat, vermutich eher verschlechtert.

Fazit. wenn bei den technischen Daten des Mainboards auf der Herstellerseite kein ECC dabeisteht, wird auch kein ECC unterstützt.
Sicher weiss ich das beim Asus M5A97 LE Rev 2.0, welches aber ATX ist
 
Ja genau, aber bei AMD haben es nicht (mehr) alle....mMn haben nur die CPUs ECC Unterstützung, die in den AM3+ Sockel passen (AM2(+), AM3(+) Sockel-CPUs)....die FM1/2 und AM1 haben es wohl nicht mehr.

Es gibt / gab wohl auch *ein* Gigabyte Board mit ECC Unterstützung, laut Specs....aber nur bei ASUS ist es verlässlich angegeben.
Ich finde es echt schade.....habe das auch vor 2 Jahren rausgefunden und meinen Server auf ein AMD-Desktop Board (mit AM3 Opteron) umgerüstet....
 
Wieso machst es dir so schwer? Hol dir nen HP microserver oder alternativ einen ML310e. Fix und fertig mit ILO und mindestens 4 Festplatten einschüben. Dazu noch supported von ESX.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh