Buildlog 📋 Synology DS2xx+ "Ersatz" - Eigenbau (TrueNAS)

toscdesign

Enthusiast
Thread Starter
Mitglied seit
17.02.2022
Beiträge
5.515
Hinweis:
Da ich immer wieder PNs mit Fragen bezüglich des Buildlogs bekomme, möchte ich nochmals darauf hinweisen:

Jeder darf hier in dem Thread Fragen stellen und ich beantworte diese auch gerne :giggle:









Erstmal eine kurze Einführung, warum ich das hier mache:

Ich war auf der Suche eines Nachfolgers für meine Synology Diskstation DS216+ und deren Schwestersystem DS216.
Nur irgendwie habe ich keine für mich passende Nachfolger gefunden, auch nicht bei anderen Hersetellern.

Mit der Richtung, welche von Synology aktuell eingeschlagen wurde, bin ich nicht wirklich zufrieden.
  • Es gibt bei den 2 Bay Modellen oft nur eine 1Gbit LAN Schnittstelle, auch ist 2,5Gbit LAN oft nicht anzutreffen.
  • 10Gbit Schnittstellen werden nicht genutzt, auch wenn der verwendete SoC das Onboard hat (aktuelle Ryzen Modelle)
  • Die schlechte RAM Ausstattung, bei vielen Modellen nicht aufrüstbar
  • Die Software wird immer mehr "verdongelt"
  • Immer mehr Funktionen nur noch mir Online Account möglich
  • Die Telemetrie nimmt stark zu
Das sind jetzt nur einige Punkte welche mich stören.


Nach reifer Überlegung bin zu dem Entschluss gekommen, mir etwas eigenes zu bauen, aus folgenden Gründen:
  • Verwendbarkeit von Standard Hardware (mehr oder weniger)
  • Verwendbarkeit von Standard Software
  • die starke Nutzung von Docker meinerseits, da viele Synology Apps einfch nur noch schlecht sind
  • mein 3D Drucker, für spezielle Teile oder auch das Gehäuse
  • Kosten der beiden Geräte sollte pro Gerät (ohne Festplatten) 350€ nicht übersteigen

Die Hardware:
NAS 1:
Kosten ohne Gehäuse 290,05€
Der RAM wurde gewählt, da es das günstigste kompatible Kit von einem guten Hersteller war:
Die 500GB SSD wurde gewählt, da diese preislich auf gleichen Niveau wie 250GB SSDs liegt, 5Jahre Garantie bietet und gute Mittelklasse ist.



NAS 2:
Kosten ohne Gehäuse 261,95€
Diese Komponenten wurde mal für ein anderes Projekt gekauft, liegen seit dem unbenutzt im Schrank.
Daher optimal für dieses Projekt.


Die Software:
Da ich weiteestgehend auf Standard-Software setzen möchte müssen folgende Bedingungen erfüllt sein:
  • Linux basierendes System (auch kein FreeBSD)
  • luks Verschlüsselung (z.b. wegen Einbruch und Diebstahl)
  • OpenSource Dateisystem mit Prüfsummen und Snapshots
  • Docker für die Übernahme meiner Anwendungen
  • mögliche Nutzung von KVM, wenn Docker nicht ausreicht
Im Grunde stehen daher nur 2 System zur Auswahl:
  • OMV 6
  • Ubuntu Server 22.04 LTS







Tag 1:
Ich habe mir schon mit dem 3D Drucker ein Gehäuse für NAS 2 gedruckt und die schon vorhandene Hardware verbaut.
Die Hardware für NAS 1 ist erst bestellt und folglich noch nicht eingetroffen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als Alternative für OMV und plain Ununtu werde ich mal noch TrueNAS Scale (basiert auf Debian) in den Raum. Ich bin vor kurzem von OMV auf TrueNAS Scale umgestiegen und bin damit sehr zufrieden.
 
@bimini
Das habe ich mir auch schon überlegt, doch einige Dinge stören mich sehr daran:
  • keine Luks Encryption möglich, nur native ZFS Encryption möglich.
    Da AES-Ni nicht richtig unterstützt wird, sehr langsam auf der oben genannten Hardware.
  • keine saubere nachinstallation von Paketen per Apt möglich
  • keine Docker unterstützung, nur Kubernetes
  • hohe CPU Auslastung bei SMB
Daher ist es nicht in meine engere Auswahl gekommen.
 
Tag 2:
Die Installation von OMV6 ging problemlos von statten und das System läuft erstmal damit:
OMV6_1.png


Ich habe auch mal den Stromverbrauch beider System gegenüber gestellt:
Synology DS216+ (Leerlauf)NAS2 - Eigenbau OMV6 (Leerlauf)
Systemverbrauch (ohne Festplatten)12W3,6W
Verbrauch Festplatten5,2W x2 = 10,4W5,6W x2 = 11,2W
Verbrauch gesamt22,4W14,8W


Tag 2 Update 1:
Durch meine selbst gesetzte Vorgabe, habe ich mich für die Tests für das Dateisystem btrfs entschieden. Verschlüsselung läuft über luks.

Um luks nutzen zu können müssen zuerst die OMV Extras installiert werden:

Dann das entsprechende Plugin:
OMV6_2.png

Danach einfach beide Platten über das Plugin verschlüsseln. ACHTUNG Alle Daten gehen verloren!

Nun zum RAID:
Ich kann verstehen, das OMV beim Raid System auch unter btrfs auf mdraid setzt, hat den Vorteil man kann Raid 5/6 nutzen.
Für mich ist dies aber nicht relevant, da mir Dinge wie Prüfsummen wichtig sind und ich sowieso nur 2 Festplatten einsetze.

Was ist der Nachteil von btrfs auf mdraid im RAID1 im Gegensatz zu btrfs RAID1?
Der Nachteil ist, das so btrfs zwar bitrot (gekippte Bits) erkennen, aber nicht reparieren kann.

Daher habe ich eine btrfs RAID über ssh erstellt:
Code:
mkfs.btrfs -L pool0 -d raid1 -m raid1 -f /dev/mapper/sda-crypt /dev/mapper/sdb-crypt

Dieses RAID/btrfs Dateisystem kann dann ganz normal über die Oberfläche von OMV eingebunden werden:
OMV6_3.png
 
Zuletzt bearbeitet:
@bimini
Das habe ich mir auch schon überlegt, doch einige Dinge stören mich sehr daran:
  • keine Luks Encryption möglich, nur native ZFS Encryption möglich.
    Da AES-Ni nicht richtig unterstützt wird, sehr langsam auf der oben genannten Hardware.
  • keine saubere nachinstallation von Paketen per Apt möglich
  • keine Docker unterstützung, nur Kubernetes
  • hohe CPU Auslastung bei SMB
Daher ist es nicht in meine engere Auswahl gekommen.
Seit wann kann man ein ZFS Filesystem nicht auf einem via LUKS verschlüsseltem Device erzeugen ?
Oder auf einer Datei in einem LUKS encrypted Device ?
 

Als Hardware käme ev. eine Topton Box in Betracht und als Host OS der Virtualisierer Proxmox.
 
@Supaman
Genau so eine Box läuft bei mir schon als Firewall.
Ich habe gerne beides getrennt.




Tag 2 Update 2:
Was mich aktuell etwas an OMV bzw. dem Luks Plugin stört, ist das man das Passwort für jede Festplatte einzeln eingeben muss.
Bei meinen zwei Festplatten mag das noch gehen, aber falls jemand mehrere verwendet, ist es schon angenehmer es nur einmal eingeben zu müssen.

Ich habe mir da mal schnell ein einfaches bash script geschrieben, welches mir eine einmalige Passwort Eingabe für die Verschlüsselung erlaubt.
Bitte seht mir nach, wenn es nicht das perfekteste ist, bin kein Programmierer 🫣

Da ich davon ausgehe, das dieses Script ggf. von jemanden gerne auf seinem System (Unabhängig von OMV) nutzen möchte und zukünftig wahrscheinlich weitere Scripte dazu kommen werden,
stelle ich es euch über Github zur Verfügung:
 
ich hab xpenology laufen, weil ich keine alternative gefunden habe ohne linux-bastelei.
 
Das Widerspricht meinem Vorgaben, von Synology wegzukommen, aus den oben genannten Gründen.
Da macht mir das bisschen Linux Basetelei nix aus 😉
 
Tag 3:

So jetzt wo das System grundlegend läuft, kommen ein paar Speedtests:

Speedtest für die Verschlüsselung (cryptsetup benchmark):
Code:
# Die Tests sind nur annähernd genau, da sie nicht auf den Datenträger zugreifen.
PBKDF2-sha1       882639 Iterationen pro Sekunde für 256-Bit-Schlüssel
PBKDF2-sha256    1356501 Iterationen pro Sekunde für 256-Bit-Schlüssel
PBKDF2-sha512     561937 Iterationen pro Sekunde für 256-Bit-Schlüssel
PBKDF2-ripemd160  411529 Iterationen pro Sekunde für 256-Bit-Schlüssel
PBKDF2-whirlpool  277107 Iterationen pro Sekunde für 256-Bit-Schlüssel
argon2i       4 Iterationen, 816576 Speicher, 4 parallele Threads (CPUs) für 256-Bit-Schlüssel (Zieldauer 2000 Millisekunden)
argon2id      4 Iterationen, 816904 Speicher, 4 parallele Threads (CPUs) für 256-Bit-Schlüssel (Zieldauer 2000 Millisekunden)
#   Algorithmus | Schlüssel | Verschlüsselung | Entschlüsselung
        aes-cbc        128b       628,4 MiB/s      1298,4 MiB/s
    serpent-cbc        128b        42,2 MiB/s       151,5 MiB/s
    twofish-cbc        128b        98,5 MiB/s       123,9 MiB/s
        aes-cbc        256b       503,5 MiB/s      1121,7 MiB/s
    serpent-cbc        256b        51,2 MiB/s       151,0 MiB/s
    twofish-cbc        256b       109,2 MiB/s       123,3 MiB/s
        aes-xts        256b      1181,3 MiB/s      1178,7 MiB/s
    serpent-xts        256b       125,2 MiB/s       151,0 MiB/s
    twofish-xts        256b       109,6 MiB/s       119,6 MiB/s
        aes-xts        512b      1049,3 MiB/s      1051,9 MiB/s
    serpent-xts        512b       152,1 MiB/s       151,2 MiB/s
    twofish-xts        512b       118,7 MiB/s       119,8 MiB/s

Speedtest Datenträgerleistung (rsync):
Von interner NVMe SSD auf das btrfs RAID 1:
Code:
25,032,716,554 100%  115.08MB/s    0:03:27 (xfr#1, to-chk=0/1)


Vom btrfs RAID 1 auf die interne NVMe SSD (rsync):
Code:
 25,032,716,554 100%  117.17MB/s    0:03:23 (xfr#1, to-chk=0/1)

Von den Geschwindigkeiten sieht es recht gut aus, wenn man bedenk das ich 2 alte 500GB WD Blue für das btrfs RAID 1 verwende.
 
Tag 3 Update 1:

Vom PC über smb zum NAS auf das btrfs RAID1:
Code:
25,032,716,554 100%  130.26MB/s    0:03:03 (xfr#1, to-chk=0/1)

Vom btrfs RAID1 des NAS über smb zum PC:
Code:
25,032,716,554 100%  110.66MB/s    0:03:35 (xfr#1, to-chk=0/1)


Die CPU Auslastung liegt in beiden Richtungen zwischen 20-40%
Da ich aktuell leider nur ein 1Gbit Lan habe, sind natürlich die Messergebnise gedeckelt.
 
Könntest noch versuchen SMB MC zum laufen zu bringen; hab den log nur überflogen, ka ob es in dem OS in der verwendeten samba version supported wird.
Bräuchtest dann allerdings auch am Client mehr als 1Gbit (mehrere Nics, Multi-Nic oder bspw ne 10GBe)
 
Jupp, das könnte ich machen.
Wäre eine Überlegung für die Zukunft :unsure:
 
Tag 4:
Es gibt ein kleines Problem, wenn ich die verschlüsselten Laufwerke über mein Script entschlüssele.
OMV 6 bekommt das nicht immer mit und die Freigaben funktionieren dann nicht, da er die Ordner nicht findet.

Ich habe dann manuell die fstab Einträge gemountet:
Bash:
mount -a

Dann taucht aber auch die System SSD als verfügbares Datenlaufwerk auf, nicht so geil.

Hier muss ich mir noch eine Anpassung für das Script einfallen lassen.
 
Tag 5:
So die Festplatten sind nun auch bestellt.
Eigentlich wollte ich alle Festplatten gleich haben, also 12TB.

Jetzt sind es 2x 18TB Platten geworden, bei 15€ pro TB konnte ich nicht wiederstehen 😁

Die Exos X20 Serie wurde ja auch von Hardwareluxx getestet und als erstaunlich leise beschrieben:
 
Tag 6:
Die Hardware ist da, naja zumindest teilweise :cry:
Leider haben meine Festplatten einen Transportschaden erlitten, ist aber schon mit dem Händler geklärt.
Darf diese zurückschicken und bekomme dann Ersatz.

Anbei die Hardware die jetzt auf meinem Tisch liegt:
  • Odroid H3
  • Netzteil für den Odroid
  • 16GB (2x 8GB) DDR4 RAM
  • WD Blue NVMe SSD 500GB
Hardware.jpg
Beitrag automatisch zusammengeführt:

Tag 6 Update 1:
Den Odroid habe ich nun mit RAM und NVMe SSD aufgebaut:
Aufbau2.jpg Aufbau1.jpg

Erstmal den RAM auf Fehler prüfen:
RAM Test1.jpg
 
Zuletzt bearbeitet:
Interessanter Log, lese schon eine Weile mit :wink:

Da ich sehe, dass du den Odroid H3 verwendest: woher hast du die SATA-Stromanschlüsse bekommen? Bin wohl blind, wo man die zur Zeit herbekommt :fresse:
 
Danke, ich hoffe es bleibt interessant 😅

Ja genau Odroid H3 und H2+, werden zwei Systeme.

Die Kabel baue ich selber, da ich auch keine bekommen habe.

Die SATA Stecker mit Kabel kommen von einem alten PC Netzteil und die Stecker die auf das Board kommen sind JST-XH 2,54mm Stecker.
Die Crimpe ich mit der entsprechenden Zange an die Kabel.

Beim H2+ hat das jetzt wunderbar geklappt.
Sobald ich die Austausch Festplatten habe, baue ich die anderen Kabel, muss aber erstmal schauen ob die Pinbelegung die gleiche ist.

Hier sind schonmal das Material was ich für die Kabel verwendet habe:
 
Die SATA Stecker mit Kabel kommen von einem alten PC Netzteil und die Stecker die auf das Board kommen sind JST-XH 2,54mm Stecker.
Die Crimpe ich mit der entsprechenden Zange an die Kabel.
Ich habe befürchtet, dass du das sagst - aber dann werde ich das wohl auch machen müssen. :wink:
 
Dafür weiß man das sie ordentlich gefertigt sind 😅

Und die Zange kann man ja weiter verwenden, die meisten 3D Drucker nutzen die gleichen Stecker 😉
 
Tag 7:
Da meine Ersatz Festplatten immer noch nicht da sind, möchte ich die Zeit nutzen um mal die Performance von ZFS zu testen.
Im Grunde wieder der Aufbau wie bei btrfs. Die ZFS Partitionen liegen wieder auf luks Verschlüsselten Laufwerken, verwendet wird wieder ein RAID 1 bei ZFS Mirror genannt:


Speedtest Datenträgerleistung (rsync):
Von interner NVMe SSD auf das ZFS Mirror:
Code:
25,032,716,554 100%  118.65MB/s    0:03:21 (xfr#1, to-chk=0/1)


Vom ZFS Mirror auf die interne NVMe SSD (rsync):
Code:
25,032,716,554 100%  152.08MB/s    0:02:36 (xfr#1, to-chk=0/1)
 
Tag 7 Update 1:
So die beiden Festplatten sind da (y)

Diese waren diesmal einzeln verpackt, leider hat eine der Festplatten am oberen Rand eine Delle (trotz guter und unbeschädigter Verpackung).
Da aber bei den Helium gefüllten Exos die Außenhülle nur eine zusätzliche Abdichtung der Innenhülle ist, mache ich mir erstmal keine Sorgen.

Die Platte muss sowieso erstmal einen Dauertest (einmal mit Zufallszahlen vollschreiben) überstehen:
HDD Test.jpg

Befehl für das Schreiben der Zufallsdaten:
Code:
sudo dd bs=1M if=/dev/urandom of=/dev/sdb status=progress
 
Zuletzt bearbeitet:
Tag 7 Update 2:
Händler sagt, ich soll die Platte zurück schicken, bekomme eine neue.
Alle guten Dinge sind wohl wirklich drei :LOL:
 
Tag 8:
So die Ersatz-Ersatzplatte ist unterwegs, hoffentlich kommt diese unbeschädigt an :fresse:

Ich habe jetzt mal Testweise die Exos X20 angeschlossen und die beiden 500GB Testplatten abgeklemmt.
Beim Einschalten des Systems der erste Schock! 30W zeigte das Messgerät. Da scheint die Platte wohl einen sehr hohen Anlaufstrom zu haben.

Im Idle sieht das wieder ganz anders aus, das kommt das System mit einer Platte im Idle auf 7,8W.
D.h. im Umkehrschluss, das die Platte im Leerlauf 4,2W benötigt? Echt jetzt, so wenig? o_O

Naja ganz so ist es nicht, alle paar Minuten steigt es für kurze Zeit auf 10W (fürs System) also 6,4W für die Platte.
Trotzdem ein super Wert! (y)

Und ja die Platte ist im Idle extrem leise und vibriert kaum spürbar. Zugriffe sind hörbar, aber nicht lauter als meine WD120EDAZ.
Also stimmen meine Erfahrungen mit dem Test von Hardwareluxx überein (y) https://www.hardwareluxx.de/index.p...hr-kapazitaet-durch-mehr-platter.html?start=3

Danke noch an Hardwareluxx für den super Test, dieser ist für mich extrem hilfreich gewesen :love:




Nebenbei mache ich jetzt doch mal ein paar Tests mit TrueNAS Scale!
Haben bestimmt auch die Leute aus dem ZFS Stammtisch mitbekommen, habe direkt ein (für mich) seltsames Verhalten entdeckt:
 
Tag 9:
Die Software:

Nach einigen Tagen ausführlichen Testens, habe ich mich für folgendes Setup entschieden:

OS: Ubuntu Server 22.04.1
FS: btrfs Raid1 auf luks -> Shares über smb

Tools:
- cockpit https://cockpit-project.org/
- cockpit-file-sharing https://github.com/45Drives/cockpit-file-sharing
- snapper https://wiki.archlinux.org/title/snapper
- btrbk https://github.com/digint/btrbk

Container:
- docker-compose https://docs.docker.com/compose/
-- nextcloud https://nextcloud.com/de/
-- PhotoPrism https://www.photoprism.app/features
-- miniDLNA https://wiki.archlinux.org/title/ReadyMedia


Des Weiteren habe ich noch einige Performance Tests mit "Real World Daten" durchgeführt.
Dabei habe ich 39GB über smb zu dem NAS mit versch. Konfigurationen geschickt.
Diese Daten enthielten eine große 30GB Datei und viele kleine 1-10MB sowie einige nur wenige KB große Dateien.
Diese wurden mit rsync auf das Share kopiert.

ZFS Mirrorbtrfs RAIDbtrfs auf mdraid (Synology)
Zeit6min 36sek6min 5sek5min 59sek
Geschwindigkeit angegeben (rsync)98,4MB/s106,8MB/s108MB/s
Geschwindigkeit berechnet (gerundet)96,1MB/s106,7MB/s108,3MB/s

Zum Vergleich habe ich noch eine Messung von meiner DS216+ angehängt, welche auch mit btrfs läuft. Im Gegensatz zu einem richtigen btrfs RAID1 setzt Synology aber lieber auf mdraid. Das bringt aber nur minimale Performance Vorteile.

Die Messungen liefen über ein 1Gbit Netzwerk, daher sind höhere Datenraten auf diese Weise nicht messbar!
Aber trotzdem ist eine klare Tendenz zu einem Performance Vorteil von btrfs in meinem Szenario zu erkennen.




Weiteres zu meiner Entscheidung:

TrueNAS Scale:
Warum habe ich mich gegen das auch auf Linux basierende TrueNAS Scale entschieden?
  1. Es ist nur die native ZFS Encryption verfügbar, welche Performance technisch immer noch Probleme mit CPUs ohne AVX hat.
    Dies steht im Zusammenhang mit AES-NI unter ZFS. Dies wird ohne AVX nicht richtig unterstützt, so das AES zumindest teilweise noch in Software läuft.
  2. Das darunter liegende OS ist mir schon zu stark eingeschränk (verdongelt). Viele Linux typische Tools fehlen und lassen sich auch nicht per apt nachinstallieren
  3. Die Konfiguration, ist teilweise über die GUI eingeschränkt. z.B. können keine luks "Laufwerke" für Pools verwendet werden. Zwar lässt sich das über die CLI teilweise konfigurieren, funktioniert aber sehr instabil und verursacht Fehler im Webinterface.


OMV 6:
Warum habe ich mich gegen das auch auf Linux basierende OMV 6 entschieden?
  1. Die Konfiguration von btrfs ist über das Webinterface quasi nicht vorhanden, so dass hier die CLI bemüht werden muss
  2. Von den Funktionen für mich viel zu überladen
  3. Das Webinterface verhält sich manschmal echt komisch, sodass nur noch ein leeren den Browser Caches Abhilfe schafft.


Ubuntu Server 22.04.1:
Warum habe ich mich für Ubuntu Server entschieden?
Eins vorweg, auch hier ist nicht alles Gold was glänzt!

Zuerst stört mich der snap Krempel sowie cloud-init. Folgende Systemteile entferne ich per apt purge immer von Ubuntu Server:
- snapd
- cloud-init
- multipath

Aber jetzt zu den Punkten warum ich mich für Ubuntu Server entschieden habe:
  1. ein (für mich) aufgeräumtes System, das ich nur um die Teile erweitern muss, welche ich wirklich benötige
  2. voller Zugriff auf "alle" Linux Tools, notfalls per apt nachinstallierbar
  3. Quasi "Set and forget" durch den LTS Support und hauptsächlich Sicherheitsupdates welche installiert werden müssen, einen stark reduzierten Wartungsaufwand!
  4. Ich kann komplett auf Standardsoftware ohne Veränkungen setzen, was auch eines der Ziele meinerseits ist.
 
Zuletzt bearbeitet:
Tag 10:
Die ersten Druck-Teile:

Die Grundplatte + Wartungsklappe ist gedruckt und der Odroid H3 + RAM + SSD verbaut.

Draufsicht Board:
Grundplatte 1.jpg

Draufsicht Wartungsklappe offen:
Grundplatte 2.jpg

Draufsicht Wartungsklappe geschlossen:
Grundplatte 3.jpg




Des Weiteren habe ich mir mal so meine Gedanken über die Datenstruktur gemacht.

Haupt NAS:
SSD (500GB)
- 250GB System Disk
- 250GB Luks Disk
--> btrfs (nodatacow) "apppool"

HDD1 (12TB)
- Luks Disk
--> btrfs RAID1 Member "datapool"

HDD2 (12TB)
- Luks Disk
--> btrfs RAID1 Member "datapool"


Pools:
apppool Subvolumes:
- btrfs subvolume "Docker"

datenpool Subvolumes:
- btrfs subvolume ".snapshots"
- btrfs subvolume ".appsnapshots"
- btrfs subvolume "Daten"
- btrfs subvolume "Office"

Snapshots:
Konfiguration via snapper
- subvolume "apppool/Docker" nach ".appsnapshots/Docker"
--> täglich
- btrfs subvolume "Daten" nach ".snapshots/Daten"
--> alle 4 Stunden
- btrfs subvolume "Office" nach ".snapshots/Office"
--> stündlich



Backup NAS:
SSD (250GB)
- 250GB System Disk

HDD1 (18TB)
- Luks Disk
--> btrfs RAID1 Member "backuppool"

HDD2 (18TB)
- Luks Disk
--> btrfs RAID1 Member "backuppool"


backuppool Subvolumes:
- btrfs subvolume "snapshots"
- btrfs subvolume "appsnapshots"

Snapshots:
Konfiguration via btrbk
- subvolume "datenpool/.appsnapshots" nach "backuppool/appsnapshots"
--> täglich
- btrfs subvolume "datenpool/.snapshots/Daten" nach "backuppool/Daten"
--> wöchentlich
- btrfs subvolume "datenpool/.snapshots/Office" nach "backuppool/Office"
--> täglich

ggf. wird die Konfiguration noch angepasst, wenn eines der anderen Tools sinvoller ist:
 
Jau, besser als die komischen Hersteller Gehäuse....

Das Board soll lt. Reddit sogar nach einem Bios Update bei nur 2,x W Idle liegen. Hätte ich nur einen 3D-Drucker und das Board wäre auch lieferbar! :cautious:
 
Für ein 3D gedrucktes Gehäuse finde ich es nicht schlecht.
Klar das die Hersteller Gehäuse "hochwertiger" sind, die haben ja auch Spritzguss Maschinen :LOL:

Das Board wird immer mal wieder verfügbar. Die Nachfrage ist halt extrem hoch.
Ist meines Wissens das einzige so kleine Board mit dieser Ausstattung, alleine die zwei 2,5Gbit Ports sind Gold wert 8-)

Den Stromverbrauch mit dem neusten Bios muss ich mir auch mal anschauen :unsure:
 
Zitat: UPDATE: now with new BIOS version 1.10 my idle power consumption decreases from 1.5—2.2W to 1.2—1.4W 😳 (bios 1.10 is avialable on
Ob das auch so ist, kann ich dir natürlich nicht garantieren.:whistle:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh