Buildlog 📋 Synology DS2xx+ "Ersatz" - Eigenbau (TrueNAS)

Das mit dem 3D Drucker ist auch weniger ein Problem. Hier im Forum einfach im entsprechenden Fred nach nem Druck fragen, VSK + Material bezahlen und über TG freut sich da jeder.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tag 11:

Das Grundgerüst des Haupt-NAS ist zusammen gebaut:
Grundgerüst 1.jpg


Die nächsten Schritte sind:
  • die beiden 500GB Test-Festplatten aus dem Backup-NAS (das Blaue) ausbauen und hier einbauen
  • in das Backup-NAS die beiden Exos 18TB Platten einbauen
  • das Haupt-NAS aufsetzen und einrichten
  • dummy Daten auf das Haupt-NAS kopieren
  • die Snapshots sowie die Backup Tools testen
 
Tag 12:
halber Herzinfarkt o_O

Eigentlich wollte ich nur in Ruhe schonmal Ubuntu Server 22.04.1 aufsetzen, bis meine kurzen SATA Kabel da sind.
Und dann bekomme ich eine Latte von PCIe Bus Fehlern beim Booten vom Stick:

BIOS Bug.jpg
(sorry für das schlechte Foto)


Zum Glück liegt hier kein Defekt vor, sondern nur ein BIOS Bug.
Dieser ist inzwischen gefixt, ein einfaches BIOS Update auf die neuste Version schafft Abhilfe :giggle:
 
Tag 13:
Oh meine Glückzahl + kleines Update

Ich muss etwas umdisponieren.
Da die WD Blue SN570 2TB gerade sehr sehr günstig ist, habe ich diese für meinen PC bestellt.

Dabei bleibt mir die alte Samsung EVO 970 mit 500GB übrig. Daher kommt diese nun als System SSD im Haupt-NAS zum Einsatz.

Die WD Blue SN570 500GB, geht daher wieder zurück.
 
Tag 14:
kleine Optimierung, große Wirkung

So das Haupt-NAS ist bis auf die Festplatten soweit aufgebaut.
Bei der ersten Inbetriebnahme nach dem Wechsel der SSD war ich zuerst etwas geschockt.

Der Stromverbrauch lag im Idle bei 7-8W o_O
Nach etwas suchen, habe ich herausgefunden, das die PCIe Stromsparmechanismen standardmäßig abgeschaltet sind :hmm:
Diese kann und sollte man für jeden einzelnen PCIe Eintrag aktivieren, also auf "Auto" stellen, damit sinkt der Verbauch auf 4W im Idle:

Stromsparen1.jpg



Ein weiteres Detail, was standardmäßig "unglücklich" gelöst ist -> die Lüftersteuerung.
Diese schaltet den Lüfter unter 40°C CPU Temperatur komplett ab!

Dies führt dazu, das der Lüfter an- und wieder aus geht. Kurz darauf wieder an- und wieder aus....
Einfache Lösung ist das Eintragen einer Starttemperatur von 1°C (0°C funktioniert nicht):

Lüfter1.jpg

Für die Festplatten später ist es sowieso gesünder, wenn sie permanent einen leichten Luftstrom abbekommen.
 
Schade, dass bei deinem Setup der Lüfter nicht durch die Kühlrippen bläst, das würde enorm viel helfen, denke ich.
Hast du denn einen Hitzestau? Der Odroid H3 sollte ja schon fast passiv betrieben werden können...
 
Tag 14 Update 1:
SSD + Docker Setup

SSD:
Zuerst musste ich natürlich die zweite Partition mit luks und btrfs auf der SSD einrichten.
Im Grunde nutze ich wie schon geplant folgendes Setup für die System SSD:
Bash:
NAME         MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
nvme0n1      259:0    0 465,8G  0 disk 
├─nvme0n1p1  259:1    0     1G  0 part  /boot/efi
├─nvme0n1p2  259:2    0   200G  0 part  /
└─nvme0n1p3  259:3    0   264G  0 part 
  └─apcrypt  253:0    0   264G  0 crypt /mnt/apppool

Das btrfs Dateisystem auf der luks Partition wollte ich ursprünglich ohne CoW (Copy on Write) erstellen.
Nach sehr sehr viel Recherche bin ich aber zum Schluss gekommen, das die Vorteile den Nachteilen überwiegen.
Denn mit deaktivierten CoW verliert man auch andere Funktionen wie z.B. Checksums und Kompression.
Inzwischen gehen die Meinungen sehr stark auseinander, ob man für Datenbank Laufwerke CoW wirklich deaktivieren sollte. :unsure:
Daher bleibt es bei mir erstmal eingeschaltet.

Zusätzlich habe ich für das btrfs Dateisystem die Kompression aktiviert.
Der Algorhytmus zstd in Stufe 1 führt nur zu einem minimalen Leistungsverlust des Dateisystems, reduziert aber die Anzahl der Schreibvorgänge auf die SSD signifikant!

Dies wiederum und die etwas verringerte Dateigröße (bei komprimierbaren Daten) erhöht die Lebensdauer der SSD, was ein weiterer Vorteil ist.

Die Option der Kompression kann ganz einfach über die Mount Optionen konfiguriert werden:
Bash:
mount /dev/mapper/apcrypt /mnt/apppool/ -o noatime,compress=zstd:1

Des Weiteren habe ich natürlich das Subvolume "Docker" auf dem btrfs Dateisystem angelegt um dort entsprechend alles was mit Docker zu tun hat, ablegen zu können. Somit sind auch alle Daten der Docker Container inkl. Datenbanken verschlüsselt.


Docker:
Im Grunde verwende ich für die Verwaltung aller meiner Container das Tool Portainer.
Dieses habe ich über eine docker compose Datei im Subvolume in Betrieb genommen, also:
Bash:
/mnt/apppool/Docker/portainer/docker-compose.yml

Alle weiteren Container wie z.B. nextcloud lege ich über Stacks (Abwandlung von docker compose) direkt über Portainer an.
Dort werden diese auch verwaltet.
Zu beachten ist nur, bei den Docker Volumes auch den richtigen Pfad zum Docker Subvolume auf dem btrfs Dateisystem anzugeben.

Der Container Nextcloud ist schon am Laufen und ich bin schon fleißig am Testen :giggle:



PS:
Über reddit, habe ich diesen Benchmark gefunden, der den minimalen Geschwindigkeitsverlust schön aufzeigt:
Beitrag automatisch zusammengeführt:

Schade, dass bei deinem Setup der Lüfter nicht durch die Kühlrippen bläst, das würde enorm viel helfen, denke ich.
Hast du denn einen Hitzestau? Der Odroid H3 sollte ja schon fast passiv betrieben werden können...
Ja finde ich auch schade, beim Odroid H2+ sind die Kühlrippen um 90° gedreht. Warum man das beim H3 geändert hat, keine Ahnung.
Wenn das NAS fertig ist, ist das Gehäuse ja ziemlich klein, da ist es natürlich besser wenn der Lüfter immer läuft.

Ist quasi unhörbar, von daher stört mich das nicht :giggle:
 
Tag 15:
Docker aber wie?

Mein eigentliches Konzept sah vor, die Docker Struktur folgendermaßen aufzubauen:
- docker compose mit manuellem Start:
-- Portainer für die Verwaltung der Docker Container
---> Nextcloud für Kontakte, Aufgaben, Kalender und Notizen
---> miniDLNA für meine Musik
---> PhotoPrism für meine Fotos

Da die Docker Container erst gestartet werden sollten, wenn das entsprechende Datenlaufwerk entschlüsselt und verfügbar ist,
funktioniert hier logischerweise kein Autostart. Also muss zuerst Portainer über Docker Compose gestartet werden.
Dann in Portainer einloggen und dort Nextcloud (und alle anderen Container) starten.
(man könnte bestimmt alles über ein Script machen, aber so weit bin ich noch nicht)

Also habe ich für die ersten Tests nur Portainer und Nextcloud eingerichtet und gestern und heute ausgibig gestestet.
Aufm PC sowie die entsprechenden Apps aufm Smartphone (Android).

Dabei ist einige Unzulänglichkeiten von nextcloud aufgefallen:
  • Es lassen sich Kontaktgruppen nicht löschen. Man muss diese komplett leeren (Kontakte verschieben oder löschen) und dann wird die Gruppe irgendwann automatisch gelöscht. Dies ist ein bekanntes Verhalten, das trotz vielen User Beschwerden noch nicht geändert wurde.
  • Es können keine Bilder über die Notizen App (Android) an die entsprechenden Notizen angehängt werden.
  • Am PC an Notizen angehänge Bilder sind auf dem Smartphone nicht anzeigbar.


Ich bin gerade dabei zu überlegen das Konzept hier stark abzuändern:
- docker compose mit manuellem Start für:
--> Radicle als CalDav Server (Kontakte, Kalender, Aufgaben) - https://radicale.org/v3.html
--> Joplin für die Notizen - https://hub.docker.com/r/joplin/server
--> miniDLNA weiterhin für meine Musik
--> PhotoPrism weiterhin für meine Fotos

Auch hier würde ich wieder die Container manuell starten, daber diesmal nur mit eigenen docker compose files.
Den Layer Portainer würde ich komplett weglassen.


Was sagt ihr dazu?
 
Sehr interesantes Projekt! Du hast mich jetzt schon inspieriert auch ein NAS auf Ondroid Basis zu bauen. Aktuell hab ich ein schmales 3HE Rack Case im Kopf. Aber ich will minimum 4 Festplatten, was ja durch nen 5 Port M.2 Sata Adapter möglich wird. Die beiden Board SATA Ports wären dann für die 2 Caching SSDs. OS läuft auf EMMC. Stromversorgung sollte mit nem passenden 19V/7A (133W) Netzteil ja locker machbar sein. muss natürlich schauen, ob die beiden SATA Ports des hergeben im Worts Case 7 Geräte den Anlaufstrom bereitzustellen. Ansonsten kann ich auch nen FlexATX verwenden. Der H3 geht laut Recherchen auch mnit 12V Eingangsaspannung, solange man dann den SATA Strom am Board nicht verwendet.

Hier mein grober Plan :fresse:. Aber ich habe vor auf viele Fertigteile zu setzen, die man einfach kaufen kann. z.B. HDD/SSD Trays von Synology/Qnap und HotSwap Connectoren von Gehäuseherstellern. z.B. https://www.corsair.com/us/en/Categ...rbide-Air-540-Hot-Swap-Connector/p/CC-8930148 (wobei dieses Case ja schon ziemlich alt ist)
1677107674195.png



Aber eine Frage, die du vielleicht beantworten kannst! Hast du dir schon Gedanken gemacht, wie man 2farbige LEDs anschliesen kann um defekte oder zu tauschende Laufwerke farblich zu markieren kann? Gibt doch bestimmt ne Software die als Dienst im hintergrund läuft und Smart Werte überwacht und bei schlechten Werten seriell rückmeldung gibt?
 
Sehr interesantes Projekt! Du hast mich jetzt schon inspieriert auch ein NAS auf Ondroid Basis zu bauen.
Danke :giggle:

Aber ich will minimum 4 Festplatten, was ja durch nen 5 Port M.2 Sata Adapter möglich wird. Die beiden Board SATA Ports wären dann für die 2 Caching SSDs. OS läuft auf EMMC. Stromversorgung sollte mit nem passenden 19V/7A (133W) Netzteil ja locker machbar sein.
Dazu gibt's was im Wiki von Odroid. Dort ist ein Beispiel einen 6 Bay NAS + ATX Netzteil.

Im Forum von Odroid gibt es die passende Bild für Bild Anleitung + Verdrahtung:

Aber eine Frage, die du vielleicht beantworten kannst! Hast du dir schon Gedanken gemacht, wie man 2farbige LEDs anschliesen kann um defekte oder zu tauschende Laufwerke farblich zu markieren kann? Gibt doch bestimmt ne Software die als Dienst im hintergrund läuft und Smart Werte überwacht und bei schlechten Werten seriell rückmeldung gibt?
Der Odroid hat sogar einen I²C Bus, an dem man z.B. einen MCP23017 GPIO Chip anschließen kann:

Ich selbst habe mir überlegt, das per E-Mail zu machen. Also z.B. einmal die Woche die Werte auszulesen und dann wenn einer der Werte schlecht ist, ne E-Mail zu schicken.

Wie genau das dann funktioniert und ob es da schon was fertiges gibst, muss ich noch recherchieren.
 
Tag 16:
Scripte

So ich habe nun die Hauptscripte für das NAS fertig, diese wären:
  • system_startup.sh - NEU
    verantwortlich für die Steuerung der nachfolgenden Scripte, sowie der Überprüfung auf root Rechte
  • storage_startup.sh - überarbeitet
    verantwortlich für das Einhängen der verschlüsselten Laufwerke, Funktionen die nicht zu dieser Aufgabe gehören habe ich entfernt
  • docker_startup.sh - NEU
    verantwortlich für das Starten der Docker Container via docker-compose files

Alle Scripte enthalten Beschreibungen und Beispiele für die Konfiguration.
Und sie sind natürlich auf github zu finden: https://github.com/toscdesign/NAS_scripts





Auch ging es weiter mit den Docker Tests und ich habe mich wie angekündigt für folgende Lösung entschieden:

- docker compose mit manuellem Start (gestartet über docker_startup.sh):
--> Radicle als CalDav Server (Kontakte, Kalender, Aufgaben) - https://radicale.org/v3.html
--> Joplin für die Notizen - https://hub.docker.com/r/joplin/server
--> miniDLNA weiterhin für meine Musik - https://wiki.ubuntuusers.de/ReadyMedia/
--> PhotoPrism weiterhin für meine Fotos - https://www.photoprism.app/


Was läuft schon:
  • Radicale für Termine, Kontakte und Aufgaben
    Die Optimierungen folgen noch, aber bis jetzt kann ich nur positives berichten. Es läuft einfach und ist dazu noch schlank und flott.
 
Tag 17:
Konstruktionsänderung

Das Case ist im Grunde gut kontruiert, nur die HDD Rails sind suboptimal.
Druckt man diese aus einem harten Material wie z.B. PLA oder PETG, übertragen diese die Vibrationen der Festplatten komplett in das Gehäuse.
Druckt man diese aus TPU, passiert das nicht mehr, dafür hängt aber die Rail gefährlich durch.
TPU Rails.jpg


Daher habe ich mir dir Mühe gemacht, neue Rails zu konstruieren, in diese ein TPU Teil eingeklebt wird.
So kann man die Rails selbst aus PLA oder PETG drucken mit entsprechender Stabilität.
Dabei habe ich gleich die Rails nach unten hin etwas verstärkt, was zu folge hatte das diese auf der Seite der Audioanschlüsse des Odroid Baords einen Ausschnitt benötigte. Somit gibt es jetzt zwei Rails eine für jede Seite:
PLA Rails mit TPU.jpg


Natürlich stelle ich die Version als Remix des original Gehäuses über printables zur Verfügung:
 
Tag 18:
Die ersten 2 Wochen Testbetrieb

Das System (NAS 1) ist nun seit 2 Wochen im Testbetrieb. (aktuell noch ohne Festplatten)
Aktuell zwar nur mit radicale als Dav Server, aber das super stabil (y)

Dabei ist mir aufgefallen, dass der Stromverbrauch des H3 um 1-2 Watt höher ist als beim H2+.
Dies schein noch ein Konfigurationsproblem zu sein, welches ich aktuell versuche zu lösen.

Mit powertop kann ich den Verbrauch auf unter 2 Watt drücken, dann fliegt mir aber manchmal die Netzwerkverbindung weg :poop:
 
Tag 19:
Neues TPU braucht das Land!

Sorry für das späte Update, war mir vorher nicht möglich.

So jetzt zum Thema TPU, ich hatte ja neue HDD Schienen mit TPU Einsätzen konstruiert.
In diese sollten diese TPU Teile eingeklebt werden, leider hat das nicht ganz so geklappt wie gedacht.

Die Auflagefläche für das TPU war einfach zu wenig, so dass dies nicht dauerhaft halten wollte.
Ich habe die TPU Teile nun etwas umkonstruiert und extra Klebeflächen hinzugefügt. das sollte jetzt halten:
TPU_Rails_v3.jpg

Natürlich habe ich auch gleich das Modell bei Printables upgedatet:


Des Weiteren hatte ich Probleme mit den kurzen SATA Kabeln, die leider viel zu unflexibel sind.
Hier habe ich nun extra flexible Kabel geordert, welche aber dafür 0,5m lang sind (kürzere gab es nicht).
 
Tag 19 Update 1:

Die neuen flexibleren SATA Kabel sind nun verlegt. Das ging sehr einfach, aber die Kabel sind auch sehr empfindlich und filigran.
Die Stromkabel habe ich selbst gecrimpt, die originalen sind ja quasi nicht zu bekommen:
NAS 1 Sata-Kabel.jpg

Hinten an den Festplatten ist es etwas eng. Da ist es einfacher kurz die Rückwand abzuschrauben um die Stecker anzustecken:
NAS 1 HDDs.jpg

Hier mal die ganze Konstruktion der HDD Rails mit dem TPU von der Seite:
NAS 1 HDD Rails.jpg

Bin gerade dabei mal etwas Musik von der DS216+ auf das neue NAS zu kopieren.
Mal sehen wir gut hier der miniDLNA Server dann funktioniert.
 
Die Stromkabel habe ich selbst gecrimpt, die originalesn sind ja quasi nicht zu bekommen:
Daran scheitert es noch bei mir - hab sie jetzt aber da und werde einen Kumpel zwecks Werkzeug anhauen :angel:
 
Tag 20:
Kopiererei und die Musik

Kopiererei:
Wie der Titel schon sagt, bin ich schon dabei fleißig Daten auf das neue NAS zu übertragen.
Dabei nutze ich die Gelegenheit und räume gleich auf, dauert natürlich etwas länger.

die Musik:
Der DLNA Server läuft auch schon, nach einigem Kampf :fresse2:
Der Grund? Viele Anleitungen im Netz sind falsch!

Dort findet man in der Netzwerk Konfiguration immer wieder folgendes wie z.B.:
Code:
        ports:
            - "1900:1900/udp"
            - "8200:8200/tcp"

Das funktioniert so aber nicht!
Der UPnP Port 1900 kann so nicht vom Container auf dem Host geleitet werden.
Das hat was mitm Multicast zu tun. Ganz dahinter bin ich aber noch nicht gekommen :unsure:


Jetzt gibt es zwei Möglichkeiten, das ganze zu umschiffen:
  1. In dem man den Container mitm Host Network konfiguriert:
    Code:
        network_mode: 'host'
  2. oder macvlan nutzt:

Meiner Meinung nach ist macvlan die elegantere Lösung, da der Container damit seine eigene IP Adresse im Netzwerk bekommt.
Damit ist es auch möglich Firewall Regeln zu vergeben (für IoT Geräte wie Netzwerkplayer oder ähnliche), damit diese keinen vollen Zugriff auf den Host haben.

Hier mal meine Konfiguration, wie diese auch aktuell problemlos funktioniert:
Code:
networks:
  ext:
    driver: macvlan
    driver_opts:
      parent: enp1s0
    ipam:
      config:
        - subnet: 192.168.1.1/24
          gateway: 192.168.1.1

services:
  miniDLNA:
    image: vladgh/minidlna
    container_name: miniDLNA
    networks:
      ext:
        ipv4_address: 192.168.1.20
    volumes:
      - /mnt/apppool/Docker/miniDLNA/data:/minidlna/cache
      - /mnt/datapool/Musik:/media/audio
    environment:
      - MINIDLNA_MEDIA_DIR_1=A,/media/audio
      - MINIDLNA_FRIENDLY_NAME=Musikbox
    restart: "no"

Wichtig dabei zu beachten ist, das man eine IP-Adresse vergibt, welche nicht im Pool des DHCP Servers ist.
 
Tag 21:
Synology Notes zu Joplin

Auf dem neuen NAS verwende ich Joplin als Ersatz für Synology Notes.
Da ich keine Lust hatte die ganzen Notizen von Hand zu übertragen, hab ich nach einem "Konverter" gesucht.
Der Hintergrund ist der, Synology verwendet ein proprietäres Format, das von Joplin nicht gelesen werden kann.

Es gibt viele Konverter, wobei viele nicht funktionieren, mit nachfolgendem hatte ich aber direkt Erfolg!

"YANOM - Yet Another Note-O-Matic"

Dieses Tool kann das NSX Format von Synology Notes z.B. in Markdown umwandeln.
An die NSX Datei kommt man,indem man diese der Synology Notes Desktop App exportiert:

Nach dem Umwandeln mit YANOM, können die Notizen einfach in Joplin importiert werden.
Sogar die komplette Formatierung und eingebundene Bilder werden übernommen.
 
Tag 22:
Synology Drive/Photos zu Syncthing

Auch eine Nachfolge für Drive benötige ich auf meinem neuen NAS.
Im Grunde nutze ich eigentlich nur Netzlaufwerke und speichere alle Daten dort.
Aber bestimmte Dateien, auf welche ich immer Zugriff benötige, müssen auf allen System lokal vorliegen.

Bei der Diskstation habe ich das natürlich mit Drive gemacht, welches mir einen Ordner auf alles System syncronisiert hat.
Des Weiteren habe ich es immer gerne wenn die Fotos von meinem Smartphone, wenn ich im heimischen Wlan bin, gesichert werden.

Auf meinem neuen System mache ich das alles mit Syncthing, natürlich wieder als Docker Container.

Im Grunde ist die Konfiguration von Syncthing selbsterklärend, man sollte nur folgende Dinge beachten:
  • die Ordner welche man auf dem NAS zur Syncronisation nutzen möchte, müssen an den Container durchgereicht werden:
    Code:
    volumes:
      - /mnt/datapool/Bilder:/Bilder
      - /mnt/datapool/Dokumente:/Dokumente
  • wenn man nicht am Globalen Syncthing Netzwerk teilnehmen möchte, ist es wichtig die "NAT Durchdringung", "Globale Gerätesuche" und die "Weiterleitung" zu deaktivieren:
    syncthing1.png

Der Rest der Einrichtung ist gut dokumentiert uns sehr einfach durchführbar.
 
Tag 23:
die Temperaturen die sinken

Ich bin gerade dabei die letzten Gehäuseteile zu drucken.
Um herauszufinden wie es um die Temperaturen steht, habe ich mal testweise die blauen Teile vom anderen Gehäuse am NAS verbaut.

Dabei ist mir aufgefallen, das bei geschlossenen Gehäuse die Temperaturen der Festplatten um 2°C sinken.
Das zeigt, dass das Kühlkonzept funktioniert (y)

Bash:
drivetemp-scsi-1-0
Adapter: SCSI adapter
temp1:        +34.0°C  (low  =  +0.0°C, high = +65.0°C)
                       (crit low = -40.0°C, crit = +70.0°C)
                       (lowest = +24.0°C, highest = +36.0°C)

coretemp-isa-0000
Adapter: ISA adapter
Package id 0:  +38.0°C  (high = +105.0°C, crit = +105.0°C)
Core 0:        +32.0°C  (high = +105.0°C, crit = +105.0°C)
Core 1:        +32.0°C  (high = +105.0°C, crit = +105.0°C)
Core 2:        +32.0°C  (high = +105.0°C, crit = +105.0°C)
Core 3:        +32.0°C  (high = +105.0°C, crit = +105.0°C)

acpitz-acpi-0
Adapter: ACPI interface
temp1:        +27.8°C  (crit = +119.0°C)

drivetemp-scsi-0-0
Adapter: SCSI adapter
temp1:        +34.0°C  (low  =  +0.0°C, high = +65.0°C)
                       (crit low = -40.0°C, crit = +70.0°C)
                       (lowest = +24.0°C, highest = +37.0°C)

nvme-pci-0300
Adapter: PCI adapter
Composite:    +33.9°C  (low  = -273.1°C, high = +84.8°C)
                       (crit = +84.8°C)
Sensor 1:     +33.9°C  (low  = -273.1°C, high = +65261.8°C)
Sensor 2:     +33.9°C  (low  = -273.1°C, high = +65261.8°C)




Sobald die Teile fertig gedruckt sind, hänge ich hier mal ein Foto des Gehäuses an.
 
Tag 24
das fertige NAS 1

Die restlichen Gehäuseteile sind nun gedruckt.
Beim verschrauben ist mir dann noch aufgefallen, dass das einlegen der Muttern in die Schlitze eine Qual ist.
So habe ich mich entschieden, das ganze mit Einpressmuttern zu machen.

Nun ist alles fertig zusammengabeut, nur über einen Staubfilter für den Lüfter muss ich mir noch gedanken machen.

Anbei die versprochenen Fotos:
NAS1-vorne.jpg

NAS1_hinten.jpg
 
Tag 25:
neue Gegebenheiten

Eigentlich war ich heute dabei das zweite NAS (Backup NAS) zusammen zu bauen, um es die nächsten Tage in Betrieb zu nehmen.
(Keine Angst, aktuell mache ich die Backups manuell)

Ganz unabhängig davon, habe ich auf meiner Proxmox Maschine mal alles auf den neuesten Stand gebracht, auch eine alte TrueNAS Scale VM.
Dabei musste ich feststellen, das die Performance-Probleme mit Encrypted Datasets auf Atom (Celeron) CPUs wohl endlich gefixt wurden :unsure:

Ich muss das mal mit mehreren versch. Tests evaluieren. Wäre aber interessant das ganze mal meinem Setup gegenüber zu stellen.


Edit:
Beim ersten Test habe ich eine CPU Auslasung von nur 37% gehabt, trotz AES Verschlüsselung und lz4 Kompression und dabei blieb die Übertragungsrate über 94MB/s :-)
 
Tag 26:
mal wieder Tests

Um die Tests flexibler gestalten zu können, habe ich jetzt mal direkt auf der HW des 2. NAS Proxmox installiert und eine TestVM eingerichtet.
An diese VM habe ich dne SATA Controller durchgereicht.

Die ersten Tests mit TrueNAS sind vielversprechend.
Vorab: TrueNAS Scale ist performanter als TrueNAS Core auf dem kleinen Celeron J4115.

Ein weiteres Thema ist mir aufgefallen:
Die CPU hat lt. Sensoren um die 60-70°C. Wenn ich aber den Kühlkörper auf dem Ordoid H2+ berühre, ist der gerade mal etwas mehr als Handwarm.
Hier stimmt wohl etwas nicht, entweder mit der Wärmeleitpaste oder dem Anpressdruck.
 
Tag 26 Update 1:
Produktionsfehler

Wie schon vermutet, hatte der Odroid H2+ Probleme mit der Wärmeabfuhr!

Im Grunde sind es zwei Probleme gewesen, einer davon ist meiner Meinung nach sogar ein Produktionsfehler gewesen :unsure:
  1. Der Kühlkörper hat einen viel zu großen Abstand zur CPU, in meinem Fall waren das 0,5-0,8mm (Augenmaß).
    Dieser Abstand war mit sehr sehr viel Wärmeleitpaste aufgefüllt.
  2. Die Wärmeleitpaste hat sich selbst in ihre Bestandteile zerlegt.

Was habe ich nun gemacht?
  1. Den Kühlkörper an den Stellen der Verschraubung runtergefeilt, damit dieser näher an die CPU kommt.
  2. neue MX4 Wärmeleitpaste aufgetragen

Die Temperaturen sind unter Last um 10°C gesunken und der Kühlkürper wird jetzt wärmer. Gefühlt aber immer noch zu kalt, im Vergleich zur gemessenen Temperatur der CPU.
ggf. muss ich hier nochmals etwas Material wegnehmen.
 
  1. Der Kühlkörper hat einen viel zu großen Abstand zur CPU, in meinem Fall waren das 0,5-0,8mm (Augenmaß).
Also, das wäre schon ziemlich heftig. 10 K Differenz sprechen aber eine deutliche Sprache...
 
Jupp,
wenn man auf die CPU Wärmeleitpaste mit normaler Schichtdicke (was so üblich ist) aufgetragen und dann den Kühlkörper aufgesetzt hat,
gab es keinen Abdruck der Paste auf dem Kühlkörper.

Ich habe dann mal mit der Taschenlampe von der Seite reingeleuchtet und der Spalt war deutlich zu erkennen.
Jetzt nach dem runterfeilen scheint es ok zu sein, die Temperaturen haben sich nun unter Last zwischen 50°C bis 60°C eingependelt.

Meine Vermutung ist, das man einfach vergessen hatte, das Eloxal an den Stellen der Verschraubung abzufräsen.
 
Tag 27:
Planänderung?

Es zeichnet sich immer mehr ab, das ich wohl das ganze Software Konzept über Board werfe.

Die ganzen Test mit dem aktuellen TrueNAS Scale zeigen immer mehr, das die Performance Probleme mit der Verschlüsselung wohl gelöst sind.

Aktuell bin ich immer noch dabei, alle Backups auf den aktuellsten Stand zu bringen, damit ich auf dem NAS 1 Tests mit TrueNAS Scale 22.12.2 fahren kann.

Wenn diese positiv verlaufen sind, muss ich mir alles nochmals durch den Kopf gegen lassen. Welche Vor- und Nachteile mein aktuelles Setup gegenüber TrueNAS Scale hat.

Folgende Vorteile von TrueNAS Scale wiegen nämlich sehr schwer:
  • Share Verwaltung über einheitliche GUI
  • Snapshots und Replication über GUI
  • Email Benachrichtigungen eingebaut
  • USV Konfiguration über GUI
Aber auch die Nachteile muss ich mir anschauen.

Alles in allem dürft ihr sehr gespannt sein!
Was sagt ihr eigentlich dazu?


Edit:
Was dann richtig fehlen wird ist aber Docker.

Hier würde ich auf eine etwas speziellere Lösung ausweichen:

Auf meinem Proxmox Host (den habe ich auch noch) würde ich die Container laufen lassen und deren Volumes per NFS auf das NAS "umbiegen".
 
Zuletzt bearbeitet:
Tag 28:
läuft! und Gedanken zu Docker

Tja was soll ich sagen.....
Mit der aktuellen TrueNAS Scale Version läuft das NAS sehr gut.
Die Performance ist auf dem Ordroid H3 nochmal ein Stück besser, ich erreiche nun Übertragungsraten von im Schnitt ca. 110MB/s und das auf einem verschlüsselten Dataset!

Irgendwie ärgere ich mich schon, das bei meinen initialen Tests, TrueNAS so langsam im Vergleich zu meiner eigenen Software Lösung war und nun so gut läuft.
Denn da hätte ich mir einige Stunden Kopfzerbrechen sparen können :cautious:

Die Webgui von TrueNAS Scale ist auch super angenehm zu bedienen, wenn man weiß wie.
Eine Sache war etwas komisch, oder ich einfach nur zu blöd.

Das Einrichten der USV (Eaton 3S 550) wollte mir zuerst nicht gelingen. Ich bekam immer riesige Fehlermeldungen, sogar mit der entsprechenen Zeile im Phyton Code. Hier ist die Software sehr geschwätzig, was ich aber gut für eine Fehlersuche finde.

Leider sagt einem niemand, das man zuerst die USV konfigurieren muss und dann erst die Funktion aktivieren darf.
Ich hab die natürlich immer zuerst aktiviert :rofl:

Also als Tipp, erst auf den Stift klicken, die USV konfigurieren und dann den Dienst aktivieren:
USV Einstellung.png


Jetzt bin ich natürlich wieder fleißig dabei, die Daten auf das NAS zu kopieren.




Wie ich das jetzt mit den Docker Containern mache, weiß ich noch gar nicht.
Im Grunde gibt es 3 Möglichkeiten:

  1. die TrueNAS Scale Apps (Kubernetes/Docker) mit Speicherung auf einem unverschlüsselten Standard Dataset

  2. die TrueNAS Scale Apps mit Hostpath, dadurch kann man auch ein verschlüsseltes Dataset verwenden

  3. die Docker VM auf meinem Proxmox Host, mit Speicherung der Daten über NFS auf einem verschlüsselten Dataset
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh