Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das mit dem 3D Drucker ist auch weniger ein Problem. Hier im Forum einfach im entsprechenden Fred nach nem Druck fragen, VSK + Material bezahlen und über TG freut sich da jeder.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eigentlich wollte ich nur in Ruhe schonmal Ubuntu Server 22.04.1 aufsetzen, bis meine kurzen SATA Kabel da sind.
Und dann bekomme ich eine Latte von PCIe Bus Fehlern beim Booten vom Stick:
(sorry für das schlechte Foto)
Zum Glück liegt hier kein Defekt vor, sondern nur ein BIOS Bug.
Dieser ist inzwischen gefixt, ein einfaches BIOS Update auf die neuste Version schafft Abhilfe
Zum Glück liegt hier kein Defekt vor, sondern nur ein BIOS Bug.
Dieser ist inzwischen gefixt, ein einfaches BIOS Update auf die neuste Version schafft Abhilfe
So das Haupt-NAS ist bis auf die Festplatten soweit aufgebaut.
Bei der ersten Inbetriebnahme nach dem Wechsel der SSD war ich zuerst etwas geschockt.
Der Stromverbrauch lag im Idle bei 7-8W
Nach etwas suchen, habe ich herausgefunden, das die PCIe Stromsparmechanismen standardmäßig abgeschaltet sind
Diese kann und sollte man für jeden einzelnen PCIe Eintrag aktivieren, also auf "Auto" stellen, damit sinkt der Verbauch auf 4W im Idle:
Ein weiteres Detail, was standardmäßig "unglücklich" gelöst ist -> die Lüftersteuerung.
Diese schaltet den Lüfter unter 40°C CPU Temperatur komplett ab!
Dies führt dazu, das der Lüfter an- und wieder aus geht. Kurz darauf wieder an- und wieder aus....
Einfache Lösung ist das Eintragen einer Starttemperatur von 1°C (0°C funktioniert nicht):
Für die Festplatten später ist es sowieso gesünder, wenn sie permanent einen leichten Luftstrom abbekommen.
Schade, dass bei deinem Setup der Lüfter nicht durch die Kühlrippen bläst, das würde enorm viel helfen, denke ich.
Hast du denn einen Hitzestau? Der Odroid H3 sollte ja schon fast passiv betrieben werden können...
SSD:
Zuerst musste ich natürlich die zweite Partition mit luks und btrfs auf der SSD einrichten.
Im Grunde nutze ich wie schon geplant folgendes Setup für die System SSD:
Bash:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
nvme0n1 259:0 0 465,8G 0 disk
├─nvme0n1p1 259:1 0 1G 0 part /boot/efi
├─nvme0n1p2 259:2 0 200G 0 part /
└─nvme0n1p3 259:3 0 264G 0 part
└─apcrypt 253:0 0 264G 0 crypt /mnt/apppool
Das btrfs Dateisystem auf der luks Partition wollte ich ursprünglich ohne CoW (Copy on Write) erstellen.
Nach sehr sehr viel Recherche bin ich aber zum Schluss gekommen, das die Vorteile den Nachteilen überwiegen.
Denn mit deaktivierten CoW verliert man auch andere Funktionen wie z.B. Checksums und Kompression.
Inzwischen gehen die Meinungen sehr stark auseinander, ob man für Datenbank Laufwerke CoW wirklich deaktivieren sollte.
Daher bleibt es bei mir erstmal eingeschaltet.
Zusätzlich habe ich für das btrfs Dateisystem die Kompression aktiviert.
Der Algorhytmus zstd in Stufe 1 führt nur zu einem minimalen Leistungsverlust des Dateisystems, reduziert aber die Anzahl der Schreibvorgänge auf die SSD signifikant!
Dies wiederum und die etwas verringerte Dateigröße (bei komprimierbaren Daten) erhöht die Lebensdauer der SSD, was ein weiterer Vorteil ist.
Die Option der Kompression kann ganz einfach über die Mount Optionen konfiguriert werden:
Bash:
mount /dev/mapper/apcrypt /mnt/apppool/ -o noatime,compress=zstd:1
Des Weiteren habe ich natürlich das Subvolume "Docker" auf dem btrfs Dateisystem angelegt um dort entsprechend alles was mit Docker zu tun hat, ablegen zu können. Somit sind auch alle Daten der Docker Container inkl. Datenbanken verschlüsselt.
Docker:
Im Grunde verwende ich für die Verwaltung aller meiner Container das Tool Portainer.
Dieses habe ich über eine docker compose Datei im Subvolume in Betrieb genommen, also:
Bash:
/mnt/apppool/Docker/portainer/docker-compose.yml
Alle weiteren Container wie z.B. nextcloud lege ich über Stacks (Abwandlung von docker compose) direkt über Portainer an.
Dort werden diese auch verwaltet.
Zu beachten ist nur, bei den Docker Volumes auch den richtigen Pfad zum Docker Subvolume auf dem btrfs Dateisystem anzugeben.
Der Container Nextcloud ist schon am Laufen und ich bin schon fleißig am Testen
PS:
Über reddit, habe ich diesen Benchmark gefunden, der den minimalen Geschwindigkeitsverlust schön aufzeigt:
Schade, dass bei deinem Setup der Lüfter nicht durch die Kühlrippen bläst, das würde enorm viel helfen, denke ich.
Hast du denn einen Hitzestau? Der Odroid H3 sollte ja schon fast passiv betrieben werden können...
Ja finde ich auch schade, beim Odroid H2+ sind die Kühlrippen um 90° gedreht. Warum man das beim H3 geändert hat, keine Ahnung.
Wenn das NAS fertig ist, ist das Gehäuse ja ziemlich klein, da ist es natürlich besser wenn der Lüfter immer läuft.
Ist quasi unhörbar, von daher stört mich das nicht
Mein eigentliches Konzept sah vor, die Docker Struktur folgendermaßen aufzubauen:
- docker compose mit manuellem Start:
-- Portainer für die Verwaltung der Docker Container
---> Nextcloud für Kontakte, Aufgaben, Kalender und Notizen
---> miniDLNA für meine Musik
---> PhotoPrism für meine Fotos
Da die Docker Container erst gestartet werden sollten, wenn das entsprechende Datenlaufwerk entschlüsselt und verfügbar ist,
funktioniert hier logischerweise kein Autostart. Also muss zuerst Portainer über Docker Compose gestartet werden.
Dann in Portainer einloggen und dort Nextcloud (und alle anderen Container) starten.
(man könnte bestimmt alles über ein Script machen, aber so weit bin ich noch nicht)
Also habe ich für die ersten Tests nur Portainer und Nextcloud eingerichtet und gestern und heute ausgibig gestestet.
Aufm PC sowie die entsprechenden Apps aufm Smartphone (Android).
Dabei ist einige Unzulänglichkeiten von nextcloud aufgefallen:
Es lassen sich Kontaktgruppen nicht löschen. Man muss diese komplett leeren (Kontakte verschieben oder löschen) und dann wird die Gruppe irgendwann automatisch gelöscht. Dies ist ein bekanntes Verhalten, das trotz vielen User Beschwerden noch nicht geändert wurde.
Es können keine Bilder über die Notizen App (Android) an die entsprechenden Notizen angehängt werden.
Am PC an Notizen angehänge Bilder sind auf dem Smartphone nicht anzeigbar.
Ich bin gerade dabei zu überlegen das Konzept hier stark abzuändern:
- docker compose mit manuellem Start für:
--> Radicle als CalDav Server (Kontakte, Kalender, Aufgaben) - https://radicale.org/v3.html
--> Joplin für die Notizen - https://hub.docker.com/r/joplin/server
--> miniDLNA weiterhin für meine Musik
--> PhotoPrism weiterhin für meine Fotos
Auch hier würde ich wieder die Container manuell starten, daber diesmal nur mit eigenen docker compose files.
Den Layer Portainer würde ich komplett weglassen.
Sehr interesantes Projekt! Du hast mich jetzt schon inspieriert auch ein NAS auf Ondroid Basis zu bauen. Aktuell hab ich ein schmales 3HE Rack Case im Kopf. Aber ich will minimum 4 Festplatten, was ja durch nen 5 Port M.2 Sata Adapter möglich wird. Die beiden Board SATA Ports wären dann für die 2 Caching SSDs. OS läuft auf EMMC. Stromversorgung sollte mit nem passenden 19V/7A (133W) Netzteil ja locker machbar sein. muss natürlich schauen, ob die beiden SATA Ports des hergeben im Worts Case 7 Geräte den Anlaufstrom bereitzustellen. Ansonsten kann ich auch nen FlexATX verwenden. Der H3 geht laut Recherchen auch mnit 12V Eingangsaspannung, solange man dann den SATA Strom am Board nicht verwendet.
Aber eine Frage, die du vielleicht beantworten kannst! Hast du dir schon Gedanken gemacht, wie man 2farbige LEDs anschliesen kann um defekte oder zu tauschende Laufwerke farblich zu markieren kann? Gibt doch bestimmt ne Software die als Dienst im hintergrund läuft und Smart Werte überwacht und bei schlechten Werten seriell rückmeldung gibt?
Aber ich will minimum 4 Festplatten, was ja durch nen 5 Port M.2 Sata Adapter möglich wird. Die beiden Board SATA Ports wären dann für die 2 Caching SSDs. OS läuft auf EMMC. Stromversorgung sollte mit nem passenden 19V/7A (133W) Netzteil ja locker machbar sein.
Aber eine Frage, die du vielleicht beantworten kannst! Hast du dir schon Gedanken gemacht, wie man 2farbige LEDs anschliesen kann um defekte oder zu tauschende Laufwerke farblich zu markieren kann? Gibt doch bestimmt ne Software die als Dienst im hintergrund läuft und Smart Werte überwacht und bei schlechten Werten seriell rückmeldung gibt?
Ich selbst habe mir überlegt, das per E-Mail zu machen. Also z.B. einmal die Woche die Werte auszulesen und dann wenn einer der Werte schlecht ist, ne E-Mail zu schicken.
Wie genau das dann funktioniert und ob es da schon was fertiges gibst, muss ich noch recherchieren.
So ich habe nun die Hauptscripte für das NAS fertig, diese wären:
system_startup.sh - NEU
verantwortlich für die Steuerung der nachfolgenden Scripte, sowie der Überprüfung auf root Rechte
storage_startup.sh - überarbeitet
verantwortlich für das Einhängen der verschlüsselten Laufwerke, Funktionen die nicht zu dieser Aufgabe gehören habe ich entfernt
docker_startup.sh - NEU
verantwortlich für das Starten der Docker Container via docker-compose files
Radicale für Termine, Kontakte und Aufgaben
Die Optimierungen folgen noch, aber bis jetzt kann ich nur positives berichten. Es läuft einfach und ist dazu noch schlank und flott.
Das Case ist im Grunde gut kontruiert, nur die HDD Rails sind suboptimal.
Druckt man diese aus einem harten Material wie z.B. PLA oder PETG, übertragen diese die Vibrationen der Festplatten komplett in das Gehäuse.
Druckt man diese aus TPU, passiert das nicht mehr, dafür hängt aber die Rail gefährlich durch.
Daher habe ich mir dir Mühe gemacht, neue Rails zu konstruieren, in diese ein TPU Teil eingeklebt wird.
So kann man die Rails selbst aus PLA oder PETG drucken mit entsprechender Stabilität.
Dabei habe ich gleich die Rails nach unten hin etwas verstärkt, was zu folge hatte das diese auf der Seite der Audioanschlüsse des Odroid Baords einen Ausschnitt benötigte. Somit gibt es jetzt zwei Rails eine für jede Seite:
Natürlich stelle ich die Version als Remix des original Gehäuses über printables zur Verfügung:
Das System (NAS 1) ist nun seit 2 Wochen im Testbetrieb. (aktuell noch ohne Festplatten)
Aktuell zwar nur mit radicale als Dav Server, aber das super stabil
Dabei ist mir aufgefallen, dass der Stromverbrauch des H3 um 1-2 Watt höher ist als beim H2+.
Dies schein noch ein Konfigurationsproblem zu sein, welches ich aktuell versuche zu lösen.
Mit powertop kann ich den Verbrauch auf unter 2 Watt drücken, dann fliegt mir aber manchmal die Netzwerkverbindung weg
Sorry für das späte Update, war mir vorher nicht möglich.
So jetzt zum Thema TPU, ich hatte ja neue HDD Schienen mit TPU Einsätzen konstruiert.
In diese sollten diese TPU Teile eingeklebt werden, leider hat das nicht ganz so geklappt wie gedacht.
Die Auflagefläche für das TPU war einfach zu wenig, so dass dies nicht dauerhaft halten wollte.
Ich habe die TPU Teile nun etwas umkonstruiert und extra Klebeflächen hinzugefügt. das sollte jetzt halten:
Natürlich habe ich auch gleich das Modell bei Printables upgedatet:
Des Weiteren hatte ich Probleme mit den kurzen SATA Kabeln, die leider viel zu unflexibel sind.
Hier habe ich nun extra flexible Kabel geordert, welche aber dafür 0,5m lang sind (kürzere gab es nicht).
Die neuen flexibleren SATA Kabel sind nun verlegt. Das ging sehr einfach, aber die Kabel sind auch sehr empfindlich und filigran.
Die Stromkabel habe ich selbst gecrimpt, die originalen sind ja quasi nicht zu bekommen:
Hinten an den Festplatten ist es etwas eng. Da ist es einfacher kurz die Rückwand abzuschrauben um die Stecker anzustecken:
Hier mal die ganze Konstruktion der HDD Rails mit dem TPU von der Seite:
Bin gerade dabei mal etwas Musik von der DS216+ auf das neue NAS zu kopieren.
Mal sehen wir gut hier der miniDLNA Server dann funktioniert.
Kopiererei:
Wie der Titel schon sagt, bin ich schon dabei fleißig Daten auf das neue NAS zu übertragen.
Dabei nutze ich die Gelegenheit und räume gleich auf, dauert natürlich etwas länger.
die Musik:
Der DLNA Server läuft auch schon, nach einigem Kampf
Der Grund? Viele Anleitungen im Netz sind falsch!
Dort findet man in der Netzwerk Konfiguration immer wieder folgendes wie z.B.:
Code:
ports:
- "1900:1900/udp"
- "8200:8200/tcp"
Das funktioniert so aber nicht!
Der UPnP Port 1900 kann so nicht vom Container auf dem Host geleitet werden.
Das hat was mitm Multicast zu tun. Ganz dahinter bin ich aber noch nicht gekommen
Jetzt gibt es zwei Möglichkeiten, das ganze zu umschiffen:
In dem man den Container mitm Host Network konfiguriert:
All about using macvlan to make your containers appear like physical machines on the network
docs.docker.com
Meiner Meinung nach ist macvlan die elegantere Lösung, da der Container damit seine eigene IP Adresse im Netzwerk bekommt.
Damit ist es auch möglich Firewall Regeln zu vergeben (für IoT Geräte wie Netzwerkplayer oder ähnliche), damit diese keinen vollen Zugriff auf den Host haben.
Hier mal meine Konfiguration, wie diese auch aktuell problemlos funktioniert:
Auf dem neuen NAS verwende ich Joplin als Ersatz für Synology Notes.
Da ich keine Lust hatte die ganzen Notizen von Hand zu übertragen, hab ich nach einem "Konverter" gesucht.
Der Hintergrund ist der, Synology verwendet ein proprietäres Format, das von Joplin nicht gelesen werden kann.
Es gibt viele Konverter, wobei viele nicht funktionieren, mit nachfolgendem hatte ich aber direkt Erfolg!
Yet Another Note-O-Matic - Convert files from closed file system note taking systems to various output formats - GitHub - kevindurston21/YANOM-Note-O-Matic: Yet Another Note-O-Matic - Convert files...
github.com
Dieses Tool kann das NSX Format von Synology Notes z.B. in Markdown umwandeln.
An die NSX Datei kommt man,indem man diese der Synology Notes Desktop App exportiert:
Das Synology Knowledge Center bietet umfassenden Support mit Antworten auf häufig gestellte Fragen, Problembehebungen, Anleitungen zu Software und allen möglichen technischen Dokumentationen.
kb.synology.com
Nach dem Umwandeln mit YANOM, können die Notizen einfach in Joplin importiert werden.
Sogar die komplette Formatierung und eingebundene Bilder werden übernommen.
Auch eine Nachfolge für Drive benötige ich auf meinem neuen NAS.
Im Grunde nutze ich eigentlich nur Netzlaufwerke und speichere alle Daten dort.
Aber bestimmte Dateien, auf welche ich immer Zugriff benötige, müssen auf allen System lokal vorliegen.
Bei der Diskstation habe ich das natürlich mit Drive gemacht, welches mir einen Ordner auf alles System syncronisiert hat.
Des Weiteren habe ich es immer gerne wenn die Fotos von meinem Smartphone, wenn ich im heimischen Wlan bin, gesichert werden.
Auf meinem neuen System mache ich das alles mit Syncthing, natürlich wieder als Docker Container.
Im Grunde ist die Konfiguration von Syncthing selbsterklärend, man sollte nur folgende Dinge beachten:
die Ordner welche man auf dem NAS zur Syncronisation nutzen möchte, müssen an den Container durchgereicht werden:
wenn man nicht am Globalen Syncthing Netzwerk teilnehmen möchte, ist es wichtig die "NAT Durchdringung", "Globale Gerätesuche" und die "Weiterleitung" zu deaktivieren:
Der Rest der Einrichtung ist gut dokumentiert uns sehr einfach durchführbar.
Ich bin gerade dabei die letzten Gehäuseteile zu drucken.
Um herauszufinden wie es um die Temperaturen steht, habe ich mal testweise die blauen Teile vom anderen Gehäuse am NAS verbaut.
Dabei ist mir aufgefallen, das bei geschlossenen Gehäuse die Temperaturen der Festplatten um 2°C sinken.
Das zeigt, dass das Kühlkonzept funktioniert
Die restlichen Gehäuseteile sind nun gedruckt.
Beim verschrauben ist mir dann noch aufgefallen, dass das einlegen der Muttern in die Schlitze eine Qual ist.
So habe ich mich entschieden, das ganze mit Einpressmuttern zu machen.
Nun ist alles fertig zusammengabeut, nur über einen Staubfilter für den Lüfter muss ich mir noch gedanken machen.
Eigentlich war ich heute dabei das zweite NAS (Backup NAS) zusammen zu bauen, um es die nächsten Tage in Betrieb zu nehmen.
(Keine Angst, aktuell mache ich die Backups manuell)
Ganz unabhängig davon, habe ich auf meiner Proxmox Maschine mal alles auf den neuesten Stand gebracht, auch eine alte TrueNAS Scale VM.
Dabei musste ich feststellen, das die Performance-Probleme mit Encrypted Datasets auf Atom (Celeron) CPUs wohl endlich gefixt wurden
Ich muss das mal mit mehreren versch. Tests evaluieren. Wäre aber interessant das ganze mal meinem Setup gegenüber zu stellen.
Edit:
Beim ersten Test habe ich eine CPU Auslasung von nur 37% gehabt, trotz AES Verschlüsselung und lz4 Kompression und dabei blieb die Übertragungsrate über 94MB/s
Um die Tests flexibler gestalten zu können, habe ich jetzt mal direkt auf der HW des 2. NAS Proxmox installiert und eine TestVM eingerichtet.
An diese VM habe ich dne SATA Controller durchgereicht.
Die ersten Tests mit TrueNAS sind vielversprechend.
Vorab: TrueNAS Scale ist performanter als TrueNAS Core auf dem kleinen Celeron J4115.
Ein weiteres Thema ist mir aufgefallen:
Die CPU hat lt. Sensoren um die 60-70°C. Wenn ich aber den Kühlkörper auf dem Ordoid H2+ berühre, ist der gerade mal etwas mehr als Handwarm.
Hier stimmt wohl etwas nicht, entweder mit der Wärmeleitpaste oder dem Anpressdruck.
Wie schon vermutet, hatte der Odroid H2+ Probleme mit der Wärmeabfuhr!
Im Grunde sind es zwei Probleme gewesen, einer davon ist meiner Meinung nach sogar ein Produktionsfehler gewesen
Der Kühlkörper hat einen viel zu großen Abstand zur CPU, in meinem Fall waren das 0,5-0,8mm (Augenmaß).
Dieser Abstand war mit sehr sehr viel Wärmeleitpaste aufgefüllt.
Die Wärmeleitpaste hat sich selbst in ihre Bestandteile zerlegt.
Was habe ich nun gemacht?
Den Kühlkörper an den Stellen der Verschraubung runtergefeilt, damit dieser näher an die CPU kommt.
neue MX4 Wärmeleitpaste aufgetragen
Die Temperaturen sind unter Last um 10°C gesunken und der Kühlkürper wird jetzt wärmer. Gefühlt aber immer noch zu kalt, im Vergleich zur gemessenen Temperatur der CPU.
ggf. muss ich hier nochmals etwas Material wegnehmen.
Jupp,
wenn man auf die CPU Wärmeleitpaste mit normaler Schichtdicke (was so üblich ist) aufgetragen und dann den Kühlkörper aufgesetzt hat,
gab es keinen Abdruck der Paste auf dem Kühlkörper.
Ich habe dann mal mit der Taschenlampe von der Seite reingeleuchtet und der Spalt war deutlich zu erkennen.
Jetzt nach dem runterfeilen scheint es ok zu sein, die Temperaturen haben sich nun unter Last zwischen 50°C bis 60°C eingependelt.
Meine Vermutung ist, das man einfach vergessen hatte, das Eloxal an den Stellen der Verschraubung abzufräsen.
Es zeichnet sich immer mehr ab, das ich wohl das ganze Software Konzept über Board werfe.
Die ganzen Test mit dem aktuellen TrueNAS Scale zeigen immer mehr, das die Performance Probleme mit der Verschlüsselung wohl gelöst sind.
Aktuell bin ich immer noch dabei, alle Backups auf den aktuellsten Stand zu bringen, damit ich auf dem NAS 1 Tests mit TrueNAS Scale 22.12.2 fahren kann.
Wenn diese positiv verlaufen sind, muss ich mir alles nochmals durch den Kopf gegen lassen. Welche Vor- und Nachteile mein aktuelles Setup gegenüber TrueNAS Scale hat.
Folgende Vorteile von TrueNAS Scale wiegen nämlich sehr schwer:
Share Verwaltung über einheitliche GUI
Snapshots und Replication über GUI
Email Benachrichtigungen eingebaut
USV Konfiguration über GUI
Aber auch die Nachteile muss ich mir anschauen.
Alles in allem dürft ihr sehr gespannt sein!
Was sagt ihr eigentlich dazu?
Edit:
Was dann richtig fehlen wird ist aber Docker.
Hier würde ich auf eine etwas speziellere Lösung ausweichen:
Auf meinem Proxmox Host (den habe ich auch noch) würde ich die Container laufen lassen und deren Volumes per NFS auf das NAS "umbiegen".
Tja was soll ich sagen.....
Mit der aktuellen TrueNAS Scale Version läuft das NAS sehr gut.
Die Performance ist auf dem Ordroid H3 nochmal ein Stück besser, ich erreiche nun Übertragungsraten von im Schnitt ca. 110MB/s und das auf einem verschlüsselten Dataset!
Irgendwie ärgere ich mich schon, das bei meinen initialen Tests, TrueNAS so langsam im Vergleich zu meiner eigenen Software Lösung war und nun so gut läuft.
Denn da hätte ich mir einige Stunden Kopfzerbrechen sparen können
Die Webgui von TrueNAS Scale ist auch super angenehm zu bedienen, wenn man weiß wie.
Eine Sache war etwas komisch, oder ich einfach nur zu blöd.
Das Einrichten der USV (Eaton 3S 550) wollte mir zuerst nicht gelingen. Ich bekam immer riesige Fehlermeldungen, sogar mit der entsprechenen Zeile im Phyton Code. Hier ist die Software sehr geschwätzig, was ich aber gut für eine Fehlersuche finde.
Leider sagt einem niemand, das man zuerst die USV konfigurieren muss und dann erst die Funktion aktivieren darf.
Ich hab die natürlich immer zuerst aktiviert
Also als Tipp, erst auf den Stift klicken, die USV konfigurieren und dann den Dienst aktivieren:
Jetzt bin ich natürlich wieder fleißig dabei, die Daten auf das NAS zu kopieren.
Wie ich das jetzt mit den Docker Containern mache, weiß ich noch gar nicht.
Im Grunde gibt es 3 Möglichkeiten:
die TrueNAS Scale Apps (Kubernetes/Docker) mit Speicherung auf einem unverschlüsselten Standard Dataset
die TrueNAS Scale Apps mit Hostpath, dadurch kann man auch ein verschlüsseltes Dataset verwenden
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Youtube Videos ab jetzt direkt anzeigen
die Docker VM auf meinem Proxmox Host, mit Speicherung der Daten über NFS auf einem verschlüsselten Dataset
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.