[Kaufberatung] Ein Server für alle Fälle? Konsolidierung der Systeme, Hardwarefindung und Brauchen vs Schöner Wohnen.

Ja, Hab TrueNAS Scale installiert mit 1x Sata SSD für System, 1x NVME 2TB für dauerhaft aktiv und 4x6TB HDDs im RaidZ1.
Die gehe innert 5 minuten in den Schlaf modus. Benötigen aber trotzdem so 3-4W im Schlaf modus.
Wie hast Du das realisiert? Zwei ZFS Pools? 1x NVME und 1x HDDs?

Ich lese mich gerade in die ZFS Materie ein und überlege, wie ich den oder die Pools anlege sowie der Frage, mache ich das auf Hypervisorebene oder in meinem Fall dann durch Durchreichen in TNS?

Mein Idee ist, dass das tägliche Lesen und Schreiben primär auf einer oder beiden NVMEs passiert, d.h. TNS mit NC, HA sowie ggf. LXC, Docker Container. Beide HDDs dienen als Datengrab und sollen nur bei Bedarf anlaufen und ansonsten im Spindown bleiben. Ein- oder zwei Mal am Tag soll etwaige Änderungen an den Daten auf den HDDs erfolgen. Ist das Setup so sinnvoll oder bin ich wo falsch abgebogen? ;)

Thema SSD als Cache:
ZFS L2ARC soll wohl erst ab >64GB RAM Vorteile bringen und auch nur, wenn man regelmäßig Dateien größer als der RAM hin- und herschiebt. Darunter sorgt es eher für das Gegenteil, da die Pointer auf den L2ARC wiederum im ARC vorgehalten werden müssen.

ZFS ZIL scheint das zu sein, was ich mir vorstelle (s.o.), allerdings ist die Rede vom synchronen Schreiben. Das obige Szenario ist meinem Verständnis nach asynchron?!
ZIL accelerates synchronous transactions by using storage devices like SSDs that are faster than those used in the main storage pool. When an application requests a synchronous write (a guarantee that the data is stored to disk rather than merely cached for later writes), writing the data to the faster ZIL storage then later flushing it out to the regular disks greatly reduces latency and improves performance. Synchronous workloads like databases will profit from a ZIL alone. Regular asynchronous writes such as copying files will not use the ZIL at all.

siehe https://docs.freebsd.org/en/books/handbook/zfs/#zfs-term
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meine Erfahrung ist das Auslagern der Caches und Co wird erst im Multiuserbetrieb wirklich spürbar im Single User (ich sag mal max 5 Personen Haushalt) limitiert eher irgendwo die Hardware.

Meine Server schaffen recht problemlos die fast 10 Gbit lesen und schreibend (~ 900 Mbyte / sec dauerhaft) aber halt vor allem mit "vielen" Devices und das dann auch von Sekunde 1 an im kleinen Bereich egal auch wie viel RAM drinsteckt (getestet von 8 bis 64 das hatte nahezu keinen messbaren Einfluss)

Allerdings bei vielen gleichzeitigen Verbindungen (> 6) bleiben von den 900 Mbyte zusammen nur so 500 übrig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh