Suchergebnisse

  1. G

    [Sammelthread] ZFS Stammtisch

    Würde man nach Horrostories mit ext4+LVM oder Windows + Storage Spaces oder Hardwareraid mit irgendwas fragen, so kämen sicher noch viel mehr Berichte. Eine größere Storageinstallation ist mit ZFS im Vergleich einfach deutlich übersichtlicher und besser zu verstehen und zu managen. Gegen...
  2. G

    [Sammelthread] Der 100Gbit Netzwerk Thread, ein bisschen 40gbit und „beyond“ ;)

    Ist bei Illumos leider genauso. Hab da schon ein Feature request dazu gepostet, glaube aber nicht dass sich da kurzfristig was tut. Windows Server 2022 in der sehr günstigen Essential Variante ist wohl der Weg wenn man SMB Direct/RDMA mit > 3GB/s will oder braucht und nicht mehr als 25 User hat...
  3. G

    [Sammelthread] ZFS Stammtisch

    Verschieben innerhalb eines ZFS Dateisystems ändert Daten nicht, nur den Verweis darauf. Verschieben zwischen ZFS Dateisystemen macht copy + delete. ZFS Verschlüssellung geht nicht "in place" sondern man legt ein verschlüsseltes ZFS Dateisystem an und kopiert die Daten da rein um sie zu...
  4. G

    [Sammelthread] ZFS Stammtisch

    Die Recsize Einstellung verändert keine Daten auf dem Pool sondern wirkt nur für neu zu schreibende Datenblöcke Der schnellere Weg wäre Replikation z.B. von tank/data -> tank/data.neu Bei Erfolg tank/data löschen und tank/data.neu umbenennen in data Mit dem USB Pool müsste man ja alles...
  5. G

    [Sammelthread] ZFS Stammtisch

    Die Fragmentierung ist abhängig von Füllrate und geringer bei einer größeren Recsize, Vor allem in einem HD Pool mit Raid-Z würde ich daher tendenziell immer zu einer größeren Recsize z.B. 1M neigen, Negative Effekte auf Resourcenbedarf hat das wegen der dynamischen Recsizegröße bei kleinen...
  6. G

    [Sammelthread] ZFS Stammtisch

    Wenn dann aber nicht per file copy sondern durch Replikation eines ZFS Dateisystems -> ./filesystem.neu, nach Erfolg dann Umbenennen - ist massiv schneller. Mann muss halt darauf achten dass bei der Replikation (oder im Parent Dateisystem) die benötigte Small Block und Recsize gesetzt ist.
  7. G

    [Sammelthread] ZFS Stammtisch

    Wenn man einen Pool irgendwie vergrößert, z.B. einem Mirror einen weiteren Mirror für ein Raid-10 hinzufügt, so steht die zusätzliche Kapazität sofort zur Verfügung. Schreibt man eine neue Datei so verteilt die sich auf allen Platten und ist damit viel schneller als beim Schreiben/Lesen von...
  8. G

    [Sammelthread] OpenZFSonWindows: HowTos, Performance, wasauchimmer...

    Der ZFS on Windows Treiber ist deshalb immer noch beta state und es geht aktuell ja genau darum möglichst viele Kombinationen zu testen um dabei auftretende kritische Bugs zu finden. Ich hatte Probleme auch schon in Kombination mit dem Treiber von Aomei Backupper. Solche Probleme findet und löst...
  9. G

    [Sammelthread] OpenZFSonWindows: HowTos, Performance, wasauchimmer...

    Es gibt eine aktualisierte rc10 für das CDM und mount Problem Fix UserBuffer usage with sync-read/write (CrystalDisk) Handle mountpoint differ to dataset name. Die Probleme mit OpenZFS on Windows werden immer geringer und spezieller. Es bringt schon was dass immer mehr Leute den OpenZFS...
  10. G

    [Sammelthread] ZFS Stammtisch

    Kein Problem Ein ZFS Dateisystem kann man ganz einfach mit netcat übertragen z.B. https://blog.yucas.net/2017/01/04/fast-zfs-send-with-netcat/ alternativ: napp-it cs (client server) Das kann beliebige ZFS Server managen (TN nur eingeschränkt da man da kaum was außerhalb der GUI machen kann)...
  11. G

    [Sammelthread] ZFS Stammtisch

    SMB1 gilt als unsicher und wird zunehmend per default deaktiviert. Sollte man nur "zur Not" und in sicheren Netzen aktivieren. Wäre gut wenn 2.1 als min ginge.
  12. G

    Neuaufbau Homelab

    mit einer SSD geht nur L2Arc Lesecache oder Slog (da brauchts nur 10GB). Mit einer zweiten als Mirror ginge special vdev, SSD Pool und daneben eine kleine 10GB Slog Partition PBS dient in erster Linie dazu VMs zu sichern. Ganze ZFS Dateisysteme syncronisiert man fortlaufend mit ZFS...
  13. G

    Neuaufbau Homelab

    Die Wahrscheinlichkeit dass in einem ZFS Pool mit Flash ohne plp ein Datenfehler nicht nur entdeckt sondern aus Redundanz auch behoben werden kann ist sehr sehr hoch. PLP ist daher bei einem Pool schön aber nicht so essentiell wie bei einem Slog. Ist das Slog ein Mirror so erfolgt das Schreiben...
  14. G

    Home-Server Proxmox, OPNsense, OMV

    Es gibt 3 Varianten um Proxmox einzusetzen 1. Reiner VM Server, quasi wie ESXi mit VMs für alle Dienste 2. Wie eine bisherige Homeserver Distribution z.B. TN oder OMV und wenig/keine VMs Stabilität leidet etwas. Dafür hat Proxmox im Vergleich zu TN weniger Restriktionen (da geht fast nix...
  15. G

    [Sammelthread] ZFS Stammtisch

    Ich würde erstmal schauen on der anonymous Zugriff von Windows sauber klappt. Dann in Services > SMB Properties die Servereinstellungen prüfen/ändern (mit Service restart) smbmin: 1 testhalber smbmax auch auf 1 encrypt: disabled signing required: false oplock: testhalber umstellen, wenn...
  16. G

    Home-Server Proxmox, OPNsense, OMV

    Ok, aber warum OMV. Das Killerargument für Proxmox ist integriertes ZFS. Das nutzt man am effektivsten direkt unter Proxmox indem man einfach NFS und SMB aktiviert. Für komfortables ZFS Management ergänzt man die Proxmox web-gui um eine ZFS webgui wie Cockpit/Poolsman oder mein napp-it cs mit...
  17. G

    Neuaufbau Homelab

    muss kein Cluster sein, einfach ein kleines Zweitsystem so wie das Erstsystem zum Testen kann man das auch unter Proxmox realisieren. Als Backup für ZFS oder Proxmox ist S3 eher weniger geeignet. Ist eine Risikoabschätzung. Ohne PLP besteht ein deutlich höheres Risiko eines Datenverlustes/...
  18. G

    Neuaufbau Homelab

    Die schnellste Methode ZFS Datasets (Dateisysteme und Volumes) zu sichern ist ZFS Replikation auf Basis von ZFS Snaps. Das sichert auch offene Dateien im aktuellen Zustand und ist ideal für einen Fileserver. Für VM Dateisysteme ist es nicht so optimal weil ein ZFS Snap deren Konsistenz nur...
  19. G

    Neuaufbau Homelab

    Storage VM vs ZFS web-gui add on auf Proxmox Proxmox ist Debian mit ZFS. TrueNAS ist ebenfalls Debian mit ZFS. Eine Full Size Debian Storage VM bringt daher nur Komfort, keine essentiellen Extras, kostet dafür viel CPU und RAM. Um Proxmox direkt als Filer zu nutzen muss man lediglich Kernel-NFS...
  20. G

    [Sammelthread] OpenZFSonWindows: HowTos, Performance, wasauchimmer...

    Das import problem ist eventuell ähnlich mit https://github.com/openzfsonwindows/openzfs/issues/414
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh