Auf SSD1 liegen schon ein paar VMs die in Betrieb sind, aber nach mir müsste sich das mehr im RAM abspielen bezüglich der VMs.
Vielleicht sind auch die ganzen laufenden VMs schuld. Wobei lesen ist ja auch kein Problem, nur schreiben.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Auf SSD1 liegen schon ein paar VMs die in Betrieb sind, aber nach mir müsste sich das mehr im RAM abspielen bezüglich der VMs.
Ich habe das auch schon in OpenZFS discuss gefragt, aber keine befriedigende Antwort erhalten.... wenn ich ein Hybrid-Pool hab, also mit special-vdev (also z.B. 4x HDD im Z1 und 2x SSD Mirror), kommt dann das ZIL immer auf die SSDs?
Wie ist das mit der Max. Dateigröße für die "kleinen Dateien", kann man die im nachhinein hoch oder runter setzen? Werden die "unpassenden" dann beim Scrub "aktuallisiert"?
Eine Einstellung wie man ZIL auf das special vdev zwingen könnte ist mir nicht bekannt
... gibts denn manuelles?automatisches rebalancing
Meinst für kleine Daten dann? Wäre jetzt bei meiner Verwendung nicht das Drama.Weil ich grade drüber stolpere: ab 75% Füllgrad werden standardmässig nur noch Metadaten auf special vdevs geschrieben, da bricht die Performance massiv ein.
Meinst du manuell runter kopieren und wieder drauf, oder send/receive mit dem gleichen Ziel quasi?manuell wäre per zfs send/receive
Sync write ist schon langsam genug. Jetzt noch ein file als Disk mit ZFS on ZFS ist sicher nicht ds was man an Performance möchte. Ixh hoffe ja darauf dass ein special vdev irgendwann auch ein Slog ersetzen kann, auch wenn das Performancemäßig nicht ganz optimal ist."brute force" müsste es das doch gehen, indem man ein Dateisystem / file auf dem vdev anlegt und diese Datei dann als ZFS SLOG in den pool einbindet? (wenn man sync-writes für dieses SLOG-vdev irgendwie ausschalten kann)
Hab ich noch nie gehört und hätte ich noch nie gelesen, wüsste nicht warum das sein sollte, halte das für Unsinn.Regeln
Datenausnutzung:Ist eine Raid-Z2 aus 5 Platten wirklich von der Datenausnutzung und Performance so viel schlechter als eines aus 6 Platten?
Es geht hier irgendwie um die Verteilung der Block, weil sonst nicht alle Bits in einen Block auf der Festplatte passen. Und das soll dann ganz schön verfügbare Speicher kosten.Raid-Z1: 3, 5, 7, ... HDDs
Raid-Z2: 4, 6, 8, ... HDDs
Ja, am Anfang sieht alles so billig aus und dann bestellt man das und das und das Ding ist schneller 4-stellig als man schauen kannIch weiss, der Luxx'sche Weg ist so von "ich kauf mir um 300€ son NAS, sieht praktisch aus" zur 5000€ Home-Server-Investition...
Das bringt mich jetzt ins nächste Dilemma .... Ich will eigentlich ein Z2 (-> 6 HDDs), aber wenn ich hier nur halbwegs aktuelle Platten mit 8 oder 10 TB will, dann lande ich netto bei 32 bzw. 40 TB so viel brauch ich ja keineswegs .....Zusammenfassung:
If you are using RAID-Z with 512-byte sector devices with recordsize=4K or 8K and compression=off (but you probably want compression=lz4): use at least 5 disks with RAIDZ1; use at least 6 disks with RAIDZ2; and use at least 11 disks with RAIDZ3.
Dachte ein Raid-Z bleibt immer gleich groß von der Plattenanzahl ohne den Pool aufzulösen?Ist nicht mehr statisch das RAIDZ das kann ja jetzt gefahrlos später grösser werden.