MrDeluxe
Enthusiast
- Mitglied seit
- 01.04.2006
- Beiträge
- 1.443
- Laptop
- Thinkpad E480, E14, T14s
- Prozessor
- AMD 3700x @ 4,3 Boost-Overdrive + Thermal Grizzly Aeronaut
- Mainboard
- Gigabyte Aorus Pro X570
- Kühler
- Scythe Fuma 2
- Speicher
- G.Skill - F4-3200C14D-16GFX
- Grafikprozessor
- 5700 XT
- Display
- 1xBenq G2411HD, 1xLG 27GL850-B, 1xBenq G2411HD @ Icy Box Monitor Arm IcyBox 3 – IB-MS405-T
- SSD
- WD Black SN750
- HDD
- Samsung 850Evo, Crucial 120GB @ Linux EOS
- Opt. Laufwerk
- N/A
- Soundkarte
- OnBoard
- Gehäuse
- Fractal Design Define R6 USB-C Blackout
- Netzteil
- be quiet straight power 650W
- Keyboard
- CMSTORM
- Mouse
- MX518
- Betriebssystem
- Win11 + Linux Elementary OS
- Sonstiges
- Mobile Phone - Mi 11 Lite 5G @ lineageOS nightly
- Internet
- ▼200 ▲100
@rayze: Der Befehl führt zu dem Fehler: property 'recordsize' is not a valid pool property
EDIT:
ein großes O statt kleinen hat den gewünschten Erfolg gebracht.
df -h zeigt mir dennoch "nur" 40T an. Also alles wie gehabt (auch bei recordsize von 512k)
EDIT2:
Das würde es wohl erklären, keine schöne Lösung aber immerhin eine Lösung:
EDIT3: Ich habe es mal nachgewiesen, schreibe ich mit
dd if=/dev/urandom of=sample.txt bs=1G count=10 (10GB File)
auf mein Pool mit recordsize=128K sehe ich mit df -h auch 10G
mit recordsize=1M zeigt mir df -h 9.5G an.
Habe ich eigentlich mit der Umstellung der recordsize irgendwelche Benachteiligungen oder Ähnliches?
EDIT:
ein großes O statt kleinen hat den gewünschten Erfolg gebracht.
df -h zeigt mir dennoch "nur" 40T an. Also alles wie gehabt (auch bei recordsize von 512k)
EDIT2:
Das würde es wohl erklären, keine schöne Lösung aber immerhin eine Lösung:
Quelle: SirMaster comments on FreeNAS zpool sizeSo that's how the eliminated overhead presetnts itself. Since recordsize is a dataset property, not a pool property, the pool still shows itself as smaller, but for every 10GB for instance that I write to a dataset with 1M recordsize and compression enabled, the pool USED property only increases by about 9GB. So in the end I will be able to fit the amount of data that I would be able to fit had there been no allocation overhead like if I had used ashift=9.
EDIT3: Ich habe es mal nachgewiesen, schreibe ich mit
dd if=/dev/urandom of=sample.txt bs=1G count=10 (10GB File)
auf mein Pool mit recordsize=128K sehe ich mit df -h auch 10G
mit recordsize=1M zeigt mir df -h 9.5G an.
Habe ich eigentlich mit der Umstellung der recordsize irgendwelche Benachteiligungen oder Ähnliches?
Zuletzt bearbeitet: