TrueNAS: SSD Pool erweitern/neu anlegen!?

hs_warez

Enthusiast
Thread Starter
Mitglied seit
11.10.2007
Beiträge
1.222
Hallo!

Hab schon wieder einige Threads etc. durchforstet - aber so richtig klar ist mir das Ganze noch immer nicht!

aktueller Stand:
2x 960GB Seagate Nytro 1351 "mirror" (Fotos) => wird nach dem Sommer knapp werden (TrueNAS mag es ja nicht, wenn die Datenträger zu voll werden)
2x 1TB Samsung 870 Evo "mirror" (restliche Daten) => ausreichend freier Speicherplatz (da kommt auch in nächster Zeit nicht viel dazu)


Mein Plan wäre, nochmals 2 gleiche (entweder Nytro 1351, oder Samsung 870 Evo - je nach Angeboten) SSD's zu besorgen und dann meine "Datenträgerstruktur" zu überarbeiten.
Ergebnis sollte sein, dass ich dann nicht "2x 1TB" zur Verfügung habe, sondern "1x 2TB"! - So habe ich für die nächsten Jahre genug "Spiel" für die Fotos.


Wie macht man das am Besten!?
Ist es wirklich so einfach, dass man 2 gleiche SSD's reinhängt und dann den gewünschten Pool mittels "VDEV" erweitert?

Jetzt habe ich ja schon einen "mirror Pool aus 2 SSD's" und diesen dann einfach mittels "VDEV mirror aus 2 weiteren SSD's" im "stripe" erweitern!?

Irgendwie stehe ich da gerade auf der Leitung!?


Danke!


LG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin kein Freund von Datenträgerübergreifenden Storage Pools. Grade bei überschaubaren Datenmengen lieber immer alles an einem Stück.

Bei einem Raid-1 (mirror) mache ich das immer so: Platte 1 abziehen und durch größere ersetzen, rebuild laufen lassen. Wenn fertig, Platte 2 das gleiche. Und dann das Raid-Volume und / oder Pool erweitern, fertig.
 
Jetzt habe ich ja schon einen "mirror Pool aus 2 SSD's" und diesen dann einfach mittels "VDEV mirror aus 2 weiteren SSD's" im "stripe" erweitern!?
Ja, das geht - dann hättest Du eine Art von RAID10.

Wenn Du das neu aufsetzen würdest, sähe das (am Beispiel von Dateien statt SSDs) zB so aus:
Bash:
dd if=/dev/zero of=./1.bin  bs=1024 count=102400
dd if=/dev/zero of=./2.bin  bs=1024 count=102400
dd if=/dev/zero of=./3.bin  bs=1024 count=102400
dd if=/dev/zero of=./4.bin  bs=1024 count=102400

zpool create testpool mirror /home/xx/1.bin /home/xx/2.bin mirror /home/xx/3.bin /home/xx/4.bin

zpool status testpool

pool: testpool
 state: ONLINE
  scan: none requested
config:

        NAME                     STATE     READ WRITE CKSUM
        testpool                 ONLINE       0     0     0
          mirror-0               ONLINE       0     0     0
            /home/xx/1.bin  ONLINE       0     0     0
            /home/xx/2.bin  ONLINE       0     0     0
          mirror-1               ONLINE       0     0     0
            /home/xx/3.bin  ONLINE       0     0     0
            /home/xx/4.bin  ONLINE       0     0     0

Da Du schon einen mirror hast, würdest Du stattdessen machen

Bash:
zpool add [poolname] mirror [neue SSD1] [neue SSD2]

also zB

zpool add tank mirror sda sdb

Grundsätzlich aber siehe Supaman und gea: Lieber auf größere SSD wechseln statt mehr SSD dazustecken.
 
Zuletzt bearbeitet:
Ich bin kein Freund von Datenträgerübergreifenden Storage Pools. Grade bei überschaubaren Datenmengen lieber immer alles an einem Stück.

Bei einem Raid-1 (mirror) mache ich das immer so: Platte 1 abziehen und durch größere ersetzen, rebuild laufen lassen. Wenn fertig, Platte 2 das gleiche. Und dann das Raid-Volume und / oder Pool erweitern, fertig.

Danke - funktioniert aber nur, wenn ich größere SSDs verbauen würde.

z.B. 2x 2TB rein und dafür meine 4x 1TB raus.

Ja, das geht - dann hättest Du eine Art von RAID10.

Wenn Du das neu aufsetzen würdest, sähe das (am Beispiel von Dateien statt SSDs) zB so aus:
Bash:
dd if=/dev/zero of=./1.bin  bs=1024 count=102400
dd if=/dev/zero of=./2.bin  bs=1024 count=102400
dd if=/dev/zero of=./3.bin  bs=1024 count=102400
dd if=/dev/zero of=./4.bin  bs=1024 count=102400

zpool create testpool mirror /home/xx/1.bin /home/xx/2.bin mirror /home/xx/3.bin /home/xx/4.bin

zpool status testpool

pool: testpool
 state: ONLINE
  scan: none requested
config:

        NAME                     STATE     READ WRITE CKSUM
        testpool                 ONLINE       0     0     0
          mirror-0               ONLINE       0     0     0
            /home/xx/1.bin  ONLINE       0     0     0
            /home/xx/2.bin  ONLINE       0     0     0
          mirror-1               ONLINE       0     0     0
            /home/xx/3.bin  ONLINE       0     0     0
            /home/xx/4.bin  ONLINE       0     0     0

Da Du schon einen mirror hast, würdest Du stattdessen machen

Bash:
zpool add [poolname] mirror [neue SSD1] [neue SSD2]

also zB

zpool add tank mirror sda sdb

Grundsätzlich aber siehe Supaman und gea: Lieber auf größere SSD wechseln statt mehr SSD dazustecken.


Sind 4 SSDs im „richtigen „ Verbund nicht schneller als 2 in mirror?


D.h. ihr würdet eher neue 2TB SSDs besorgen und die bestehenden 1TB Modelle ersetzen?
 
Bei einem Mirror hat man die rechnerische Schreibleistung einer SSD und die doppelte Leseleistung da ZFS von beiden Platten gleichzeitig liest.
Bei einem Raid-10 verdoppelt sich das da jeder Mirror nur die Hälfte der Daten verarbeiten muss, also doppelte Schreibleistung und vierfache Leseleistung
(realworld eher Faktor 1,5-1,8 statt Faktor 2)

Raid-10 ist also schneller als ein Mirror, braucht aber mehr Strom und bei mehr Platten können mehr ausfallen.
 
Danke - funktioniert aber nur, wenn ich größere SSDs verbauen würde.

z.B. 2x 2TB rein und dafür meine 4x 1TB raus.

D.h. ihr würdet eher neue 2TB SSDs besorgen und die bestehenden 1TB Modelle ersetzen?

ICH würde das genau so machen. Speicher an einem Stück ist immer pflegeleichter.
So teuer sind 2TB SSDs nicht.

Was Performance angeht:
SATA SSDs machen schreibend um die 500 mb real, lesend 550.

Der limitierende Faktor ist i.d.r. die Netzwerkkarte, bei Gigabit real irgendwo 100-115 mb/sek,
bei 10 GBit irgendwo im die 1000 mb/sek.
 
SSDs sofern es sich nicht um Optane oder spezielle Datacenter Modelle handelt, brechen bei längerem Lesen/Schreiben schon ab 10% Schreibanteil gerne auf 100 MB/s ein, bei ZFS sync write gerne auf 50MB/s und weniger. Mit Sata und Halb-Duplex bei gleichzeitiger Lese/Schreib Last mehr als bei Voll Duplex SAS.

Siehe z.B. Performance vs Lese/ Schreibanteil an der io Last
 
Zuletzt bearbeitet:
QLC NAND SSD's sind nach kurzer Zeit teilweise langsamer als goße Sata HDD's.
 
QLC NAND SSD's sind nach kurzer Zeit teilweise langsamer als goße Sata HDD's.

Nur als Ergänzung
Das betrifft die sequentielle Performance. Bei den für ZFS und viele Anwendungsfälle wichtigeren iops bleiben von 80000 write lt Datenblatt gerne mal nach kurzer Zeit nur 5000 übrig. Das ist zwar immer noch besser als mechanische Platten mit nur ca 100 iops aber dennoch nicht wirklich schnell wenn man weiss dass die schnellsten NVMe wie eine Optane 58x weit über eine Million write iops dauerhaft kann.
 
Ok, ihr habt mich überzeugt - gehe auf die Suche nach passenden 2TB SSDs und verkaufe dann meine 1TB SSDs.

Danke!


LG
 
QLC NAND SSD's sind nach kurzer Zeit teilweise langsamer als goße Sata HDD's.
Kommt immer drauf an. Meine QLC's machen 360mb/s steady-state. Glaube nicht dass das ne HDD schafft.
 
Ok, ihr habt mich überzeugt - gehe auf die Suche nach passenden 2TB SSDs und verkaufe dann meine 1TB SSDs.

Danke!


LG


Es sind 2 neuwertige (kaum Stunden/Schreiblast) Intel D3-S4510 1,92TB im „Zulauf“.

LG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh