ZFS-Blöcke haben mit Flash-Blöcken/Pages nichts zu tun.
Ein Betriebssystem oder Filesystem weiß nicht, wie der Controller einer SSD physikalisch die Daten in die Flashs verteilt. Das ist ein Unterschied zu HDDs.
=> ZFS hat mit dem Wear-Leveling der SSD nichts zu tun, da der Controller dem ZFS nur logische Adressen mitteilt, aber eben nicht physikalische.
Wo Trim tatsächlich überflüssig bzw. sogar schädlich für die Latenzen ist, das ist Intels 3D XPoint-Speicher, spich Optane SSDs.
Btw, bei solchen Setups mit haufenweise SSDs ohne Powerloss-Protection würde ich so ein Teil nicht mehr ohne USV betreiben. Das schützt Dich nicht vor einem Ausfall innerhalb der Maschine (NT, Board, Controller), aber zumindest vor Stromausfall, egal ob vom Netzbetreiber her oder aber weil der FI-Schalter innerhalb Haus/Whg auslöst.
Von potentiell einigen Gigabytes im Ram-Writecache, die unabhängig von den eingesetzten SSDs nicht mehr weggeschrieben werden, will ich gar nicht reden. Ohne USV halte ich das für extrem leichtfertig.
Ja, Snaps und ZFS send/recv sind mächtige Möglichkeiten. Auch zum Backupen, weswegen ich als Backupziel auch einen ZFS-Filer einsetze.
Der ist dann nur zum Backuppen an und ist auch mit leistungsschwächerer (=preisgünstigerer) Hardware als mein Hauptsystem. Aber trotzdem ordentlichen Komponenten (Dell T20 mit E3-1225v3, 24GB Ram, Intel X540, M1015 im IT-Mode, 8xWD Red). Die Dells gabs ja lange Zeit sehr sehr günstig.
Vom Hauptsystem zum T20 war auch meine 10G-Keimzelle, da ich keine Lust mehr hatte, TB-weise Daten bei Vollbackups über 1Gbit zu quälen. Und selbst bei Incremental send/recv ists eine Wohltat. Mittlerweile würde ich für die Server aber wohl evtl. Glas statt 10Gbase verwenden.