Die bessere Frage wäre: Was soll der Unsinn? Die NVMe SSDs dürften alle getrimmt werden, denn das NVMe Protokoll ist erst nach der Einführung von TRIM entstanden, so dass es das Problem wie bei SATA, wo alte Treiber und uralte Windows / Linux Versionen kein TRIM unterstützt haben, nie gab. Damit ist es fast egal ob man die Hälfte der Partition einfach nur immer freilässt oder nur eine Partition über die Hälfte der Kapazität freilässt, wobei ersteres zumindest unter Windows zu bevorzugen ist. Dies hängt damit zusammen, wie NTFS organisiert ist, denn es reserviert per Default 12,5% der Kapazität für $MFT und belegt diesen Bereich nur im äußersten Notfall mit Userdaten, also wenn sonst nichts mehr frei ist. Dies führt dazu, dass Dateien dann extrem fragmentiert werden können, wenn das Filesystem so voll wird, dass NTFS schon fast diesen für den Master File Table reserviert Bereich nutzen muss. Fragmentierung bedeutet, dass die Dateien nicht mehr in einem zusammenhängenden Adressbereich geschrieben werden können, also nicht die nächsten Y Cluster ab Cluster X belegen, sondern eine ganze Liste solche Angaben geführt werden muss. Dies bedeutet, dass deren Verwaltungsdaten größer werden, also auch mehr auf die SSD geschrieben wird, dazu werden die Schreibvorgänger von langen sequentiellen Schreibzugriffen immer mehr zu kurzen, zufälligen Schreibzugriffen die tendenziell eine höhere WA verursachen und zu schlechter Letzt wird Windows beim nächsten Optimieren der SSD versuchen die Datei zu defragmentieren und dabei die Daten die im Bereich stehen der für $MFT reserviert ist, wie von dort zu entfernen. Auch dies führt zu mehr Schreibzugriffen.
Hat man nur eine große Partition und die Disziplin da Daten zu löschen wenn sie über 50% voll wird, so vermeidet man das der für $MFT reservierte Bereich jemals mit Userdaten belegt werden muss und die Chance des Filesystems einen zusammenhängenden Adressbereich zur Speicherung selbst großer Dateien zu finden um diesen ohne Fragmentierung speichern zu können, steigt ebenfalls, womit die Wahrscheinlichkeit massiv sinkt, dass die Optimierung jemals eine Datei defragmentiert, was sie nur bei extrem fragmentierten Dateien (schon um deren Verwaltungsdaten kleiner zu bekommen) und solche im für $MFT reservierten Bereich macht.
Klar macht das alles den Kohl nicht fett, aber wer sich eben wirklich auskennt, der wird verstehen warum das Overprovisioning wie es NVMe1.4 vorgeschlagen hat, eben meistens und auch in diesem Fall nicht die optimale Lösung ist. Dies ist es nur für SSDs die nicht getrimmt werden, da dort die SSD aus Sicht des Controllers früher oder später komplett voll sein wird, selbst wenn man alle Dateien löscht oder sie neu formatiert, außer man macht ein Secure Erase. Das SSDs nicht getrimmt wurden, war anfangs normal, dann wurde es aber immer unwahrscheinlicher und gerade bei NVMe würde ich mal sagen, dass dies nur bei SSDs in bestimmten RAID Konfigurationen (solchen mit Parity, denn die würde ja nicht stimmen, wenn alle SSDs Nullen oder gar Zufallsdaten beim Lesen der getrimmten LBAs wiedergegeben werden, oder mit schlecht gemachter RAID Lösung) der Fall sein kann. Dies gilt natürlich auch für SATA und SAS SSDs und bei SATA SSDs kann es auch vorkommen, wenn diese an einem SAS HBA/RAID Controller hängen oder man eben ein Uraltsystem hat bzw. noch uralte Treiber nutzt.