Ja, Beispiel hatte ich ja oben gebracht, mach mal bei Win10 eine Systembereinigung von Laufwerk C: einmal mit gen3 und dann mit gen4, sollte jedem ein Licht aufgehen,
Das macht hier keinen nennenswerten Unterschied. Nicht von x2 3.0 auf x4 3.0 und nicht von x4 3.0 auf x4 4.0. Und auch nicht, wenn ich das auf einer VM teste, wo ich ~3x die Bandbreite sequenziell auf dem Storage erreiche (4x40GBit iSCSI Multipath Fullflash Storage Anbindung). Wobei das schon wieder unfair im Vergleich ist, weil nicht nur Bandbreite dazu kommt, sondern das Storage auch riesige, fast TB große Caches liefert (RAM), also niedrige Latenzen. Dafür kommen Latenzen durch Multipath iSCSI oben drauf...
Wo es aber was bringt, wenn das System auf ner Optane läuft oder vollständig in einer RAM Disk. Warum? Ja weil es wieder um x-tausende mini Files geht und die Latenz einen Unterschied macht...
Was ich aber mit Gewissheit dazu sagen kann - keine der Testprobanden deckelte an der bandbreitenlimitierung vom Interface an. Nicht die Single SSDs und auch nicht der Test in der VM.
Irgendeine Software, die vorher SSD bottlenecked war und jetzt auf einmal schneller läuft?
Ein Workflow, der nun schneller als vorher geht? Irgendwas, dass nicht so ne einmalige Sache wie Laufwerk bereinigen ist? ;-)
Solche Fälle gibt es natürlich auch... Ich merke bspw. einen großen Unterschied, wenn ich meine Fotosammlung über ein Entwicklungstool ala Adobe Lightroom, die Canon Photo Software oder bspw. Luminar öffne. Der geht ALLE Files im Ordner durch und lädt ne Vorschau, sequenziell versteht sich. Da bringt Bandbreite solange Punkte wie das Erzeugen der Thumbs schneller in CPU ist als das Storage mit Laden der Files hinterher kommt. In meinem Fall kommen die Bilder von einer EOS 80D mit voller Auflösung. Sind also in RAW ~25-40MB pro Bild. Zzgl. dem JPEG, wenn man es denn mit geschrieben hat. Mein letzter Trip erzeugte dabei 17000 Files, also grob 8500 Bilder, je als RAW und JPEG. Über ein 1GBit Schlauch zum NAS dauert das gefühlt 5 Jahre und 3 Tage. Mit ner local SATA SSD mit ~500-550MB/sec Read Speed skaliert es nahezu 1:1. Ich habe Teile davon auf meinem Ryzen Book mit einer 970 Evo an x2 3.0 Interface geöffnet und das skaliert immernoch, allerdings unfair im Vergleich weil der Prozessor im Book logisch ein ganz anderer ist. Da ich selbst privat keine x4 NVMe SSDs nutze kann ich zumindest diesen Usecase nicht weiter verfolgen, gehe aber davon aus, dass Skaliert weiter.
Es gibt sicher noch diverse andere Fälle - bspw. fällt mir da spontan sein so Geschichten wie Videobearbeitung, spezieller, das Finishing der Files. Wenn die verschiedenen Streams gemuxt werden -> ich mache sowas hin und wieder mal, das geht Anschlag am SATA Interface und man würde sicher merken dass da obenraus noch viel viel Luft ist.
Was man aber klar sagen muss - das setzt sehr große Datenmengen voraus, die man halt haben muss und die man dann bewegt. Mit ein paar wenigen MB Files bringts nichts. Mit ner Hand voll Fotos interessiert das auch nicht. Man spürt da keinen unterschied, selbst messen wird fast schwer aufgrund von leichten Schwankungen.
Ich bin aber der Meinung, wenn ich x-hunderte von Euros in NVMe Storage mit viiiiieeeeelll Platz verblasen kann, dann kann ich bei echtem Bedarf auf den use case relevanten Anforderungen gerecht werden. Bspw. das Muxer Thema beim Video ist nicht nur lesen -> sondern auch schreiben. Wenn Quelle und Ziel die selbe SSD sind, bricht die Datenrate zusammen. Auch PCIe nutzt da exakt gar nichts. Es braucht also sinnigerweise zwei von den Teilen. Eins ließt, eins schreibt... Und dann nicht nur ein paar GB im SLC Cache, sondern voll -> sonst bricht der Schreibspeed nämlich dann irgendwann obenraus zusammen und man hat gar nix gekonnt...