Ja, die SFP28 kosten ja quasi "nix"... das Problem ist halt, dass das nur da ein Thema ist, wo es einen ausgewachsenen PCIe Slot gibt, der frei ist.
Sowas ist momentan selbst in "dicken" Desktop-Boards ausm oberen Segment nicht selbstverständlich (4x PCIe 3.0 elektrisch reicht ja schon mehr oder weniger, aber mechanisch braucht man auf jeden Fall einen Slot, wo das passt...).
Bei den ganzen Kompaktgeräten schaut man da ziemlich durch die Finger, da bekommst man ja schon kaum 10 Gbit NICs, Ethernet schwer, LWL schon gar nicht.
Bei diesen Thunderbolt-Docks musst ja schon froh sein, wenn du 2.5 GbE bekommst, mit 10 Gbit ist da nix. Wenn jemand ein ordentliches "Dock" mit 10 Gbit empfehlen kann, ich bin ganz Ohr.
Du interpretierst die Aussage auch anders als sie formuliert ist
Ich weiss nicht, ob ich das tue. Ich hab schon länger mehr Kontakt mit gea und weiss ihn als sehr praxisorientierten, lösungsorientierten und realitätsnahen Menschen zu schätzen, insofern denke ich, dass das schon so verstehe wie es gemeint ist.
und rechnest zudem sehr konservativ. Die Geschwindigkeit eines Pools aus 3-4 SATA-SSDs kannst du per 10G schon nicht voll ausnutzen.
Ich rechne realistisch. Man muss nicht immer 100% auf die Tube drücken. 3-4 SATA-SSDs, gern, show me. Als gäb es noch leistbare SATA SSDs die keine totalen Leistungskrüppel sind, nicht jeder hat einen Vorrat an DC600M gehamstert. Wenn mal der SLC voll ist (von QLCs red ich gar nicht erst) oder genug ungünstige IOPS kommen, wars das auch mit SATA als Flaschenhals.
In Games ist es so, dass ne gute PCIe 4.0 NMVe kaum Vorteile gegenüber einer gesunden SATA SSD bringt, was Ladezeiten angeht und den "real world impact". Klar, ist jetzt nicht die Hauptanwendung, aber ich hoffe, ich kann mich damit verständlich machen. Vor allem, stripen ist eine Sache, Z1/R5 skaliert halt nicht im linearen ausmaß, so meine Beobachtung, insofern braucht man da schon bissl Anstrengung die 10G zu "knacken".
Hab btw. erst bissl
rumgespielt, offenbar ist der Datenträger im NAS nicht der Flaschenhals, ob das nun ein HDD Pool oder ne Datacenter SSD ist, war nicht (wirklich) das Thema. Wsl. eher SMB und wie Windows damit arbeitet, oder so. Wenn meine Tests nicht total daneben sind, so schafft mein Z1 pool ca. 350mb/s, das ist zwar über den 280mb/s vom 2.5 GbE, rechtfertigt aber nicht den immensen Aufwand (Arbeit wie Geld), den 10G bedeuten würde im Haus.
Insofern denke ich, dass diese
sehr konservative Ansicht aber nah an der Home-Nerd Praxis liegt.
Naja, es werden ja ausrücklich 25G bis 100G für NVMe empfohlen. Es geht nicht um "realistische" Geschwindigkeit.
Joa, kommt drauf an, was man machen will. Als
ausdrückliche Emfpehlung lese ich das jetzt nicht.
Aber stimmt schon, wenn man das tatsächlich ausreizen will, "braucht" man das schon. 25G kann man ja günstig Point2Point machen, zumindest 1-2 Clienten ans NAS hängen der 1 Client ans NAS und 1x Backupserver. So falsch ist dsa ja nicht.
Wenn man geas Statemetnt jetzt erweitert auf "LAN Performance sollte immer ähnliche
realistische Performance wie lokale Platten haben", sind wir gut dabei.
Nachtrag: So gesehen ist 10Gbit durchaus ein sinnvoller Schritt, der wohl nicht übersprungen werden muss. Bis 25G hometauglich wird, wird noch sehr viel Zeit vergehen, wenn denn überhaupt.
Es ist ja noch nichtmal 10G richtig angekommen (siehe die Sache mit USB/Thunderbolt Docks etc.), und die kühl laufende 10G Hardware ist auch noch eher selten.