Interne HDD's durch NAS mit 10 Gbit ersetzen

Wildsau

Enthusiast
Thread Starter
Mitglied seit
09.01.2004
Beiträge
126
Hallo,
ich bin leider nicht mehr so ganz auf den aktuellen stand was die derzeitige Technik so angeht und würde mich über paar Tipps freuen.

Ich bin nun Besitzer einer DS923+ mit 10Gbit
Durch die schnellere Anbindung erhoffe ich mir auch die Festplattenperformance der einzelnen Laufwerke auch ausnutzen zu können.
Dadurch spiele ich ich den Gedanken vom PC die HDD's zu ersetzen. Auf den Lokalen HDD's waren z.B. paar Spiele oder auch Virtuelle Maschinen. Windows ist nach wie vor auf einer SSD.

Im Nas sind derzeit nur HDD's und (noch) keine M2 SSD verbaut

Viele Grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der wohl einfachste Weg dürfte sein, auf dem NAS entsprechende „virtuelle Festplatten“ als VHDX-Datei auf einem SMB-Share anzulegen und diese VHDX dann auf deinem Hauptrechner einzubinden.

Die sehen für Windows aus wie „normale lokale Datenträger“ (inkl. Laufwerksbuchstaben usw.) und du hast damit nicht die Einschränkungen, die eine „reine“ Netzwerkfreigabe (selbst verbunden mit Laufwerksbuchstabe) hat.

Welche Performance du dann hast, hängt vor allem von der Leistung der Synology ab. Vermute mal, die kann kein SMBdirect (RDMA), aber für eine 10Gbit Verbindung sind eh deine HDDs der Flaschenhals. Das ändert sich dann ggf., wenn Du auf SSDs umsteigst und vor allem wenn Du das Storage auf diese Weise für mehrere PCs gleichzeitig nutzen willst: mehr als best case 1GB/s bekommst Du halt insgesamt nicht über die Leitung. Reicht aber auch m.E. (für fast alles mit einem einzelnen Client).
 
Dadurch spiele ich ich den Gedanken vom PC die HDD's zu ersetzen.
Hab ich gemacht. Bin jetzt SSD only unterwegs. Allerdings mit ausreichend Platz, um alles lokal verfügbar zu haben, was "ausgeführt" wird.
Das ganze Datengrab etc. hab ich am NAS.
Spiele und so Kram aber schon lokal (sind ja nur ein paar wenige TB alles in Summe).
Auch VMs, die ich ausführe, würde ich lokal lassen (meine sind nicht besonders groß...), Backup davon aufs NAS.

Ich würde das so aufteilen, dass wie performanten und ausführbaren Sachen lokal liegen (auch um komischen Fehlern vorzubeugen, wenn das Netzwerk mal aussetzt), und allgemein so, dass dein Betrieb nicht sonderlich beeinträchtigt wird, wenn das Netzwerk mal weg ist.

So 1x 2 TB + 1x 4 TB SSD im Rechner sind ja durchaus realistische Größen, damit sollte man ja erstmal auskommen... kann man ja mit dem NAS syncen, wenns darum ginge...

Ist mir nicht so schwer gefallen, bei mir hat sich das über die Jahre schon eingeschlichen, dass die HDDs immer mehr zur (notwendigen) Ablage geworden sind, und sich die genutzten/ausgeführten Sachen auf den SSDs gesammelt haben. Insofern wars für mich nicht schwer, das dann ins NAS auszulagern.

VHDX-Datei auf einem SMB-Share anzulegen
Müsste man ausprobieren, inwiefern SMB für sowas geeignet ist, für eine Beurteilung fehlt mir die Erfahrung. Müsstest einfach probieren, ob das für dich ausreichend gut läuft.
Dein Tip mit der VHD(X) ist aber nett, muss ich mir mal genauer ansehen, ob man das Vorteilhaft verwenden kann. Hatte ich in der Art noch gar nicht am Schirm.


Von diesen ganzen speziellen Späßen wie iSCSI etc. würd ich als Amateur-Privato irgendwo absehen... davon wird glaub ich nix einfacher oder besser.
 
Dein Tip mit der VHD(X) ist aber nett, muss ich mir mal genauer ansehen, ob man das Vorteilhaft verwenden kann. Hatte ich in der Art noch gar nicht am Schirm.
Zustimmend nickt und sich über eine Anleitung wenn nötig freut :-)
 
Das ist eigentlich total simpel. Einzige größere Herausforderung ist vielleicht, die VHD(x) nach jedem Boot automatisch wieder einzubinden. Wobei mich das in dem Link beschriebene Phänomen etwas wundert, weil nach meiner Erinnerung Windows bei jedem Booten versucht, die beim shutdown gemounteten VHD(x)-Files wieder einzuhängen. Aber vielleicht klappt das mit VHD(x)-Files im Netzwerk nicht (so)... muss ich auch nochmal ausprobieren.

Diese Themen gibt es bei iSCSI nicht. Das ist ja der Sache nach schon auf "Netzwerk" ausgelegt und einmal eingerichtet läuft das einfach vor sich hin, inkl. Reboots. ;) Die Einrichtung von iSCSI ist auf Client-Seite auch nicht wesentlich komplexer als ein SMB-Share zu verbinden: im Zweifel nur iSCSI Initiator aufrufen, IP-Adresse des Servers eintragen, fertig. Der Rest funktioniert dann wie eine physische Disk. iSCSI ist halt auf Server-Seite u.U. etwas komplexer. Aber das nehmen einem die modernen Fertig-NASen von Synology, QNAP & Co. als "Server" inzwischen auch meist sehr komfortabel ab. Ich hab zu Hause tatsächlich für 4 Familienrechner den Speicherbedarf für Games & Co. mit iSCSI auf dem Homeserver im Keller "zentralisiert": Wenn einem Rechner der lokale Speicherplatz ausging, hab ich halt anstatt neue SSDs dazu zu stecken einfach neue iSCSI-Shares angelegt und verbunden. Feddisch. Mein Hauptrechner ist per 100gbit angebunden, 2 mit 10Gbit und 1 nur mit 1gbit. Mit 1gbit sind die Ladezeiten natürlich schon spürbar langsamer als mit lokalen SSDs, aber auch nicht schlechter als mit lokalen HDDs. :d

Eine dauerhafte Lösung auf SMB+VHD(x)-Basis statt iSCSI hätte aber durchaus einen gewissen Charme (SMBdirect/RDMA, höhere Flexibilität beim Umgang mit den "virtuellen Disks", Management Zugriffsberechtigungen uvm. ...), weshalb das auch noch auf meiner ToDo-Experimente-Liste steht. Will ich mal auf Alltagstauglichkeit testen.

Exkurs / Offtopic: Erste Spielereien in diese Richtung sind zum Beispiel hier zu finden (etwas anderer Fokus: Vergleich NTFS vs. ZFSonWindows, und das Ganze über's Netz) oder hier (Performance iSCSI vs. SMB, allerdings ohne RDMA). Derzeit forsche ich aber vor allem danach, wie sich ZFSonWindows performanter hinfrickeln lassen könnte... ;)
 
Naja... aber ob das so schlau ist? Ich mein 25g NICs gibts ja recht billig, und man kann 2 Rechner mitm NAS ohne Switch verbinden (sind ja alles Dual-Port Karten)... aber hab mal die 8 Lanes auf einem Board frei... kannst eig. nur die SLI Boards nehmen und bei der Graka auf x8 reduzieren, oder hoffen dass die Karte auch im x4 Slot läuft, wenn man denn einen nutzbaren hat.
Bei 10g siehts natürlich besser aus.

Inwiefern die Sache wirklich sinnvoll ist, steht auf einem anderen Blatt.
Für dich ist das offenbar auch bissl Spielerei (ist ja nix schlechtes), sonst hättest keine 100gbit weil... ne 4tb SSD is billiger und sparsamer. :d

Imho ist das als Single-User eher sinnbefreit, außer halt, man machts gern.


Sinnvoll hingegen isses schon, die HDDs rauszuwerfen, aus unterschiedlichen (auch schon genannten) Gründen.
Steht jedem frei zu tun, wie er das will... ICH würde halt einen sweetspot suchen, in dem Aufwand und Nutzen im (für mich passenden) Verhältnis stehen.
Die ausufernde Virtualisierung bringt ja schon auch Risiken mit sich, vor allem, wenn man selbst nicht vom Fach ist und sich nicht sooo gut auskennt... das coole am IT-Zeug ist, dass im Augenblick extrem viel erschaffen werden kann... aber ebenso schnell kann auch was gelöscht/überschrieben sein :d...
 
Naja, der Server served 5 Personen 4 davon mit Daddel-PCs. Anstatt wie vorher auf z.B. 2 Rechnern zu viel Platz zu haben und auf den anderen 2 zu wenig, kann ich das jetzt zentral dort allokieren, wo der Bedarf ist ohne physisch umbauen zu müssen. Auf dem Storage Pool ist sogar deduplication aktiviert, was bei z.T. 4x den gleichen Games den Storage zusätzlich besser nutzt. Musst wie so oft in Sachen IT abwägen: hier zwischen Komfort/bessere Nutzung/gute Performance für viele vs. max Performance für einen.

Ansonsten: 4 PCIe3-Lanes liefern theoretisch knapp 4GB/s Durchsatz, ziehen wir mal großzügig 1GB ab, reicht das locker fluffig für 25gbit und auch bei 40gbit verliert man nicht soooo viel. Aber tendenziell stimme ich Dir voll zu: mehr Lanes braucht das Consumer-Land! :d Natürlich sieht die Welt mit PCIe4 oder gar 5 schon etwas besser aus, aber die NICs die das können, sind so unverschämt teuer… ;)

Meine 100Gbit-NIC im Daddel-PC steckt auch zurzeit leider nur in einem x4-Slot und wird dadurch übel ausgebremst. Aber einen Tod muss man leider sterben, wenn man aktuell ne flotte Gaming-CPU haben und ne Graka mit x16 Lanes anbinden will.

Lange Rede kurzer Sinn: wenn man nur einen Rechner hat, der möglichst viel möglichst schnellen Speicher haben will: geht nix mehr bei eine (oder gleich mehrere) fette, schnelle NVME lokal. Interessanter wirds halt bei anderen Anforderungen / Optionen.

Dann kann z.B. auch ein zentrales Software-RAID aus 4x1TB SATA-SSDs sogar aus Performance-Sicht sinnvoller sein als 4x1TB verteilt auf 4 separate Rechner. Kann. Muss nicht. Mir geht’s vor allem darum, Optionen aufzuzeigen.
 
wo der Bedarf ist ohne physisch umbauen zu müssen.
... aber z.B. den Steam Games-Ordner kann man sich nicht teilen, oder? Oder ist das so Schlau, dass die ganzen Schreibvorgänge im Benutzerverzeichnis erfolgen?
Jah also über Dedup machst dus...

Ehrlich gesagt seh ich den Sinn da trotzdem nur begrenzt, das muss man schön mögen und/oder sich schönreden.
Also eh gut, wenns für dich gut läuft und du Spaß dran hast, ich glaub nur trotzdem, dass das als Allgemein-Empfehlung dann doch etwas speziell ist :d...


Ich halte das zwar immer noch für Fragwürdig, in dieser Richtung zu übertreiben, aber... ich bin total offen dafür und neugierig:
=> Wie isn das mit den VHD(X), kann man die z.B. mit CrystalDiskMark benchen? SMB-Shares mags ja nicht.
Wenn ja, mach mal Benches von deiner Freigabe vs. lokale SSD... würde mich interessieren... speziell Richtung IOPS und kleinere random Zugriffe...


Natürlich sieht die Welt mit PCIe4 oder gar 5 schon etwas besser aus
Leider nicht, PCIe 5.0 wäre nur dann sinnvoll, wenn die Lanes auch gut aufgeteilt wären... also einfach SSDs z.B. mit x2 angebunden, bzw. x1 /x2 /x4 Slots... eine 10G Nic, die mal 8x PCIe 2.0 hatte, würde mit 1 PCIe 5.0 Lane laufen... wie nice wäre das, statt dem unnötigen 2. M.2 5.0 Slot einfach 4 PCIe 5.0 x1/x2 Slots zu haben... für die bräuchte es halt noch entsprechende Controllerkarten... NICs oder HBAs.... Mit PCIe 5.0 würden auch 2 Lanes Sinn machen... eventuell bekommen wir hier ein "geschenk"... wenn ich mir die Samsung 990 evo ansehe, hoffe ich, dass die was wissen, und das nicht nur ne Sparvariante ist.
Ich fürchte aber, die nächsten 3 Jahre kommt da erstmal gar nix... egal, ist OT.
 
Ich halte das zwar immer noch für Fragwürdig, in dieser Richtung zu übertreiben, aber... ich bin total offen dafür und neugierig:
=> Wie isn das mit den VHD(X), kann man die z.B. mit CrystalDiskMark benchen? SMB-Shares mags ja nicht.
Wenn ja, mach mal Benches von deiner Freigabe vs. lokale SSD... würde mich interessieren... speziell Richtung IOPS und kleinere random Zugriffe...

Ich sehe das nicht als Übertreiben, sondern als einen möglichen logisch nächsten Schritt, wenn man ein schnelles Netz (ab 10Gbit) zu Hause hat. Im RZ ist das Konzept schon ewig gang und gäbe und sowas von praxiserprobt wie sonst kaum etwas. Ob sich das für einen zu Hause lohnt, muss und darf sich jeder anhand der ganz persönlichen Anforderungen selbst überlegen/entscheiden.

Für mich funktioniert's prima und ist an vielen Stellen (nicht allen!) ein guter Kompromiss. Und ich find's halt auch einfach kewl. :d Muss aber natürlich nicht für Dich oder sonst jemanden gelten. Wie gesagt, ich zeige nur Optionen aus meinen persönlichen Erfahrungen auf. Meine Erfahrungen kommen übrigens an echtes Profi-Wissen sicherlich nicht heran, bin der erste der das sofort zugibt. Ich würde aber doch soweit gehen, dass mein Erfahrungsschatz über das Standardwissen des 08/15 PC-Anwenders hinaus geht. Einfach weil ich die Themen "Netze" und "Storage" extrem spannend finde, über die Jahre verdammt viel Zeit damit verplempert, viel selbst herumgespielt, gelesen und letztendlich eine vielleicht "leicht over the top" aber für mich sehr sexy Lösung gefunden habe. :d

Und nur mal als zwei Beispiele aus diesen "Erfahrungen":

1. CDM mag SMB-Shares sehr wohl, wenn man über "Select Folder" geht und dann im Pfad mal einfach "\\Server-IP\SMBFreigabename" eintippert. ;)

2. Benches in der angefragten Art hab ich bereits oben in #5 verlinkt, gerne aber auch nochmal hier: hier oder hier, die lokalen vergleichswerte von CDM findest Du hier ebenfalls im verlinkten Thread weiter unten. :) Wie gesagt, mein Fokus liegt aktuell mehr bei ZFS bzw. RDMA, aber ein paar Infos zu SMB lokal vs. übers Netz sind auch dabei. Aus meinen Postings dort ergibt sich auch, dass sich eingebundene VHD(x) auch problemlos mit CDM benchen lassen. =) Hab auch noch mehr Benches in anderen Freds hier, bin aber gerade zu faul, die rauszusuchen. Am besten machst Du die Dich interessierenden Vergleiche eh selbst (und postest gerne irgendwo die Ergebnisse!).

Zum Thema PCIe4 bzw. 5: auch wenn die NIC x16 kann/will, funktioniert sie auch mit x8 oder x4 - und ob das dann ein Flaschenhals ist, hängt vor allem davon ab, wie viele Daten man über den Bus bringen muss. Für einen 100Gbit-Port reichen also x8@PCIe4 locker (wenn man nicht gerade full duplex saturieren will). Aber ich werde nicht müde zu betonen, dass alles um real erreichte 1GB/s über's Netz schon verdammt gut ist und für nahezu alle Einsatzzwecke @home locker ausreicht. Das packt sogar x2@PCIe3. Ob ein Spiel zum Laden jetzt 1 Sekunde oder 3 Sekunden braucht, macht das Kraut nun nicht wirklich fett.
 
Ah du bist das, den Thread hab ich schon überflogen.
Spannend, gar nicht so schlecht. Wäre interessant, was bei 10g davon über bleibt, speziell bei den kleineren Zugriffen.

Die Posts sind interessant:
Noch interessanter mit RAM-Disk:
Spannend. Und das, obwohl SMB in gewissen Situationen nicht soo premium ist...

funktioniert sie auch mit x8 oder x4
Tun sie das allgemein alle, also ist das allgemein eine Eigenschaft der PCIe Geräte, was auch immer man so rein steckt? Bei M.2 dürfte das in den meisten Fällen ja auch gehen...
Oder hängts vom Hersteller etc. ab?

1. CDM mag SMB-Shares sehr wohl, wenn man über "Select Folder" geht und dann im Pfad mal einfach "\\Server-IP\SMBFreigabename" eintippert. ;)
Hah, Tatsache.
870 Evo 4tb am TrueNAS, LZ4:
1707871867142.png


Hab lokal auch noch eine, ich bench das dann morgen durch, ich wollt seit 2h pennen...


Ist halt die Frage, was bei einer Synology davon überbleibt. Müsste man einfach probieren.
 
Ah du bist das, den Thread hab ich schon überflogen.
Spannend, gar nicht so schlecht. Wäre interessant, was bei 10g davon über bleibt, speziell bei den kleineren Zugriffen.
Hab bei 10Gbit damals mal vergleichbare Tests gemacht und durchaus GB/s gesehen. CDM hab ich auch gemacht, aber mit ner 6er-Version, die haben damals z.T. wenig brauchbare Ergebnisse produziert. In den Tests hier hat eh die Ziel-SSD limitiert, nicht das Netz.
Tun sie das allgemein alle, also ist das allgemein eine Eigenschaft der PCIe Geräte, was auch immer man so rein steckt? Bei M.2 dürfte das in den meisten Fällen ja auch gehen...
Oder hängts vom Hersteller etc. ab?
Ist eine Spec des PCIe-Bus. Können alle PCIe-Geräte, das heißt, die müssen alle auch mit x1@PCIe1 laufen.
Müsste man einfach probieren.
Das gilt eigentlich eh immer. :d
 
So, paar Benches für ne 870 Evo 4tb lokal sowie im TrueNAS über 2.5 GbE...

Sata SSD am NAS:
1707929255895.png 1707929329195.png 1707929388846.png
Sata SSD Lokal:
1707929732724.png 1707929759894.png 1707929777814.png

Dass 2,5 GbE für die SATA SSD zu langsam ist, ist eh klar.
Eigenltich aber nicht so schlecht, die Werte, so allgemein.

Ist die Frage, was man aus den IOPS rauslesen kann und aus der Zugriffszeit, und ob sich das mit besserem LAN ernsthaft verbessern würde.
Kann ich momentan leider nicht testen.

Sequentielle Kopiergeschwindigkeit von großen Dateien ist eine Sache, so "Alltagszugriffe" eine andere... auf jeden Fall ein interessantes Thema.
Gibts ein sinnvolles Benchmark zum Thema "Alltagszugriffe"?
 
VMware Player 17 mit einem Debian auf der SATA lokal:
1707938181879.png 1707938244091.png 1707938273567.png
VMware Player 17 lokal ausgeführt mit dem ganzen VM Ordner am NAS (auch wieder die gleiche 870 Evo 4tb):
1707939094287.png 1707939116067.png 1707939148321.png

Hm spannend irgendwie... offenbar... passiert da irgend eine VM Magic und es wird der RAM gebencht.
Oder wie wird das ausgeführt? Kenn mich da zu wenig aus...
 
Das Problem sind im Zweifel Caches. Die schlaueren Systeme cachen ja sowohl read als auch Write Zugriffe wo es geht und gerade CDM ist da relativ stumpf. Das kannst du nie ganz verhindern und gibt verschiedene Hebel. Bei manchen Benchmarks (Atto) kannst Du z.B. bestimmen, ob ein Write-Cache des Datenträgers benutzt werden soll oder nicht. Im OS gibt es auch oft verschiedene Parameter, die Einfluss haben (bei ZFS / Solaris z.B. Sync weites) und und und. Drum ist ein guter Benchmark Wert meist nur eine Annäherung, wie es dann in der Praxis aussehen könnte.

Am sichersten fährst Du im Zweifel, wenn man Datenmengen bewegt, die in keinen Cache passen, wenn du’s ganz hart spielen willst, auch nicht mehr in den RAM des Systems.
 
Ja, aber das sind dann wieder nur so sequentielle Monsterfiles und wenig "Alltags-Mischlast"... da sind ja selbst 2 Ultrastars so schnell wie ne SATA SSD :d... is auch Käse.


Naja, auf jeden Fall bin ich geneigt dir zu glauben, dass diese Sache ganz gut läuft mit >=10 G...
Wobei ich mir die 10 G Sache noch aufsparen werde, da es mit 2,5g recht vernünftig "fluppt"... und ich mir dann nicht sicher wäre, ob ich 10 GbE will oder 25 g sfp28... 25 g sfp wäre wohl gleichpreisig (Switch brauch ich nicht dafür, könnte ja 2x Klienten direkt machen), ein PCIe Lane-Problem hätte ich in beiden Fällen (entweder 3. SSD raus beim X570 oder Graka im x8 Mode... beides nicht so premium).


Ich würde trotzdem nicht "mehr" als nötig aufs NAS legen, gerade als Einzelnutzer, damit ich auch ohne NAS soweit "lauffähig" bin mit allen "Standardanwendungen"... zudem könnte ich mir vorstellen, dass dubiose Windows-Software "komisch" reagiert, wenn es mal nicht auf Datien zugreifen kann bzw. mal doch ne Zeit überschritten wird.


HDDs rauswerfen is eine Sache, aber auf Biegen und Brechen SSDs ins NAS schieben... nur weil mans kann? Ich weiss nicht.
Würde ich nur bei echtem Bedarf machen.
 
Find ich (zum Glück) überhaupt nicht sexy. =)
 
SupremeRAID™ basiert auf der NVIDIA T1000 bzw. NVIDIA A2000 GPU
Das finde ich ganz Interessant, hatte bisher davon noch nichts gehört, obwohl es die schon seit 2022 gibt.

ComputerBase Artikel dazu.


Aus dem Artikel gezupft Test des Vorgängers https://www.storagereview.com/review/graid-supremeraid-sr-1000-review
 
Zuletzt bearbeitet:
Ich persönlich hab dafür einfach kein passendes Anforderungsprofil. Ich werde im Leben nicht in die Verlegenheit kommen, 32 NVMe's bündeln zu wollen/müssen. Ich habe aktuell 10 NVME in meinem Homeserver, performancemäßig reicht (mir) das locker und sollte der Platz irgendwann eng werden, tausch' ich halt welche von den 1TB-Modellen gegen was Größeres.

Gestehe aber gerne zu, dass das ein spaßiges Stück Hardware ist. Aber das sind für mich auch Supercomputer oder irgendwelche Monster-Workstations. Insofern vielleicht dann doch sexy, löst aber tatsächlich keinen "will-haben-Effekt" aus, der meinem Geldbeutel gefährlich werden könnte... ;)
 
Ich persönlich hab dafür einfach kein passendes Anforderungsprofil. Ich werde im Leben nicht in die Verlegenheit kommen, 32 NVMe's bündeln zu wollen/müssen.
Jipp ich auch nicht. Ich finde nur die Hardware und die Möglichkeiten damit spannend.
 
Vielen Dank für die Antworten :-)
Ich werde dann mal meine HDD's in Rente schicken und dafür das Nas via 10 Gbit nutzen

Viele Grüße
 
OT:
Gestehe aber gerne zu, dass das ein spaßiges Stück Hardware ist.
Ja gut, aber das ist ja nur der "Raid-Controller", die PCIe Lanes für die ganzen NVMe muss dann das Mainboard selbst immer noch bieten, oder? Also ein Xeon/Epyc mit x4x4x4x4 Bifurication pro Slot und entsprechend vielen Slots (oder halt U.2/U.3s), oder lieg ich da daneben?
 
Das ist nichts anderes als nen SoftwareRAID.
Der einzige Unterschied ist, dass das nicht die CPU sondern die GPU macht und die auch noch direkten Zugriff auf das Storage haben kann.
An sich ein alter Hut.
Die ersten Versionen basierten noch auf einer P620. Das ist ne ganz andere Liga als ne A2000, hat aber dennoch schon Spaß gemacht.

Ansonsten muss das MB natürlich nicht zwingend die NVMe Lanes bieten.
Karten mit einem PLX und Backplanes PLX sind entsprechenden "Vervielfältiger".
Außerdem wird ja auch noch NVMeoF unterstützt. (das hat nichts mit der Schmuddelseite zu tun)

Ansonsten sollte man sich bei einem Hersteller von Storagelösungen genau überlegen, was man dem abkauft, wenn der auf seiner Webseite schreibt, dass ein highend HW RAID auf 8 SSDs begrenzt wäre.
Die Realität ist nämlich, dass das um Größenordnungen mehr sind, als die 32 für Graid angegebene.
Aber ist halt schlecht fürs Marketing, wenn man selber nur 32 kann und "der andere" mehrere hundert.
 
Zuletzt bearbeitet:
Interessant.
Ich baue hier auch gerade aus und um.
10gbit lan für die hauptrechner.
2,5gbit bzw 1gbit für den Rest.
Unify Netz
8Port Synology mit 2 NVMe Slots plus 10gb Dual SFP+ hängt per DA am unify switch.
Dazu eine kleimes 2 Port synology als Backup der großen NAS.

Ich bin noch mit SMB und homeshares unterwegs und die Anwendungen liegen auf den jeweiligen PCs nur die Daten liegen auf der NAS.

Problem sind 10gbe Mainboards im Consumer oder Lane Verteilung oder und fehlende 3x4 netzwerkkarten.
Aktuelle läuft meine broadcom 2x8 in einem. 2x4 Slot und packt so gerade 1gbyte/s. Wobei das z690 tuf plus d4 den x4 Port x8 elektrisch angebunden hat und aida mir auch 2x8 auswirft.

Aber es ist schon sehr geill ;)

Vg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh