[Sammelthread] 10Gbit Homenetzwerk

und TrueNAS auf FreeBSD14 aufsetzen ...
Ernst gemeinte Frage, weil ich selber keine Antwort darauf weis. :)
Warum denn nicht TrueNAS Scale? Da wird es bzgl. Treibersupport doch sehr viel besser aussehen. Selbst mein Xbox DVB-Tuner, welchen an einen Container durchreiche, läuft.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann müsste ich vermutlich mein NAS komplett neu aufsetzen
muss mir mal anschauen, was man migrieren kann und was nicht ...

Ehrlich gesagt traue ich ZFS unter Linux noch nicht so richtig, oder ist das jetzt alles schon nativ sauber drin?
 
Ehrlich gesagt traue ich ZFS unter Linux noch nicht so richtig, oder ist das jetzt alles schon nativ sauber drin?
Hä? Als wenn man das vor Anfang 2025 sagen könnte (?) :unsure:

Ich würde das noch ne Weile aussetzen (/aussitzen)... CORE ist immernoch die Version die mit Abstand am allermeisten bei denen gesaugt wird :sneaky: Es scheint also doch, daß außerhalb des Gezaubers in den Forenblasen
a) die meisten die einen ZFS-NAS fahren wollen, auf der Kiste nur einen ZFS-NAS fahren wollen
b) sie sich die HW die passt einfach davor zusammensuchen (und dann ist auch alles gut)

Ich würde aktuell auch allgemein (ungeachtet der Platform) nichts aufsetzen was mit mehr als ZFS 2.1.xx läuft. >= 2.1.34 und <2.2.x. Nur so ein Gefühl...
 
Zuletzt bearbeitet:
Bin von TrueNAS Core auf Scale gewechselt.

Was nicht geht, ist die legacy "GELI" Encryption mitnehmen.
Ansonsten wars recht einfach umzustellen.

Scale hat aber noch viele Kinderkrankheiten...
Bis zur letzten Version hatte ich in der Übersicht zum Beispiel 20 GByte/s Durchsatz auf meiner 10 GBit-Karte... :fresse:
Der SMB-Dienst ist vor 23.10.1 ab und an mutwillig hängen geblieben, was meine Nextcloud (in ner anderen VM) zum schlucken gebracht hat...
NFS scheint aber stabiler zu laufen, hatte mit Core sehr oft Hänger und Ausfälle auf dem ESXi, mit Scale lief der NFS-Dienst ohne Probleme wochenlang durch.

Mit 23.10.2(?) ist auch der schleichende Datenverlust von ZFS behoben worden.
Obs für Core einen solchen Patch gibt weiß ich nicht...

//Edith:
Ich nutze es allerdings als REINES NAS, keine Container-Sperenzchen oder ähnliches.
 
Ich hab mir das mit den Karten nochmal angesehen. Hat hier im Thread schonmal jemand nachgesehen / nachgemessen wie das mit ASPM und den C-States ist bei den Karten? Wenn ich das jetzt richtig gesehen habe:

X520: kein ASPM, keine höheren C-States
X710, ASPM und höhere C-States möglich
ConnectX-3, kein ASPM, also auch keine höheren C-States
ConnectX-4, ASPM L1 sollte unterstützt werden lt. Karten, aber Exit Latency L0s ist mit unlimited angegeben und soll deswegen nicht funktionieren.
Karten mit Aquantia (Marvell) Chips sollten ASPM und höhere C-States unterstützen. Exit Latency ist aber ebenfalls mit unlimited angegeben.

Zur Aquantia: https://forums.unraid.net/topic/110...e-10gb-ethernet-sfp-pcie-30-karte-für-unraid/ - auf der 1. Seite klappts nicht, auf der 2. Seite dann mit forciertem ASPM per Script anscheinend schon. Das würde bedeuten, dass das auch für die ConnectX-4 klappen könnte?

So oder so scheint die X710 am unproblematischsten zu sein. o_O
 
Ich hab seit ein paar Jahren eine Intel-X540-T1, was mir nun auffällt das hin und wieder mehrmals am Tag die Netzwerkverbindung ganz kurz getrennt wird. Ich bin mir nun nicht sicher ob das unter Win10 damals auch so war, jedoch unter Win11 ist das sicherlich 3-4 mal am Tag für ca. 2-5 Sekunden wird das Netzwerk Symbol rechts unten zur Weltkugel mit einem durchgestrichenen Kreis. Kann mir jemand sagen was das ist? Treiber ist der 28.3 von Intel.
Jemand noch ne Idee?
 
Wirklich nicht Hitze? Mittlerweile die Wärmeleitpaste oder -pads erneuert in dem Teil?

Habe ähnliche Probleme mit unserem alten Netgear Switch GS716T. Kann ihn aber nicht austauschen, weil modernere Switches über die alten Leitungen aus Klingeldraht im Haus, keine 1gbit in alle Räume schaffen
 
Ich hab mir das mit den Karten nochmal angesehen. Hat hier im Thread schonmal jemand nachgesehen / nachgemessen wie das mit ASPM und den C-States ist bei den Karten? Wenn ich das jetzt richtig gesehen habe:

X520: kein ASPM, keine höheren C-States
X710, ASPM und höhere C-States möglich
ConnectX-3, kein ASPM, also auch keine höheren C-States
ConnectX-4, ASPM L1 sollte unterstützt werden lt. Karten, aber Exit Latency L0s ist mit unlimited angegeben und soll deswegen nicht funktionieren.
Karten mit Aquantia (Marvell) Chips sollten ASPM und höhere C-States unterstützen. Exit Latency ist aber ebenfalls mit unlimited angegeben.

Zur Aquantia: https://forums.unraid.net/topic/110...e-10gb-ethernet-sfp-pcie-30-karte-für-unraid/ - auf der 1. Seite klappts nicht, auf der 2. Seite dann mit forciertem ASPM per Script anscheinend schon. Das würde bedeuten, dass das auch für die ConnectX-4 klappen könnte?

So oder so scheint die X710 am unproblematischsten zu sein. o_O
Wenn man stromsparen will, sollte man auf 10G Ethernet und mehr ganz einfach verzichten. Hardware wie Intel X710/Mellanox CX3/4/5/6/7 wurde nicht für hohe C-States oder allgemein das Erreichen von Stromsparzuständen entwickelt. Dementsprechend kann es auch wenn es laufen sollte, entsprechend verbugt sein.
 
1707771997146.png

Ist das nun gut oder schlecht bzgl. Verbrauch / C states?
Ist mein Microserver Gen8 mit TrueNAS aus der Signatur.
 
Ist das nun gut oder schlecht bzgl. Verbrauch / C states?
Ist mein Microserver Gen8 mit TrueNAS aus der Signatur.

Ich komme mit meinem TNS Server auf Max C3 … (trotz X710 NIC)

C7 ist schon ziemlich gut
Beitrag automatisch zusammengeführt:

Nur wo anstöpseln? :sneaky: Irgendwie finde ich keine des Preises werten Switche die sich z.B. so managen lassen wie die Plus von Netgear (und Konsorten, mehr aber auch nicht) und die mal 5x, mal 8x, 2.5Gb haben und einen 10Gb Fibre-SFP+ abkönnen.
Da würde ich mir auch gerne aussuchen, ob ich die mit oder ohne POE haben will und ggf. ob nicht einer davon doch 2x 10Gb haben sollte.
TP-LINK SG3210XHP
8x 2.5GBit POE
2x 10GBit SFP+
 
Zuletzt bearbeitet:
Wenn man stromsparen will, sollte man auf 10G Ethernet und mehr ganz einfach verzichten. Hardware wie Intel X710/Mellanox CX3/4/5/6/7 wurde nicht für hohe C-States oder allgemein das Erreichen von Stromsparzuständen entwickelt. Dementsprechend kann es auch wenn es laufen sollte, entsprechend verbugt sein.
Ja, das stimmt leider noch. Wobei der Stromverbrauch der Karte mich weniger stört als dass sie evtl. das ganze System einfach um einige Watt mehr verbrauchen lässt. 3 oder 5W Unterschied bei zwei Karten fallen nicht so ins Gewicht wie dann 20 oder 30W mehr Idle-verbrauch.
 
@craxity
An der Steckdose? Das wäre ein Wow. Wieviel macht das dann am Netzteil aus (?) o_O

@Haldi
Bingo. Wenn das Interesse auf 10 Seiten kommt, dann bin ich wohl doch nicht so seltsam :sneaky: Die Firmwares laufen über den Austausch von GoogleDrive Links? :-)

Und die ehemals Marktgiganten kriegen sowas nicht gesch... Als wenn die da alle verblödet wären, der einzige mit Verstand nur noch der Chinese wäre und man jetzt für brauchbare HW immer zuerst auf Alibaba suchen müsste. Un-glaub-lich :grrr: Warum nochmal kann Zyxel sowas nicht? Gibts da ein Statement von Netgear, daß es ihnen leid tut, aber alle ihre fähigen Leute sind nach Asien ausgewandert?

Weiß wer was das eigentlich für Teile sind? :coolblue:
 
Zuletzt bearbeitet:
@craxity
An der Steckdose? Das wäre ein Wow.
Ja, ich messe das ganze System. Da es ein sehr sparsames System mit weniger als 10W im idle ist, kann ich die Auswirkungen durch die Netzwerkkarte gut nachvollziehen.

Wieviel macht das dann am Netzteil aus (?) o_O
Ich verstehe die Frage bzw. deren Sinn nicht. Wenn ich 5W am Netzteil messe, sollten das ungefähr 4,5W durch die Netzwerkkarte selbst und 0,5W Verlust durch das Netzteil sein.

Wenn es jemanden interessiert, könnte ich mal ein paar Karten messen und vergleichen. Ich habe aktuell welche mit AQC107 und X550 für 10GBase-T und Mellanox für 10G, 25G und 40G da.
 
Mein Serverschrank-Verbrauch ist durch das Hinzufuegen einer X550-T2 RJ-45 um ca 7w gestiegen.
117w --> 125w.
(Beide Ports aktiv)

1707815401129.png
 
@craxity
Ich meinte an der Steckdose, sind es doch 5W mehr für 230V. Oder nicht? Die das Netzteil aus der Steckdose zieht. Klar. Primär relevant.
Ich fragte mich dabei wieviel Watt (12V+3.3V) die Karte/Karten dann aus dem Netzteil ziehen.

Sorry wenn das überhaupt nicht nachvollziehbar war. Du bist das aber natürlich keinem hier schuldig. Es war nur eine Frage, so in den Raum gestellt :sneaky:

@p4n0
Ja. Ich meine 10Gbit Kupfer zieht eh Strom wie Sau. Will ich ehrlich gesagt auch nicht haben. Wenn, dann nur LWL. Auch wenn ich damit am Anfang mehr aufpassen muss, das "dazuprimmeln" (legen) wäre für mich einfacher und das zieht sich auch spürbar weniger Strom rein. 10Gb-T ist für mich irgendwie nur ein Workaround.
 
Zuletzt bearbeitet:
So schlimm ist es nicht. Der Unterschied zu Fiber ist nicht so groß.
Ich hab das mal samt realen einzelnen Messungen durchrechnen müssen :sneaky: Wenn man ALLE Faktoren zusammen nimmt (also auch Wärmeentwicklung in den Nodes mit jeweils 2 aktiven 10Gb und damit auch Kühlung bzw. wie die Ventis rennen müssen, die Last auf den Netzteilen, die Klima usw. usw. usw.) sind wir bei 10Gb alles in Kupfer vs. alles in LWL, bei +8% (Kupfer) mehr kWh gewesen ("pro Raum")
Nur als Info. Kein pro/contra.
 
Zuletzt bearbeitet:
Ich fragte mich dabei wieviel Watt (12V+3.3V) die Karte/Karten dann aus dem Netzteil ziehen.
da kommt dann die individuelle Effizienz der Netzteile bei x% Last zum tragen.
Je nach Last kann das auch ganz extrem blöd werden. So ein 80plus Gold 350W NT kann bei Last von 20W echt mies wegkommen
Muss man halt wirklich gut dimensionieren für den jeweiligen Fall, so dass Vollast und Idle gut und effizient abgedeckt sind.
 
Zuletzt bearbeitet:
Um die 2000 kWh/Jahr.
 
Und die ehemals Marktgiganten kriegen sowas nicht gesch... Als wenn die da alle verblödet wären, der einzige mit Verstand nur noch der Chinese wäre und man jetzt für brauchbare HW immer zuerst auf Alibaba suchen müsste. Un-glaub-lich :grrr: Warum nochmal kann Zyxel sowas nicht? Gibts da ein Statement von Netgear, daß es ihnen leid tut, aber alle ihre fähigen Leute sind nach Asien ausgewandert?
Wobei ich der Meinung war irgendwo gelesen zu haben das die ganzen Aliexpress Switches ursprünglich das Design von dem QNAP switch geklaut haben.
 
@Haldi
Hmm. Amazon "de/-/en/" lass ich bei uns blocken. Ich hab schon vergessen warum...

Ich hab hier schon auf so ein Review von 1Gbit Switches verlinkt, um zu zeigen was ich meinte, und die waren auch HW-mäßig NICHT alle 1zu1 gleich. Das Design von Qnap sollte die restlichen Verdächtigen also nicht davon abhalten was sinnvolles zu bauen. (auch wenn die Chinesen Qnap kopiert haben).
 
Zuletzt bearbeitet:

Wenn man vom Preis absieht, währe das nicht die schnellste Option mit 2x Raid 10 für einen viel viel Personen Netzwerk"plättchen" bis 32 TB gespiegelt ?? Die IOPS sind denen von U2/U3 auch deutlich überlegen beim schreiben wie lesen

Bin Mir allerdings unsicher ob da noch Pcie 4.0 x8 reicht oder man den einzigen (bislang) SAS, U2/U3 Raidcontroler einrechnen müste mit 16 Lances in 4,0 damit jede Pcie 4.0 Platte mit vollen 4 Lances laufen kann

 
Du willst diesen 9670W aber hoffentlich nicht für ZFS einsetzen?
Nur der Sicherheit halber nachgefragt, Denn dafür ist der als Hardware-raidcontroller mit Cache onboard nicht geeignet.
 
Zuletzt bearbeitet:
Und dazu kommt dass das ganze „Tri-Mode“ Geraffel von Broadcom eine einzige Kundenverarsche ist. Du verlierst alle Vorteile von NVME da die Dinger die SSDs als SAS emulieren. Latenz geht deutlich nach oben, IOPs deutlich nach unten. Und das für das Geld. 😤
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh