[Sammelthread] 10Gbit Homenetzwerk

Ui die sind ja günstig. Danke dir.

Ja die DA hab ich. Sind aber nur 2.

Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe auch keine Langzeiterfahrung mit den Teilen, aber im ca. zweistündigen Versuchsaufbau lief alles auf Anhieb tadellos.
 
Ich habe nochmal die Specs vom X99 und Z97 durchgelesen.
In beiden steht der gleiche Text zum AMT/Manageability:

Intel® Active Management Technology (Intel® AMT)
Intel® AMT is a fundamental component of Intel® vPro™ technology. Intel AMT is a set
of advanced manageability features developed as a direct result of IT customer
feedBack gained through Intel market research. With the advent of powerful tools like
the Intel System Defense Utility, the extensive feature set of Intel AMT easily integrates
into any network environment. See Section 1.3 for details on SKU feature availability.
Manageability
In addition to Intel® AMT, the PCH integrates several functions designed to manage the
system and lower the total cost of ownership (TCO) of the system. These system
management functions are designed to report errors, diagnose the system, and recover
from system lockups without the aid of an external microcontroller.
• TCO Timer. The PCH’s integrated programmable TCO timer is used to detect
system locks. The first expiration of the timer generates an SMI# that the system
can use to recover from a software lock. The second expiration of the timer causes
a system reset to recover from a hardware lock.
• Processor Present Indicator. The PCH looks for the processor to fetch the first
instruction after reset. If the processor does not fetch the first instruction, the PCH
will reboot the system.
• ECC Error Reporting. When detecting an ECC error, the host controller has the
ability to send one of several messages to the PCH. The host controller can instruct
the PCH to generate either an SMI#, NMI, SERR#, or TCO interrupt.
"

Insofern ist es wirklich seltsam, dass es beim Z97 nicht geht, wenn ein Xeon eingesetzt ist. Ich frage mal den Asrock-Support direkt...
 
Es ist doch danz einfach:
Sockel 115x:
Consumer- oder Business–Chipsatz, kein ECC, egal welche CPU.
Server-Chipsatz, ECC mit Celeron, Pentium, i3 oder Xeon, nicht mit i5 oder i7.

Sockel 2011-3:
ECC in jedem Fall nur mit Xeons, mit Server-Chipsatz dann immer, mit x99 abhängig vom Board-Hersteller.

Gesendet von meinem Nexus 7 mit der Hardwareluxx App
 
Mich treibt das Thema auch um. Für mich kommt aber aus praktischen Gründen nur eine kupferbasierte bzw. RJ45-Lösung in Betracht (habe im Haus bereits überall CAT7 liegen).

Hat jemand eventuell bereits schon Erfahrungen mit folgender Netzwerkkarte gemacht? Scheint mir recht preiswert:

Delock 89378

Oder gibt es sonst irgendwelche preisgünstigen Alternativen?

Danke und Gruß
 
@besterino bevor du so einen Mist kaufst. Schieß dir bei Ebay eine Intelkarte die kriegt man auch <=200€.
 
Ich guck ja schon immer mal wieder nach den Intel NICs. Ich bräuchte halt min. 2 und ich seh bisher immer nur 300+ für eine.

Und für den reinen "will haben Faktor" ohne echten Leidensdruck schwebt mir eher 300 für 2 zusammen vor... ;-)

Na mal schauen.
 
Hat nicht nur was mit Prunkfaktor zu tun.Für die gibts halt alles an Treibern.ESXI VMWare Unterstützüng etc..
 
Das ist wieder so eine Karte mit Chipsatz von Tehuti: Tehuti Networks
Hatten wir neulich schon mal eine, meine ich. Aber keine Ahnung was genau davon zu halten ist.

Wenn du experimentierfreudig bist und es dir nichts ausmacht das Ding ggf. zurück zu geben, dann hol dir mal welche. Treiber gibt es auf der Webseite für Windows, Linux, ESX und OS X, allerdings muss man sich dafür auf der Webseite registrieren und welche Versionen genau unterstützt sind steht da vorher nicht.

In den FAQs steht allerdings:
What operating systems are supported?
- Linux kernels 2.6.26 – 3.19.0 32/64 bit
- Windows 7 32/64 bit
- Windows 8/8.1 32/64 bit
- Windows 2008R2 64 bit
- Windows 2012/2012R2 64 bit
- VMware ESXi 5.1/5.5

Von OS X ist da keine Rede mehr, aber das sind dann so ziemlich alle aktuellen Betriebssysteme bzw. Linux Kernel (exkl. brandaktuelle 4.x, aber inkl. diverser LTS 3.x), außer ESX 6.0.
 
Wäre halt wenn etwas für die Clients, die bei mir alle mit Windows 7, 8.1 oder 10Preview laufen. Dafür sollte es ja aufgrund Mainstream-Faktor Treiber geben.

Schauen wir mal, bei ebay & Co. vielleicht mal günstig eine Intel 540x (am besten T2) für den Server schießen und dann vielleicht mal eine von den Billos antesten.

- - - Updated - - -

Sorry, wenn ich hier so rumspamme, aber ich kenn mich einfach mit 10gb noch nicht gut genug aus. Gibt es einen Grund, warum die Intel AT2 NICs so viel günstiger als die x540 sind? Funktionieren die nicht in jedem Mainboard oder brauchen die sonst irgendwas spezielles (z.B. Switch zwingend erforderlich und PC-zu-PC geht nicht)? Die AT2 bekommt man ja unter 50 Schleifen!
 
Die AT2 sind deutlich älter, sind von ca. 2009. Der darauf verwendete Controller ist ein 82598EB von ~2007. Die sind nicht ganz so effizient und benötigen mehr Energie. Und weil die Hardware so alt ist werden auch nicht unbedingt alle aktuellen OS unterstützt.
 
Jo... die offizielle Treiberunterstützung von Intel scheint mit win7 / Server2008 ein Ende gefunden zu haben. Win 8 sollte ja mit den Treibern noch grds. laufen. Win 10... tjo, das wird dann langsam Roulette.

Vielleicht versuch' ich's trotzdem mal mit denen bei den Clients (sind eh noch Windows 7). Für meinen Server hätte ich gerne aber was aktuelles... ;-)

Weiß jemand, ob die HP-530T-Dinger auch in anderen Maschinen (Konkret: Dell T20) funktionieren?
 
HP verdongelt seine Hardware nur selten, die 530T sollte eine normale Broadcom 10G NIC mit HP Logo sein, that's it. Die wird vermutlich in so ziemlich jedem System laufen das grundsätzlich dafür geeignet ist, d.h. einen entsprechenden Slot hat und mit den Option ROMs der PCIe Karten klar kommt. Ein Dell T20 sollte dazu gehören.
 
Ich wäre da eher vorsichtig, da die Broadcom (offiziell) keine Desktop-Windows-Versionen unterstützen. Ich hatte in einem kurzen Versuch es auch nicht geschafft, den Server 2008R2-Treiber unter Win7 zu installieren. Allerdings ging es um eine Setupinstallation für ISCSI-boot.
Und das ging jedenfalls nicht.
Ich habe die Dell-Version von den Karten.
 
Naja, habe jetzt mal 2 von den Intel AT2 geschossen und werde mal testen, ob/wie ich die unter den verschiedenen Windows Versionen zum Laufen bekomme. Konkret werde ich es mal versuchen mit:

Windows 7 Ultimate
Hyper-V Server Technical Preview (Build 9841, also v1, nicht v2)
Windows 10 Technical Preview (Build 10130)

Besonders interessant sind für mich die letzten beiden, da ich mich mittelfristig eigentlich von Win7 verabschieden will. Wenn jemand konkret mit den NICs und Windows 10 schon Erfahrungen gesammelt hat, gerne her damit.
 
Na denn. Versuch macht kluch oder so.

Zunächst mal die erste Intel AT2 10GB in meinem alten "Test-PC" installiert. Auf dem läuft die Windows Server Technical Preview 2 (Build 10074). Intel AT2 rein, online nach Treiber suchen, Karte erkannt. Verbindung zu meinem 1Gbit Switch funzt. Soweit so gut.

Also zweite Intel AT2 10GB dann mal in meinen T20 gesteckt. Bisherige Intel 350-T4 raus, "neue" NIC rein. Bootet durch. Hmm, wie installiere ich denn hier in der "Core Version" über die "Online-Suche" Treiber? Und warum startet keine VM mehr? Habe extra vor dem Umbau alle an der alten NIC hängenden virt. Switche aus den VMs entfernt und dann insgesamt gelöscht. Manuelle Startversuche scheitern trotz guten Zuredens hartnäckig ("...because hypervisor is not running.").

Toll, offenbar habe ich mir mit dem simplen Wechsel der Netzwerkkarte meine Hyper-V Server-Installation (Hyper-V Preview 9841) zerschossen.

Immerhin: die LEDs der NICs leuchten mit dem Patchkabel "grün", so dass sie offenbar 10GB miteinander sprechen würden - wenn denn ich den T20 wieder zum Laufen bekomme. ;-) Das mach' ich dann mal morgen weiter...

UPDATE: T20 ist halbwegs wieder hergestellt. Mit der Direktverbindung klappt das jetzt schonmal prima! Ich bekomme mit CDMark so 300-400MB/s auf meinem ZFS-Share - dat reischt mir... :-D
 
Zuletzt bearbeitet:
Ich hab da mal drüber nachgedacht, als das auf den Markt kam. Ich glaube Asus hat das als Basis für Server im Big Data Bereich angepriesen.

Zwei Probleme:

1. Die 10G Ports sind als SFP ausgeführt, während sich viel jedoch jetzt auf RJ45 konzentriert. Gerade für zu Hause ist das eigentlich zu bevorzugen, SFP macht nur Sinn, wenn man schon entsprechende Glas Infrastruktur hat.
2. Weil es SFP ist braucht man noch entsprechende Transceiver, die ggf. nochmal heftig zu Buche schlagen, je nach dem welche funktionieren. Daher kommen zu den 450 Euro für das Board ggf. noch erhebliche Kosten dazu, bevor man wirklich 10G machen kann.

Deutlich besser finde ich die Boards von Supermicro mit 10G onboard, z.B. http://geizhals.de/supermicro-x9srh-7tf-retail-mbd-x9srh-7tf-o-a874999.html?hloc=de
Ist allerdings noch 2011, und nicht 2011-3.

Oder hier: http://geizhals.de/supermicro-x10dri-t-retail-mbd-x10dri-t-o-a1164334.html?hloc=de
2011-3 und direkt ein DP Board, allerdings ohne SAS HBA.

Und hier nochmal ins ATX Format gepresst: http://geizhals.de/supermicro-x10drl-it-retail-mbd-x10drl-it-o-a1272309.html?hloc=de
 
Die Transceiver kosten 20€ das Stück. 10GBE über Kupfer hat, so wie ich das mitbekommen habe, derzeit noch den Nachteil das es massiv mehr Strom firsst, sprich Abwärme, und die Switches hierfür nicht bei 200€, sondern bei 700€ anfangen. Und das relativiert die Kosten für die Transceiver dann recht flott.
2011-3 ist für meine Zwecke auch schlichtweg überdimensioniert.
 
Spricht du von 200EUR Switches, die "nen" 10GBE Uplink haben?
Der billige Dlink hat davon 2. Einer mit 4 kostet ca 380€. Ich hätte bedarf für 3 Geräte die mit 10GBE angeschlossen werden sollen. Switches mit 10GBE RJ54 kenne ich nur zwei, einen von Dlink und einen von Netgear, beide sehr viel teurer.
 
Es ist ja nicht so, dass es auch SFP+-Module mit RJ45 gäbe. Ich würde immer "modular bleiben", vor allem, da mittlerweile für die gängigsten Karten (siehe auch: Intel) günstige Module verfügbar sind.

Wir haben in den Arbeit noch rudelweise HP-Switche. Klar sind die nicht der Oberkracher, aber dafür halt billig und einfach mit SFP+ auszustatten. Sowas muss man doch auch gebraucht kaufen können?
 
Ui, gute Frage. Wir haben einen Händler, bei dem wir "Rohlinge" kaufen und dann entsprechend der eingesetzten Hardware flashen können. Wie hieß denn der Laden doch gleich... ich schau Montag mal nach.

Aber sowas wird es doch direkt zu kaufen geben?
 
Ich habe erst kürzlich SFP Module mit TP45 gekauft.
Ich hätte gerne SFP+ -> 10 GBase-T gehabt. Das gibt es aber leider nicht.
Ursache ist wohl der noch zu hohe Stromverbrauch den ein derartiges Modul hätte.
 
SFP+ RJ45 Tranciever gibt es leider m.W.n. nicht!
soweit ich weiss hat das u.a. folgende Ursachen:

1. Stromverbrauch RJ45 ca. 4-5 Watt/port <> SFP+ ca. 0.4 - 0.6 Watt/port (daher ist es techn. nicht möglich, da ein Cu Modul ja ca. das 10fache an Leistung benötigt als ein "normales" SFP+ Modul
2. unterschiedliche Latenzzeiten, ich weiss zwar nicht mehr die exakten werte, aber Cu war mind. Faktor 10 schlechter als SFP+

Im Endeffekt rechnet sich 10G Cu dann, wenn:
TOR (Top of the Rack) Einsatz bei hoher Serverdichte, da hier der Stromerbrauch "relativ" nebensächlich ist

Für Heimanwender ist 10G Cu interessant, da "vorhandene" Cu Verkabelung mitbenutzt werden kann, oder wer kennt denn den Biegeradius eines OM1 LWL ? ;) da ist Cu Kabel einfacher zu verlegen....
Zudem scheut der Heimanwender unbekannte Sachen wie SFP/SFP+ Module, da er diese Dinge einfach nicht kennt ! UND ! SFP+ Module sind für mich Verbrauchsmaterial, welches eine begrenzte Lebensdauer hat, kein Heimanwender will hier evtl. "zusatzinvestitionen" haben.
Auch ist den wenigsten Anwendern der Unterschied zw. SMF und MMF bewusst...

Also ist alles in allem für Otto-Normalo 10G Cu interessant, weil er das schon kennt...
 
Da kann ich Snoopy78 als Normalo-heimuser nur zustimmen. Das einzig doofe sind die teuren Switches.
 
Mir bringt Infiniband wegen FreeNAS leider nix

Deshalb kommen meine beiden Infiniband Karten und das 10 Meter Kabel in die Tonne
 
Naja LWL kann man auch schon sehr gut verlegen, klar kannst du keine 90-GRad-Winkel legen, aber das sollte man mit Kupfer ja auch nicht unbedingt machen.
Und wer verlegt denn noch OM1?

Das Problem an LWL ist halt das Splicen, entweder hat man jemand, der das einfach kann oder man wird halt arm. Und Überall Patchkabel legen ist auch nur mäßig toll.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh