ASUS präsentiert das X99-E-10G WS mit 2x 10-GBit-Ethernet

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/logos-2015/asus.gif" alt="asus" style="margin: 10px; float: left;" />Mit dem<a href="index.php/artikel/hardware/mainboards/33768-asus-x99-e-ws-im-test.html"> X99-E WS</a> hat ASUS bereits ein Workstation-Mainboard mit X99-Chipsatz im Angebot, ergänzt dieses aber nun um das X99-E-10G WS, um auch den Bedarf nach einem solchen Mainboard mit 10-GBit-Ethernet decken zu können. Dieser scheint zweifelsohne vorhanden zu sein, denn bereits nach einer ersten Vorschau zur Computex zeigte sich großes Interesse an dem Board.</p>
<p>Das ASUS X99-E-10G WS verwendet den Sockel 2011-v3 im Zusammenspiel mit dem X99-Chipsatz und ist damit zu allen Core-i7- und Xeon-Prozessoren mit diesem Sockel kompatibel. An DDR4-Speicher kann das Board mit bis zu 128 GB DDR4-3333 bestückt...<br /><br /><a href="/index.php/news/hardware/mainboards/40210-asus-praesentiert-das-x99-e-10g-ws-mit-2x-10-gbit-ethernet.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. Ist das Board sicherlich nicht das klassische Heimanwender-Board.
2. Gibt es schon 10-GBit-Switches mit 8 Ports für "nur" noch ein paar hundert Euro. Das ist im Vergleich zu ein paar Monaten zuvor deutlich günstiger.
 
Nur 100€ mehr glaube ich nicht. Ich hatte als ich mein X99 E WS gekauft habe ja auch das entsprechende Asrock mit 10G lan im Auge, ich rechne eher mit ~750€ und mehr.


Gesendet von iPhone mit Tapatalk
 
Finde ich auch sehr interessant als GPU-Render Workstation-Cluster.
3x so ein System mit bis zu 7 Grafikkarten (unter Wasser). An die Haupt-Workstation dann zwei Nodes mit direkter Kabel-Verbinung ankoppeln. GBit Ethernet an der Haupt-Workstation dann einfach per USB-Ethernet Adapter oder auf eine Grafikkarte verzichten und PCI-E Karte :)
 
Finde ich auch sehr interessant als GPU-Render Workstation-Cluster.
3x so ein System mit bis zu 7 Grafikkarten (unter Wasser). An die Haupt-Workstation dann zwei Nodes mit direkter Kabel-Verbinung ankoppeln. GBit Ethernet an der Haupt-Workstation dann einfach per USB-Ethernet Adapter oder auf eine Grafikkarte verzichten und PCI-E Karte :)

1. 7 Grafikkarten verursacht auch auf dem Board Probleme.
2. Für den Zweck würde man wohl zu "echten" Dual-Socket Xeon Server-Boards greifen mit 16 Ram Slots und mehr PCI-E Lanes.
3. Und wieso dann an der Haupt Workstation nur Gbit? Ergäbe jetzt nicht wirklich so viel Sinn was du da vorschlägst, das Board richtet sich glaube eher an Leute die etwas weniger Rechenpower brauchen, aber trotzdem ne Menge davon. Für Cluster
 
Hab schon Setups mit 7 GPUs auf Asus WS Boards gesehen. Probleme gab es dort keine soweit ich weiß, wenn das BIOS passend eingestellt war.
An der haupt-Workstation zusätzlich Gbit, weil die beiden 10Gbit Anschlüsse ja durch die Verbindung zu den Nodes belegt sind. So würde ich es mir zumindest aktuell hier hin stellen wenn ich das Budget übrig hätte. Mir würde Gbit für alles andere dicke genügen (Internet, NAS)
 
Das X99E-WS von Asus ist einfach sexy as fuck.

10G können auch für den ein oder anderen Heimanwender sicher interessant sein, wenn man eine schickes NAS mit entsprechendem Netzwerk sein Eigen nennt.
 
Hab schon Setups mit 7 GPUs auf Asus WS Boards gesehen. Probleme gab es dort keine soweit ich weiß, wenn das BIOS passend eingestellt war.
An der haupt-Workstation zusätzlich Gbit, weil die beiden 10Gbit Anschlüsse ja durch die Verbindung zu den Nodes belegt sind. So würde ich es mir zumindest aktuell hier hin stellen wenn ich das Budget übrig hätte. Mir würde Gbit für alles andere dicke genügen (Internet, NAS)

Glaube Linus "Techtips" hatte mal ein Asus WS Board mit 7 R9 Nanos und WaKü als Projekt gebaut. Sein Kommentar dazu war sinngemäß: "Ich und der Support von Asus sind vermutlich die einzigen die jemals probiert haben 7 GPUs auf diesem Motherboard zu nutzen". Und ohne Custom BIOS und massive Probleme ging es dort auch nicht meine ich. Später mit nem "echten" Server-Board gingen dann sogar 10 GPUs, weil eben dafür vorgesehen. Klar hat das X99 E-WS die PLX Switches und all den Spaß (ich liebe meins ja dafür), aber für mehr als Quad GPU wird da auch nicht zertifiziert soweit ich weiß, weil die Zielgruppe zwar Multi GPU-Workstations sind, aber nunmal keine Setups die normalerweise in Server-Schränken verschwinden a´la Multi GPU Render Workstations mit mehr als 4 Grafikkarten. Und auf den Boards hast du dann auch 10 Gbit Ports.
Was anderes wäre dass man bei dem Budget und der Komplexität des Setups vielleicht sogar gerne dezidierte PCI-E Ethernet Controller hätte einfach aus dem Grund dass diese die Wartung vereinfachen bei Problemen mit den NICs und z.B. Intel X540 Karten jederzeit leicht zu beschaffen sind. Aber ich hab keine Erfahrungen mit mehr als SLI auf dem X99 E-WS. Reicht mit zusätzlichem Thunderbolt und Raidcontroller aber auch schon um alles vollzustopfen.
 
Zuletzt bearbeitet:
Finde ich auch sehr interessant als GPU-Render Workstation-Cluster.
3x so ein System mit bis zu 7 Grafikkarten (unter Wasser). An die Haupt-Workstation dann zwei Nodes mit direkter Kabel-Verbinung ankoppeln. GBit Ethernet an der Haupt-Workstation dann einfach per USB-Ethernet Adapter oder auf eine Grafikkarte verzichten und PCI-E Karte :)

Für den Zweck gibt es GPU-Extender mit bis zu PCIe 3.0 16x-Anbindung
 
Zur Vervollständigung:
tom glimps | 7 GPU workstation hitting close to 1000 in OctaneBench

:)

Edit: Leider laufen die mit vielen Programmen alles andere als rund. Ist mal wieder ein Fall von: Kommt drauf an, was du vor hast.

Sag ich doch, Probleme hier, Probleme da. Das ist zum Benchen mal toll und wenn das Setup in deiner Nische funktioniert - perfekt - aber für WORKstations nicht wirklich praktikabel meiner Ansicht nach. Tüfteln macht ne zeitlang Spaß, aber wenn man einfach nur produktiv sein will ist so ein Setup vielleicht nicht das richtige. Bei den Workloads entweder Rechenkapazität mieten oder nen richtigen Server aufbauen wäre meine Devise.
 
Zuletzt bearbeitet:
Ja, wie gesagt - kommt drauf an. Für mich als Freelancer ist so ein Setup deutlich attraktiver als ein Server oder gemietete Rechener / Renderfarm. Mir tun ein paar Stunden Bastelei nicht weh, wenn ich dadurch einiges an Geld sparen kann. Bei größeren Unternehmen oder Technik-Unaffinen Leuten sieht das natürlich wieder anders aus..
Mein Edit bezog sich auf die GPU-Expander.
 
Ja, wie gesagt - kommt drauf an. Für mich als Freelancer ist so ein Setup deutlich attraktiver als ein Server oder gemietete Rechener / Renderfarm. Mir tun ein paar Stunden Bastelei nicht weh, wenn ich dadurch einiges an Geld sparen kann. Bei größeren Unternehmen oder Technik-Unaffinen Leuten sieht das natürlich wieder anders aus..
Mein Edit bezog sich auf die GPU-Expander.

Ja, aber braucht man als Freelancer mehr als 4 High End GPUs? Ich glaube einfach nicht dass solche Setups, selbst für Freelancer mit die mit Bastelei kein Problem haben auf Dauer rechnen.

Edit: Ich sehe auch gerade die Ram Slots sind noch näher an den PCIE_1 Slot gewandert bei der 10G Version, eher suboptimal. Ansonsten sind es eher die kleinen Verbesserungen die mich interessieren, aber der Preis wird sowieso over the top sein nehme ich an, von daher..
 
Zuletzt bearbeitet:
Wenn du dir zum Beispiel die aktuellen Preise für die GTX 980Ti anschaust - etwa 400€ zzgl ~100€ für einen Wasserkühler kann man durchaus in Versuchung kommen. Die GTX980Ti ist aktuell im Octane-Render zum Beispiel ähnlich schnell wie auch die GTX 1080.

Ich habe mir erst Ende letzter Woche 3 Karten bestellt die sich zu den vorhandenen zwei gesellen sollen. Ist dann mehr als eine Geschwindigkeitsverdopplung für grade mal 1500€. Das kann sich durchaus rechnen. Ich hatte schon öfter Projekte die 2-3 Tage gerendert haben. Auslagern war nicht möglich, da die Datenmengen einfach zu groß waren und das bei dem NDA auch schwierig geworden wäre. Solche Jobs sind jetzt in 1-2 Tagen fertig. Das kann einem bei mehreren Korrekturschleifen, spontanen Kundenwünschen etc. schon sehr entgegen kommen.
 
Und welche Switche für Zuhause schaffen 10GBit?
Wozu braucht man da einen Switch? Man muss ja nicht alles auf 10GbE bringen, es reicht wenn man das NAS/den Heimserver dann direkt mit dem Rechner verbindet und außerdem wird 10GbE bald günstiger und den Heimanwenderbereich erreichen, dann werden auch die Switches billiger:
Marvell ist auch nicht irgendeine Firma, die sind bei den Chips für Switches ganz schön groß.

So teuer muss der ganze Kram auch nicht mehr sein, Intels Broadell-DE, also Pentium-D und Xeon-D SoCs haben alle zwei 10GbE Ports und der Dual Core Pentium-D 1507 kostet gerade mal 103$, mit seinen beiden 10GbE Ports. AMDs ARM basierte Opterons und auch die neuen Zen basierten Server CPUs haben auch alle 10GbE Ports, die Technik ist also da und diese statt der alten Gigabit NICs in die Chipsätze zu packen, kostet dann auch nicht mehr wirklich so viel mehr, vielleicht noch ein paar mm² Diefläche. Interessanterweise vermeldet auch HWInfo64 beim C236M einen 10Gbit Ethernet Controller der aber nur mit maximal 1Gbit laufen darf, nur ein Bug oder haben die Skylake Chipsätze schon den 10Gbit Controller verbaut, dürfen den aber noch nicht wirklich nutzen?
1. Ist das Board sicherlich nicht das klassische Heimanwender-Board.
Das dürfte schon der Preis verhindern.
2. Gibt es schon 10-GBit-Switches mit 8 Ports für "nur" noch ein paar hundert Euro. Das ist im Vergleich zu ein paar Monaten zuvor deutlich günstiger.
Die Preise fallen, die wie viele Leute haben heute NAS oder Heimserver mit RAIDs die viel mehr leisten als das Netzwerk schaffen kann? Wenn sich da 10GbE durchsetzt, werden auch einige ihre Netzwerke aufrüsten und damit lässt sich dann wieder Geld verdienen, bei den aktuellen Gigabit Switches dürfte das kaum noch möglich sein.

Wenn ich mir meinen Rechner von hinten ansehen, so sind die beiden Gigabit Ports das lahmste was ASRock dem Z97 Extreme 6 da verpasst hat, vom PS/2 Port mal abgesehen, was schon ganz schön traurig ist.
 
kann den 10Base-T Hype gar nicht verstehen.

teuer, grausige Verbrauchswerte,...

ne billige used Mellanox SFP+ (25-40€) single Port rein und entweder bei 2 Stellen direkt (nur Kabel) oder bis zu 4 Stellen per <350€ Switch verschalten

Finsar optische Module gibts zu 20€ oder wenn 5 Meter reichen DAC Kabel um die 20-30€

... geschrieben von unterwegs (Handy)
 
@pumuckel

Gibt es die Mellanox nicht auch als Dual Port ?
Somit könnte man auch mehrere Nodes im Circle verkabeln und auf den einzelnen Rechnern routen setzen um die IP´s zu erreichen.
Mit der Technik habe ich mal 4 Server ohne 10G Switch als Proxmox Server am laufen gehabt :)
 
@pumuckel

Gibt es die Mellanox nicht auch als Dual Port ?
Somit könnte man auch mehrere Nodes im Circle verkabeln und auf den einzelnen Rechnern routen setzen um die IP´s zu erreichen.
Mit der Technik habe ich mal 4 Server ohne 10G Switch als Proxmox Server am laufen gehabt :)

grabschänder :)
 
Gibt es die Mellanox nicht auch als Dual Port?
Gibt es, sind aber seltener richtig "billig" zu bekommen. In der Bucht findet man hin und wieder auch QSFP Modelle, such z.B. mal nach MHRH2A-XSR (OEM, z.B. HP 518001-001). Eventuell schau dir parallel auch gleich mal IBM 46M2201 an. Das ganze passt aber besser in einen eigenen Thread in einem anderen Unterforum ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh