In der Redaktion eingetroffen: AMD Ryzen Threadripper Pro und ASUS Pro WS WRX80E-SAGE SE WIFI

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
ryzen-threadripper-3995wx.jpg
Gleich zwei High-End-Komponenten haben uns noch vor dem Wochenende erreicht und da es sich jeweils um ein besonderes Stück Hardware handelt, wollen wir sie an dieser Stelle schon einmal vorstellen, bevor wir uns an den Test machen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schon schöne Hardware :) Wenn man sie denn auch nutzt, was ich definitiv nie würde ;)
 
Das Ding ist einfach sehr stilvoll gestaltet, eine Sache die heute mit dem ganzen RGB und Gaming-Müll leider total abhanden gekommen ist.

Schon schöne Hardware :) Wenn man sie denn auch nutzt, was ich definitiv nie würde ;)
Weil du für richtig anspruchvolle Arbeit den Apple M1 mit 8gb RAM nutzt? ;)
 
Das wäre ein tolles Upgrade für meinen TS-Server, falls ihr für die Teile keine Verwendung habt ;)
 
Da bin ich sehr gespannt. Ein TR Set werde ich irgendwann auch noch brauchen, aber die Pro Version wird es bei den Preisen wohl erstmal nicht werden.
 
Gibt es eigentlich irgendwelche offiziellen Langzeittests zu der "Pro-Hardware" von ASUS? Ich habe hier bei meinem alten PC-Schrott noch zwei Mainboards von ASUS rumfahren die nach etwa zweieinhalb Jahren den Geist aufgaben. Bei beiden hatte ich Probleme mit dem Speicher. Beim P6T WS Professional fing auf einmal Windows an kurz einzufrieren und ich hatte danach nur noch 8 oder 16 GB Ram anstelle der 24 GB. Bei dem anderen, dessen Namen ich gerade nicht weis, war der Southbridge-Kühler mit einer einzelnen Drahtbrücke befestigt bei der sich eine Lötstelle mit der Zeit gelöst hat. Ich werde meinen Threadripper Pro 3975WX wohl mit dem Supermicro Mainboard betreiben.
 
Das Ding ist einfach sehr stilvoll gestaltet, eine Sache die heute mit dem ganzen RGB und Gaming-Müll leider total abhanden gekommen ist.


Weil du für richtig anspruchvolle Arbeit den Apple M1 mit 8gb RAM nutzt? ;)
Ne, aber mein 5800x mit 32gb RAM und 3080 reicht für den Alltag völlig 😉
Aber für Profis ist das natürlich was anderes
 
Gibt es eigentlich irgendwelche offiziellen Langzeittests zu der "Pro-Hardware" von ASUS? Ich habe hier bei meinem alten PC-Schrott noch zwei Mainboards von ASUS rumfahren die nach etwa zweieinhalb Jahren den Geist aufgaben. Bei beiden hatte ich Probleme mit dem Speicher. Beim P6T WS Professional fing auf einmal Windows an kurz einzufrieren und ich hatte danach nur noch 8 oder 16 GB Ram anstelle der 24 GB. Bei dem anderen, dessen Namen ich gerade nicht weis, war der Southbridge-Kühler mit einer einzelnen Drahtbrücke befestigt bei der sich eine Lötstelle mit der Zeit gelöst hat. Ich werde meinen Threadripper Pro 3975WX wohl mit dem Supermicro Mainboard betreiben.
Mein KNPA-U16 läuft seit über 2 Jahren 24/7, ohne Probleme.
 
Hm mein P5Q Deluxe wird jetzt 13 Jahre. Hat keine Lust aufzugeben.
 
Wie viele Kerne er hat, dazu kann ich im Text nix finden oder bin ich blind?
 
Danke:-)

Aber das kann man auch in 2 Sekunden rausfinden.
Hat mich eher gewundert, dass es in so einer News nicht erwähnt wird, hätte ich vielleicht deutlicher zum Ausdruck bringen können.
 
Zuletzt bearbeitet:
Gibt es eigentlich irgendwelche offiziellen Langzeittests zu der "Pro-Hardware" von ASUS?
Mein P6T7 WS läuft jetzt auch schon über 10 Jahre. Es gibt nur ein Problem mit dem Board. Wenn es zu kalt wird, mag es nicht die niedrige Drehzahl des CPU Kühlers. Es denkt dann immer das er ausgefallen ist.

Ich hoffe mal das es zu einer Gegenüberstellung von TR Pro zu Epyc 7002/7003 kommt. Eventuell mit 16 Kernen auch mit Ryzen.
Aber sehr wahrscheinlich, wird TR Pro schon wegen des Preises und wegen der Größe der Mainboards verlieren.

Warten wir es aber ab.
 
Man man man
wieder mal so ein Mistding mit WLan dabei . OHNe WLan wäre es ok ,man kann zusätzliche USB Ports dazugeben oder auch 1-2 weitere Lan Ports anbinden aber nicht den WLan mist in Abhängigkeit bringen. Was mich auch ein klein wenig stört sind die Abstände zwischen den PCIe Steckplätzen. Da ist nicht viel Platz wenn man Grafikkarten hat die über eine gewisse Breite verfügen. Aber schön zu sehen das man Problem los bei X16 anbindung (PCIe) mindestens 4 Stück GK einsetzen kann. SAS und SATA als Anbindung finde ich Ok.
 
Die Abstände sind grösser ja. Doppelt so gross, nehm ich an. Dafür hat es weniger Slots.

Habe noch nie ein Board mit 7x 16x PCIe gesehen, wo die Abstände grösser wären. Und sonst vielleicht ein Miner Brett, das geht dann aber nicht mehr in ein normales Gehäuse... Also in der Liga wo das Board spielt, sind die Abstände durchaus normiert, falls wir uns darauf einigen können?
 
Die Abstände sind grösser ja. Doppelt so gross, nehm ich an. Dafür hat es weniger Slots.

Die beiden Intel CPUs haben je 48 PCIe Lanes, die teilen sich auf je 3×16 Slots auf, und bei der 2. CPU wird der DMI Port als PCIe ×4 Verbindung nach außen auf den 7. Slot geführt. Der Rest hängt am DMI Port der 1. CPU. Mehr gibt die Plattform halt nicht her. Das Board verfügt über keinerlei PCI-Switch, was bei den meisten Gamer-Boards verwendet wird, nur in einem Server bzw. Workstation will man das nicht sehen.

Habe noch nie ein Board mit 7x 16x PCIe gesehen, wo die Abstände grösser wären. Und sonst vielleicht ein Miner Brett, das geht dann aber nicht mehr in ein normales Gehäuse... Also in der Liga wo das Board spielt, sind die Abstände durchaus normiert, falls wir uns darauf einigen können?
Es gibt AMD-Server Boards mit größeren Abständen bzw. gleich mit passenden PCI ×16 Connectoren, um die Slots flexibler im System anlegen zu können. Für 7×16 Slots braucht man entweder ein Quadsocket System von Intel oder eben ein AMD-EPYC/Threadripper Pro Board.
Beitrag automatisch zusammengeführt:

Psst, die Abstände sind gleich, es fehlt nur die Hälfte der Slots
Es fehlen keine Slots, da die Plattform dafür gar nicht die PCIe Lanes hat.
 
Das Board verfügt über keinerlei PCI-Switch, was bei den meisten Gamer-Boards verwendet wird, nur in einem Server bzw. Workstation will man das nicht sehen.

Hmm, ich selbst habe 40 LANes und 7x 16x Sockel auf X79 als Desktop, aber ohne Brückenchip. BigBang II. Bekomme aber bald mal ein X99 mit 7x 16x PCIe und zwei PLX Chips.

Bislang hatte ich bezüglich Brückenchip nur das vollbestückbare X99 in der Hand. Aber wieso will man das im Server nicht? Ist das nicht recht cool im Zusammenhang mit einem Hypervisor und durchreichen der Hardware? Keine Ahnung, habe mich noch nie damit befasst. In der Workstation möchte ich das auf jeden Fall, kann aber auch sein, dass ich das Brett dann mal als Server missbrauche. Ich freue mich auf jeden Fall auf das ASUS X99-E WS. War mal ein richtig top Brett. Leider kein IPMI.

Für 7×16 Slots braucht man entweder ein Quadsocket System von Intel oder eben ein AMD-EPYC/Threadripper Pro Board.

Ich weiss, ja. Darf ich demnächst befummeln so ein Epyc Board. AsRock ROMED8-2T.
Beitrag automatisch zusammengeführt:

Und ja, bei den genannten Boards sind die Abstände überall gleich. Durchaus normiert, glaube ich.
 
Zuletzt bearbeitet:
Hmm, ich selbst habe 40 LANes und 7x 16x Sockel auf X79 als Desktop, aber ohne Brückenchip. BigBang II. Bekomme aber bald mal ein X99 mit 7x 16x PCIe und zwei PLX Chips.
Man muss unterscheiden zwischen dem physischen Sockel und der Verdrahtung des Sockels. Auf vielen Boards finden sich zwar x16 Slots, aber die sind dann nur mit weniger Lanes angebunden. Dazu kommt das Thema Lane Bifurcation, das wird bei Dir der Fall sein. Bei einem AMD Threadripper oder EPYC braucht man das für 7×16 Slots nicht, dank der 128 PCIe Lanes.
Bislang hatte ich bezüglich Brückenchip nur das vollbestückbare X99 in der Hand. Aber wieso will man das im Server nicht? Ist das nicht recht cool im Zusammenhang mit einem Hypervisor und durchreichen der Hardware?
Es geht um das Thema PCIe Root Complex und IOMMU (Intel nennt es VT-d). Üblicherweise hat man einen pro 16 Lane Port, d.h. man kann nur die 16 Lanes an eine VM durchreichen, egal ob eine, zwei oder drei Karten an den 16 Lanes hängen (also 16/0/0, 8/8/0 oder 8/4/4 Bifurcation stattfindet). Es gibt zuweilen Patches für den Hypervisor, so dass das dann doch geht, aber es ist langsamer und erfordert eine spezielle Firmware des Boards und zuweilen auch der Karten. Mit einem PCIe-Switch wird es noch schlimmer, da kann man garantiert alles nur an eine VM durchreichen, und bekommt weitere Latenz auf die Slots. Latenz ist bei vielen Anwendungen ein großes Problem. Z.B. die erzielbare Rechenleistung in einem HPC-Cluster hängt maßgeblich von der Latenz der Netzwerkverbindung ab. Deshalb verbaut man Infiniband und kein Ethernet, weil Infiniband eine geringe Latenz hat, und die will man sich dann nicht durch einen PCIe Switch versauen lassen.
Keine Ahnung, habe mich noch nie damit befasst. In der Workstation möchte ich das auf jeden Fall, kann aber auch sein, dass ich das Brett dann mal als Server missbrauche. Ich freue mich auf jeden Fall auf das ASUS X99-E WS. War mal ein richtig top Brett. Leider kein IPMI.
Ach das ist so ein Pseudo-Workstationboard für die Kreativbranche. Asus hat auch regelmäßig die passenden Xeon Boards im Programm und die haben das dann nicht. Keine Ahnung was das passende Xeon Gegenstück zum X99-E WS war, aktuell gibt es z.B. das Pro WS X299 SAGE/10G und das WS C422 SAGE/10G. Aber S2066 ist ohnehin tot, wenn Intel dann gleich S3647 mit zwei Xeons z.B. Xeon SP 6258R. Aus mangel an anderen CPUs wirft Intel einem die Xeon Golds nahezu hinterher. Aber aktuell sind EPYC und Threadripper Pro die bessere Plattform, bei Ryzen und Threadripper bekommt AMD das Thema ECC nicht in den Griff – sprich sie wollen nicht garantieren, dass es funktioniert, weshalb es faktisch keine passenden Boards gibt. Das eine Asus Board ist da die Ausnahme von der Regel.
 
Beim Threadripper gibt AMD ECC als Feature an - und alle Mobos, die ich genauer kenne, unterstützen das auch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh