Gigabyte MZ31-AR0: Erstes Workstation-Mainboard für EPYC-Prozessoren

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd-epyc.jpg
Vor wenigen Tagen präsentierte AMD die ersten 12 EPYC-Prozessoren für Server mit einem und zwei Sockel. Entsprechend haben Hersteller wie HPE, Microsoft, Dell und viele andere Serveranbieter erste Angebote vorgestellt und auch bei den Mainboards zeigten Hersteller wie Tyan und Supermicro ihre Varianten für den Servereinsatz. Gigabyte hat nun mit dem MZ31-AR0 ein erstes Workstation-Mainboard für EPYC-Prozessoren vorgestellt.Das MZ31-AR0 misst 305 x 320 mm und kommt deshalb im E-ATX-Format daher. Unterstützt werden...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Anschlusspanel ist ja mal richtig schön rustikal :p
Ist es üblich, dass bei WS Boards trotz 180W CPU nur 6 Phasen vorhanden sind? Und die Spawas nicjt gekühkt werden?
 
Das Anschlusspanel ist ja mal richtig schön rustikal :p
Ist es üblich, dass bei WS Boards trotz 180W CPU nur 6 Phasen vorhanden sind? Und die Spawas nicjt gekühkt werden?

Jupp. Im Server-Bereich wird normalerweise nicht overclockt - es werden also nur so viele Phasen verbaut, wie man annimmt, was die CPU verbraucht. Die SpaWas müssen entsprechend auch nicht zusätzlich gekühlt werden (die können normalerweise sowieso 100°C und mehr ab), weil die Verlustleistung da schlichtweg geteilt wird und wenns bei Standard-Luststrom hält, dann gibts da auch keine Probleme.

Willst du das Teil als Workstation und gleichzeitig zum zocken benutzen... tja - dann bete, dass du ein UEFI bekommst, was dir überhaupt übertrakten ermöglicht. :d
 
Weiterhin vorhanden sind 16 DIMM-Steckplätze, die DDR4-2666-Speicher mit einer Gesamtkapazität von bis zu 2 TB aufnehmen können. Die maximale Bestückung beträgt pro Modul bei RDIMM 32 GB und für LRDRIMM 64 GB.
Irgendwas stimmt doch da nicht. 16x 64 GB sind 1024 GB, wie soll man da nun auf 2 TB kommen?

PS: Und was ist LRDRIMM?
 
Zuletzt bearbeitet:
Jupp. Im Server-Bereich wird normalerweise nicht overclockt - es werden also nur so viele Phasen verbaut, wie man annimmt, was die CPU verbraucht. Die SpaWas müssen entsprechend auch nicht zusätzlich gekühlt werden (die können normalerweise sowieso 100°C und mehr ab), weil die Verlustleistung da schlichtweg geteilt wird und wenns bei Standard-Luststrom hält, dann gibts da auch keine Probleme.
Zudem ist der Luftstrom in Servern nicht mit dem in meisten Heimcomputern vergleichbar.
 
Das sollte natürlich "E-ATX" heissen. Ist nun korrigiert. ;)
 
Ist es üblich, dass bei WS Boards trotz 180W CPU nur 6 Phasen vorhanden sind? Und die Spawas nicjt gekühkt werden?

Shevchen hat völlig Recht, ist halt kein Gamingboard, d.h. es sind nur so viele Phasen da wie man sinnvollerweise braucht.

Außerdem fehlen auch wichtige Features wie Kühlkörper in Munitionsform, farblich abgetrennte Board-Bereiche für den 2,50€-Realtek-Soundchip mit den mundgeklöppelten, vollvergoldeten High-End-Kondensatoren und eine Sockel-Unterbodenbeleuchtung ist auch nicht vorhanden, schon gar nicht in per Äppp steuerbarem RGB. Wer heute nur Workstation statt Gaming kaufen kann, der muss halt herbe Funktionseinschränkungen hinnehmen.

Mir würde ein 10Gbase-T mehr gefallen als SFPs, aber irgendwer wird das schon bringen. Da man das auf AM4 offenbar nicht hinbekommt (nein, NBASE ist keine Option), wäre SP3 schon verlockend...aber für mich gnadenlos oversized. Mal schauen.
 
180Watt ist aber doch ein Verbrauch den ein Ryzen nur durch OC erreicht. Deshalb finde ich die 6 Phasen schon etwas wenig. Bei 180W und geschätzten 1.3V ergibt das 138A für die CPU (inkl. allen SoC Bestandteilen). Auf 6 Phasen verteilt gibt das noch 23A. Das ist, vor allem ohne Kühler, ganz schön viel.

Der Luftstrom in Servern ist mit Pressluft zu vergleichen, ja. Aber nicht in Workstations. Ich arbeite als Ingenieur selber an einer WS und die Gehäusekühlung beschränkt sich auf zwei 120mm Lüfter und den CPU Lüfter (92mm topblow). Von Airflow kann da keine Rede sein, da auch die Quadro wohl etwas Wärme abgeben wird.
 
Das ist ein Serverboard für Rack´s, denke für die WS wirds dann brauchbarere geben. Ganz so unfähig halt ich die MB Hersteller nun doch nicht^^
 
Zuletzt bearbeitet:
Auf dem Mainboard ist meiner Meinung nach kein einziger PCI-E Switch zu sehen. Mit Threadripper/Epyc kommen tolle Zeiten auf uns zu. Nie wieder im Handbuch nachschauen, was alles deaktiviert wird, wenn man zu viele Sachen anschließt.
 
Auf 6 Phasen verteilt gibt das noch 23A. Das ist, vor allem ohne Kühler, ganz schön viel.
Ja und bei vielleicht 10 mΩ auf einer Schiene (FET Spule und Leitung), macht das ~5 W die auf recht großer Fläche anfallen und thermisch extrem gut an das viele Kupfer der Leitungen des Mainboards angebunden ist. Dazu kommt, dass das thermische System sehr träger ist also Stromspitzen sind thermisch hier kein großes Problem.

Aber in der Tat ein Effizienzwunder wird man hier nicht erwarten dürfen. Wobei ich mir nicht sicher bin, dass wirklich nur die sechs Phasen ganz allein alle teile der CPU versorgen. Ich kenne die ZEN Architektur noch nicht so gut.
 
Shevchen hat völlig Recht, ist halt kein Gamingboard, d.h. es sind nur so viele Phasen da wie man sinnvollerweise braucht.

Außerdem fehlen auch wichtige Features wie Kühlkörper in Munitionsform, farblich abgetrennte Board-Bereiche für den 2,50€-Realtek-Soundchip mit den mundgeklöppelten, vollvergoldeten High-End-Kondensatoren und eine Sockel-Unterbodenbeleuchtung ist auch nicht vorhanden, schon gar nicht in per Äppp steuerbarem RGB. Wer heute nur Workstation statt Gaming kaufen kann, der muss halt herbe Funktionseinschränkungen hinnehmen.

Mir würde ein 10Gbase-T mehr gefallen als SFPs, aber irgendwer wird das schon bringen. Da man das auf AM4 offenbar nicht hinbekommt (nein, NBASE ist keine Option), wäre SP3 schon verlockend...aber für mich gnadenlos oversized. Mal schauen.
Das sind doch die Naples, also für EPYC CPU. Das sind meist Back-bones, hier z.B. mit 100Gbit LAN und ein PCIe x40 Steckplatz: Super Micro Computer, Inc. - Aplus Products | Motherboards | H11DSU-iN

Die Threadripper (bis 16 Kerne) werden die Workstations nicht die Server Racks EPYC.
Kann natürlich sein, dass ein TR auch im EPYC Board läuft...
 
Oh Gott, jetzt bitte mit zwei Sockeln und das Asus Z9PE-D8 WS fliegt :d
 
180Watt ist aber doch ein Verbrauch den ein Ryzen nur durch OC erreicht. Deshalb finde ich die 6 Phasen schon etwas wenig. Bei 180W und geschätzten 1.3V ergibt das 138A für die CPU (inkl. allen SoC Bestandteilen). Auf 6 Phasen verteilt gibt das noch 23A. Das ist, vor allem ohne Kühler, ganz schön viel.
Sollte kein Problem sein wenn die Phasen mit 40A oder 60A ausgelegt sind. Schau dir mal das Biostar 370GT7 an, das hat 60A pro Phase und gehört damit zu den besten AM4 Boards, was die Spannungsversorgung angeht.
 
..."zeigten Hersteller wie Tyan und Supermicro ihre Varianten für den Servereinsatz."...

Wieso bringt ihr davon nichts?
So ne gammel kacke steckt doch keiner ernsthaft in seine Workstation...
 
lustig wie Gaming-Schemas auf Workstations übertragen null Sinn ergeben :d

"hey wieso braucht das Board keine Kühlkörper?"
"Nur 6 Phasen?"

frag dich mal lieber von was für einer Güte Hardware vor 20 Jahren sein musste, als man +50%OC erreichen konnte mit nur einer Phase und einem mässigen 200W Netzteil - zu Zeiten wo man der CPU 2.0V gab. Heut ist alles so extrem sensibel geworden..
 
Das sind doch die Naples, also für EPYC CPU. Das sind meist Back-bones, hier z.B. mit 100Gbit LAN und ein PCIe x40 Steckplatz: Super Micro Computer, Inc. - Aplus Products | Motherboards | H11DSU-iN
Das hat keinen 100GBit LAN Chip bzw. Anschluß, bietet lediglich die Möglichkeit z.B. so eine Karte "AOC-S100G-M2C" einzubauen. Schickes Kärtchen ... kostet um die 1000 USD. Läuft aber theoretisch in jedem herkömmlichen PCI-E 16x Slot bzw. Board.
Und das ist auch kein PCI-E 40x "Steckplatz" wie Du es nennst, sondern einer der Anschlüsse für Riser Karten um eben z.B. die ganzen PCI-E Slots zu realisieren.
Da das Board einen proprietären Formfaktor hat passt es wohl nur in dafür vorgesehene Systeme mit passenden Riser Platinen.

Die Threadripper (bis 16 Kerne) werden die Workstations nicht die Server Racks EPYC.
Kann natürlich sein, dass ein TR auch im EPYC Board läuft...
Ob Threadripper die Workstations abbilden steht noch nicht fest, wäre gut möglich daß auch Workstation Boards für EPYC CPUs auf den Markt kommen. Es ist ja auch noch unbekannt ob eventuell EPYC CPUs und die RyZen R9 Threadripper CPUs irgendwie Sockelkompatibel sind. Lt. Infos gibt es ja Sockel SP3 4094 Pin für EPYC CPUs und Sockel TR4 (SP3v2) für RyZen R9 Threadripper. Sieht also tatsächlich so aus als wären die eventuell mechanisch, aber auch elektrisch anders und somit ist es möglich daß die untereinander nicht oder vielleicht nur eingeschränkt kompatibel sind.
Time will tell.

@ProphetHito
Ja die meisten Leute vergleichen solche Boards mit Desktop Varianten und stellen sich solche Fragen.

Solche Boards werden für Serversysteme konzipiert und sind offiziell auch nur für die geeigneten Cases vorgesehen. Eben aufgrund der Termischen Spezifikationen, der Anschlüsse etc. Klar kann man solche Boards auch in diverse normalo-Gehäuse packen, ggf. werden diese dann aber nicht optimal gekühlt.
 
Zuletzt bearbeitet:
@Bucho
Ja das hast du richtig erkannt, also kann man hier zwo 100GBit Back-bones anbinden über die PCI-Express x40 Riser Schnittstelle.
Wie geschrieben das sind 19" Einschub Racks, die werden Weltweit genutzt und sind meist so hoch wie ein Kleiderschrank.
Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)

GigaByte hat hier im Thread also ein SP3 Sockel Board für EPYC CPUs, da SP3r2 nicht elektrisch kompatible ist, aber der selbe Sockel wird genutzt: LGA 4094

"I frei mi druff"
 
Zuletzt bearbeitet:
Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)

Mmmhnö.

1 HE bzw. 1 U sind 1,75", entspricht in nichthändisch, -füßisch oder -getreidekörnlichen Einheiten 44,45mm. Zoll-HE gibts nicht.
Die Breite sind Zoll wie gehabt.
Und das sind obendrein "Außen"maße, die reinzuschraubenden Gehäuse sind natürlich einen Tick kleiner, sonst passts nicht. Die Schrank-Außenmaße sind wieder herstellerspezifisch, jeder hält da was anderes für optimal.
 
Mmmhnö.

1 HE bzw. 1 U sind 1,75", entspricht in nichthändisch, -füßisch oder -getreidekörnlichen Einheiten 44,45mm. Zoll-HE gibts nicht.
Die Breite sind Zoll wie gehabt.
Und das sind obendrein "Außen"maße, die reinzuschraubenden Gehäuse sind natürlich einen Tick kleiner, sonst passts nicht. Die Schrank-Außenmaße sind wieder herstellerspezifisch, jeder hält da was anderes für optimal.
1 HE sind 2,54cm in der höhe und 19" in der Breite, warum muss man das in Frage stellen?
Mir geht es nicht darum, dass ich recht habe, sondern was die Allgemeinheit versteht!
Von links nach rechts, von oben nach unten? :drool:
 
2,54cm und 44,45mm sind aber nicht das gleiche, einer von euch muss also falsch liegen.

Sent from OP3T
 
Danke für die scharfe Beobachtung, Powl :lol:

Denkanstoß: Wenn U/HE synonym zu Zoll wäre, warum nimmt man nicht gleich Zoll für beides?

Praktischer Vorschlag: Nimm mal ein Metermaß und geh zu deinem Serverschrank. 1HE-Einbauten eignen sich da ganz besonders, wie beispielsweise Schuko-Steckdosenleisten. Schukostecker haben übrigens knapp 37mm Durchmesser, passt hervorragend in 2,54 cm Höhe *hint*.
 
@Bucho
Ja das hast du richtig erkannt, also kann man hier zwo 100GBit Back-bones anbinden über die PCI-Express x40 Riser Schnittstelle.
Damit muß man nicht zwingend einen Backbone anbinden, übrigens nutzt man üblicherweise in einem großen Unternehmen "einen Backbone" welcher jedoch in der Breite und somit der Anbindung variieren kann. Man kann damit natürlich auch alles mögliche andere anbinden wie z.B. direkt andere Rechner für Clustering, Storage Devices (wie NAS oder Bandlaufwerk Libraries) oder auch einfach nur andere Netzwerkknoten.
Aus dem 40x Lane Slot kann man wohl mittels Riser Karten 2 x 16 und 1 x 8 Slots machen und somit sogar zwei dieser obigen Karten anbinden und hat noch einen 8x für whatever (RAID Controller z.B.). Allerdings ist es halt fraglich ob diese 4 x 100GBit Ports dann auch irgendwie ausgelastet werden können.

Wie geschrieben das sind 19" Einschub Racks, die werden Weltweit genutzt und sind meist so hoch wie ein Kleiderschrank.
Du kannst mir glauben daß das für mich nichts neues ist, habe Anfang der 90er (1991-1992) meinen ersten eigenen PC bekommen und seitdem schraube/bastle/beschäftige ich mich recht intensiv damit und bin beruflich seit gut 16 Jahren in der IT tätig ;)

Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)
Das wäre mir auch neu. Keine Ahnung wo Du das mit dem 2,54cm her hast? 1 HE ist nicht gleich 1 Zoll.
Und nur das Einschubschienensystem ist 19" breit, die Module sind meist knapp über 17" oder gar schmäler. Die Tiefe ist auch nicht unbedingt von der Sockelanzahl abhängig, eher davon was alles in so einem Case drin ist. Backblaze baut z.B. sehr tiefe Cases wo fast nur Festplatten drin sind und lediglich ein Single Sockel Board. Abgesehen davon gibt es ja unzählige andere Einschübe welche gar keine Mainboards/Sockel haben wie diverse Storage Devices, Netzwerk Switches, Patch Panels, unterbrechungsfreie Stromversorgungen, ausziehbare Monitore/Eingabegeräte uvm.

GigaByte hat hier im Thread also ein SP3 Sockel Board für EPYC CPUs, da SP3r2 nicht elektrisch kompatible ist, aber der selbe Sockel wird genutzt: LGA 4094

"I frei mi druff"
Wie gesagt wissen wir (oder zumindest ich) es noch nicht ob die Sockel irgendwie kompatibel sind. Vielleicht ist es ählich wie bei Sockel 775 und 771, sprich die Sockel sind im Prinzip sehr ähnlich, aber trotzdem nicht kompatibel (im Falle des 775-771 war er gedreht und zwei Pins waren vertauscht). Vielleicht sind hier einfach nur so Rasten/Nasen im Sockel damit man nur gewisse CPUs einsetzen kann, vielleich sind aber auch ein paar Pins anders belegt etc.
Aber wer weiß? Vielleicht ist der SP3v2 sogar kompatibel zu SP3 und man kann eventuell sogar (einige) EPYC Modelle darin nutzen?
 
Zur finalen Klärung der HE=Zoll Frage

Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)

20170804_182003[1].jpg
hier mein 4HE Gehäuse

20170804_182028[2].jpg
zweimal 2HE

20170804_182048[1].jpg
einmal 2HE

Dat passt also nicht mit HE=Zoll!

Wenn man mal bei den Hersteller (zb. inter-tech.de) schaut, kann man sich auch die Maße raussuchen und stellt fest, das 4HE nicht 4" sind ... :rolleyes:

PS bevor wer fragt, die Plattenschächte sind leer, weil ich gerade umbaue und nur nebenher hier lese

Edit: hat schon wer was gesehen, vonwegen Preis (gerne auch Ausland)
Edit2: Epyc und TR4 sind nicht Pin-kompatibel
 
Zuletzt bearbeitet:
Knutsch

Hätte ich aber auch selber drauf kommen können.
Hm, muss ich über den Arbeitgeber probieren. Die verkaufen wohl weniger an Privat.

Danke emissary
 
Kein Problem, die Frage gab es ja hier nicht zum ersten Mal :)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh