HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.960
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Das Anschlusspanel ist ja mal richtig schön rustikal
Ist es üblich, dass bei WS Boards trotz 180W CPU nur 6 Phasen vorhanden sind? Und die Spawas nicjt gekühkt werden?
Irgendwas stimmt doch da nicht. 16x 64 GB sind 1024 GB, wie soll man da nun auf 2 TB kommen?Weiterhin vorhanden sind 16 DIMM-Steckplätze, die DDR4-2666-Speicher mit einer Gesamtkapazität von bis zu 2 TB aufnehmen können. Die maximale Bestückung beträgt pro Modul bei RDIMM 32 GB und für LRDRIMM 64 GB.
Zudem ist der Luftstrom in Servern nicht mit dem in meisten Heimcomputern vergleichbar.Jupp. Im Server-Bereich wird normalerweise nicht overclockt - es werden also nur so viele Phasen verbaut, wie man annimmt, was die CPU verbraucht. Die SpaWas müssen entsprechend auch nicht zusätzlich gekühlt werden (die können normalerweise sowieso 100°C und mehr ab), weil die Verlustleistung da schlichtweg geteilt wird und wenns bei Standard-Luststrom hält, dann gibts da auch keine Probleme.
Was für ein Format bitte?Das MZ31-AR0 misst 305 x 320 mm und kommt daher im eTAX-Format daher.
Ist es üblich, dass bei WS Boards trotz 180W CPU nur 6 Phasen vorhanden sind? Und die Spawas nicjt gekühkt werden?
Ja und bei vielleicht 10 mΩ auf einer Schiene (FET Spule und Leitung), macht das ~5 W die auf recht großer Fläche anfallen und thermisch extrem gut an das viele Kupfer der Leitungen des Mainboards angebunden ist. Dazu kommt, dass das thermische System sehr träger ist also Stromspitzen sind thermisch hier kein großes Problem.Auf 6 Phasen verteilt gibt das noch 23A. Das ist, vor allem ohne Kühler, ganz schön viel.
Das sind doch die Naples, also für EPYC CPU. Das sind meist Back-bones, hier z.B. mit 100Gbit LAN und ein PCIe x40 Steckplatz: Super Micro Computer, Inc. - Aplus Products | Motherboards | H11DSU-iNShevchen hat völlig Recht, ist halt kein Gamingboard, d.h. es sind nur so viele Phasen da wie man sinnvollerweise braucht.
Außerdem fehlen auch wichtige Features wie Kühlkörper in Munitionsform, farblich abgetrennte Board-Bereiche für den 2,50€-Realtek-Soundchip mit den mundgeklöppelten, vollvergoldeten High-End-Kondensatoren und eine Sockel-Unterbodenbeleuchtung ist auch nicht vorhanden, schon gar nicht in per Äppp steuerbarem RGB. Wer heute nur Workstation statt Gaming kaufen kann, der muss halt herbe Funktionseinschränkungen hinnehmen.
Mir würde ein 10Gbase-T mehr gefallen als SFPs, aber irgendwer wird das schon bringen. Da man das auf AM4 offenbar nicht hinbekommt (nein, NBASE ist keine Option), wäre SP3 schon verlockend...aber für mich gnadenlos oversized. Mal schauen.
Sollte kein Problem sein wenn die Phasen mit 40A oder 60A ausgelegt sind. Schau dir mal das Biostar 370GT7 an, das hat 60A pro Phase und gehört damit zu den besten AM4 Boards, was die Spannungsversorgung angeht.180Watt ist aber doch ein Verbrauch den ein Ryzen nur durch OC erreicht. Deshalb finde ich die 6 Phasen schon etwas wenig. Bei 180W und geschätzten 1.3V ergibt das 138A für die CPU (inkl. allen SoC Bestandteilen). Auf 6 Phasen verteilt gibt das noch 23A. Das ist, vor allem ohne Kühler, ganz schön viel.
Es gibt bereits 128GB LRDIMMs und damit sind dann auch 2TB RAM möglich.Irgendwas stimmt doch da nicht. 16x 64 GB sind 1024 GB, wie soll man da nun auf 2 TB kommen?
Das hat keinen 100GBit LAN Chip bzw. Anschluß, bietet lediglich die Möglichkeit z.B. so eine Karte "AOC-S100G-M2C" einzubauen. Schickes Kärtchen ... kostet um die 1000 USD. Läuft aber theoretisch in jedem herkömmlichen PCI-E 16x Slot bzw. Board.Das sind doch die Naples, also für EPYC CPU. Das sind meist Back-bones, hier z.B. mit 100Gbit LAN und ein PCIe x40 Steckplatz: Super Micro Computer, Inc. - Aplus Products | Motherboards | H11DSU-iN
Ob Threadripper die Workstations abbilden steht noch nicht fest, wäre gut möglich daß auch Workstation Boards für EPYC CPUs auf den Markt kommen. Es ist ja auch noch unbekannt ob eventuell EPYC CPUs und die RyZen R9 Threadripper CPUs irgendwie Sockelkompatibel sind. Lt. Infos gibt es ja Sockel SP3 4094 Pin für EPYC CPUs und Sockel TR4 (SP3v2) für RyZen R9 Threadripper. Sieht also tatsächlich so aus als wären die eventuell mechanisch, aber auch elektrisch anders und somit ist es möglich daß die untereinander nicht oder vielleicht nur eingeschränkt kompatibel sind.Die Threadripper (bis 16 Kerne) werden die Workstations nicht die Server Racks EPYC.
Kann natürlich sein, dass ein TR auch im EPYC Board läuft...
Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)
1 HE sind 2,54cm in der höhe und 19" in der Breite, warum muss man das in Frage stellen?Mmmhnö.
1 HE bzw. 1 U sind 1,75", entspricht in nichthändisch, -füßisch oder -getreidekörnlichen Einheiten 44,45mm. Zoll-HE gibts nicht.
Die Breite sind Zoll wie gehabt.
Und das sind obendrein "Außen"maße, die reinzuschraubenden Gehäuse sind natürlich einen Tick kleiner, sonst passts nicht. Die Schrank-Außenmaße sind wieder herstellerspezifisch, jeder hält da was anderes für optimal.
Das kannst Du auch nochmal wiederholen, es wird damit jedoch nicht richtiger.1 HE sind 2,54cm in der höhe
Damit muß man nicht zwingend einen Backbone anbinden, übrigens nutzt man üblicherweise in einem großen Unternehmen "einen Backbone" welcher jedoch in der Breite und somit der Anbindung variieren kann. Man kann damit natürlich auch alles mögliche andere anbinden wie z.B. direkt andere Rechner für Clustering, Storage Devices (wie NAS oder Bandlaufwerk Libraries) oder auch einfach nur andere Netzwerkknoten.@Bucho
Ja das hast du richtig erkannt, also kann man hier zwo 100GBit Back-bones anbinden über die PCI-Express x40 Riser Schnittstelle.
Du kannst mir glauben daß das für mich nichts neues ist, habe Anfang der 90er (1991-1992) meinen ersten eigenen PC bekommen und seitdem schraube/bastle/beschäftige ich mich recht intensiv damit und bin beruflich seit gut 16 Jahren in der IT tätigWie geschrieben das sind 19" Einschub Racks, die werden Weltweit genutzt und sind meist so hoch wie ein Kleiderschrank.
Das wäre mir auch neu. Keine Ahnung wo Du das mit dem 2,54cm her hast? 1 HE ist nicht gleich 1 Zoll.Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)
Wie gesagt wissen wir (oder zumindest ich) es noch nicht ob die Sockel irgendwie kompatibel sind. Vielleicht ist es ählich wie bei Sockel 775 und 771, sprich die Sockel sind im Prinzip sehr ähnlich, aber trotzdem nicht kompatibel (im Falle des 775-771 war er gedreht und zwei Pins waren vertauscht). Vielleicht sind hier einfach nur so Rasten/Nasen im Sockel damit man nur gewisse CPUs einsetzen kann, vielleich sind aber auch ein paar Pins anders belegt etc.GigaByte hat hier im Thread also ein SP3 Sockel Board für EPYC CPUs, da SP3r2 nicht elektrisch kompatible ist, aber der selbe Sockel wird genutzt: LGA 4094
"I frei mi druff"
Die höhe eines Rack wird in HE angegeben und im Maß Zoll="
Bsp: 2"HE sind 2x2,54cm in der Höhe bei 19" Breite und die Tiefe variiert je nach Sockel Anzahl (1P, 2P, 3P, 4P)
Zu beziehen direkt von ausgewiesen Gigabyte Server Partnern, in Deutschland u.a. bei Arrow Central Europe GmbH siehe Where To Buy - GIGABYTE (Deutschland, Server Motherboard).hat schon wer was gesehen, vonwegen Preis (gerne auch Ausland)