HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.972
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Als SSD haben wir auf eine Corsair MP600 Pro gesetzt. Dabei handelt es sich um eine PCIe-4.0-SSD, die in diesem Fall ihr Interface allerdings nicht ausspielen kann, da beide M.2-Anschlüsse nur über den Chipsatz und damit per PCIe 3.0 angebunden sind.
Der M.2-Steckplatz ist direkt über die CPU angebunden und bietet vier PCI-Express-4.0-Lanes. Wir haben eine Corsair MP600 Pro mit einer Kapazität von 1 TB eingesetzt und durch die Benchmarks gejagt.
Über die PCIe-4.0-Lanes des Prozessors werden gleich sechs SlimSAS-Anschlüsse zur Verfügung gestellt. Jeder dieser Anschlüsse ist über acht PCIe.4-0-Lanes angebunden und dementsprechend kommen hier insgesamt 48 Lanes zum Einsatz. Die EPYC-Prozessoren bieten aber bis zu 128 Lanes, sodass hier noch weiterer Spielraum geblieben wäre. An jeden SlimSAS können bis zu vier Laufwerke angeschlossen werden. Dies können jeweils vier SAS/SATA-Laufwerke sein oder aber auch ein SFF-8643 für entsprechende SSDs. Bis zu 24 Laufwerke können direkt an die beiden Prozessoren angebunden werden.
CPU: 2x SlimSAS (17x SATA 6Gb/s)
CPU: 1x M.2 2280/22110 (PCIe 4.0 x4 oder SATA 6 GBit/s)
CPU: 4x SlimSAS (2x PCIe 4.0 x8)
CPU: 2x SlimSAS (2x PCIe 4.0 x8 oder 8x SATA 6 GBit/s)
Sicher? Mir sind bis jetzt immer nur 1xSlimSAS -> 4xSATA über den Weg gelaufen, das deckt sich auch mit den restlichen Angaben bezüglich der Anschlüsse.2x8 = 16 SATA müssten es sein per SlimSAS.
Zwei? oder sind die "ie beid" Buchstaben ein Extra, ergo Draufgabe? (dSetzen wir die beiden EPYC 7343 unter Last, verbraucht das gesamte System 252,7 W.
SAS Laufwerke gehen nicht, nur NVMe oder SATA und 17 SATA Laufwerke kommen wohl von den beiden Anschlüssen die je maximal 8 SATA oder PCIe 4.0 x8 bieten:Vielleicht steh ich da grad auf dem Schlauch, aber woher kommen die beiden zusätzlichen SlimSAS-Anschlüsse an die 17 SATA-Laufwerke angeschlossen werden können?
Der 17. ist dann wohl der M.2 Slot der ja auch SATA ermöglicht, da ich keinen normalen SATA Anschluss finden konnte.
Wobei die EPAC meines Wissens nach bis zu 32 SATA Ports (im Tausch gegen PCIe Lanes) bieten:
Die Anschlüsse nennen sich zwar SlimSAS weil sie auch für SAS verwendet und wahrscheinlich für SAS eingeführt wurden, aber SAS Laufwerke wird man an denen nicht betreiben können! Die sind nur halt für den Anschluss von PCIe Laufwerken genommen wurden, weil es sie schon gab, sie sehr kompakt sind und sie für die hohen Frequenzen von PCIe geeignet sind. Der Name täuscht aber, denn ich kenne keinen Chipsatz (oder SoC, aber das ist ja nur eine CPU mit integriertem Chipsatz) in der x86 Welt welcher SAS Ports bieten würde. Es wäre also sinnvoller SFF-8654 statt SlimSAS zu schreiben und Missverständnisse zu vermeiden. Seit "U.2" geht da leider viel durcheinander, auch wenn die snia.org die Bezeichnung U.2 erst später eingeführt hat, welches nur für die SFF-8639 verwendet werden darf, die auch PCIe Lanes bieten:
Die beiden ist bei einem Board mit nur einem Sockel wohl schwer. Aber 78,5W im Idle sind echt viel, so viel braucht mein Xeon-D 1541 Board ja nicht einmal unter Last!
Kann es sein, dass auch hier die Radeon beim Stromverbrauch mitgemessen wurde?Den Satz habe ich korrigiert. Danke für den Hinweis!
Auf Seite 5 sieht man es unten im Screenshot vom Task Manager, dass eine RX550 verbaut wurde.Was für eine Radeon? Unter Seite 3: Die weiteren Komponenten wird keine erwähnt. Außerdem passt der Wert doch gut, das Chiplet Design ist bzgl. der Idle Leistungsaufnahme leider sehr schlecht, weshalb AMD bei den (mobilen) APUs ja auch darauf verzichtet und monolithische Dies dafür einsetzt.
H12SSL-i ... Idle consumption is cca 40-45W with Epyc 7313p 16c 3.0GHz (SMT OFF) - measured by HWInfo / CoreTemp - quiet a lot, but yeah - who wants server CPU in a workstation than needs to respect this idle consumption.
Naja, man spart ein paar Redriver und Muxer für die PCIe Lanes, aber alleine der ASPEED AST2500 dürfte ein paar Watt ziehen, auch wenn Aspeed selbst dazu keine Angaben auf der Produktseite macht.Und von einem ITX Board erwarte ich einfach einen etwas geringeren Verbrauch als von einem >ATX Board.
Nein 10G machen sicher keine 30W aus, siehe auch die im untersten Zitat verlinkte Seite, aber Du vergleichst Äpfel mit Birnen. Meines Wissens misst HL nämlich die Leistungsaufnahme an der Steckdose, aber der Schreiber im Servethehome Forum mit HWInfo / CoreTemp gemessen, womit man bekanntlich nur die (Core und) Package Power ermitteln kann, nicht aber die Leistungsaufnahme des Komplettsystems, wie sie im Review ermittelt wurde.Gut, das hier hat kein 10G, aber das alleine macht ja keine 30W aus:
3 SSDs?Auch hier wirkt es als sei eine GPU verbaut gewesen zu sein und dazu sogar 3 SSDs:
Ich sehe da nur 2 SSDs, eine M.2 und eine SATA SSD. Aber die 46,8W scheinen mit trotzdem zu hoch für einen i5-11400F, wenn man dies liest:
Anders als die Consumer Mainboard stellen die Enterprise Mainboard in aller Regel die Werte für PL1, PL2 und Tau meist genau nach den Vorgaben des CPU Herstellers ein und dies sieht man ja auch hier. Aber 91W - 65W = 26W, unter Volllast hat also das Mainboard inkl. der Verluste des Netzteils dann nur noch 26W gebraucht und Idle sollen es 20,8W mehr gewesen sein?
Die habe ich in der Vergangenheit mal per E-Mail gefragt und die meinen unter 2W. Keine Ahnung woher der sonstige Verbrauch auf den Boards kommt:auch wenn Aspeed selbst dazu keine Angaben auf der Produktseite macht.
Mist, übersehen, obwohl zitiert 🙈 Ok, dann wird es sicher deutlich mehr sein.aber der Schreiber im Servethehome Forum mit HWInfo / CoreTemp gemessen
Ich sehe da nur 2 SSDs, eine M.2 und eine SATA SSD
Naja, der Artikel ist schon alt und dementsprechend hoch sind die Verbräuche. In unserem <30W Thread gibt es deutlich bessere Setups.Dafür gibt es zumindest von Intel eben besser Plattformen, wie die Server Atoms oder Xeon-D, schau einfach mal auf die Seite die hinter diesem Zitat verlinkt ist:
Mach Dir nichts draus, dies kann jedem mal passieren, irren ist menschlich und nur wer nichts tut, macht auch keine Fehler.Mist, übersehen, obwohl zitiert 🙈 Ok, dann wird es sicher deutlich mehr sein.
Ok, da sollte man beim Reviewer wirklich nochmal genau nachfragen und HL bitten da etwas mehr Sorgfalt bei den Reviews an den Tag zu legen. siehe auch den letzten Abschnitt in Post #12.
Ja, aber er war vor allem dazu gedacht den Einfluss des Mainboards zu zeigen.Naja, der Artikel ist schon alt und dementsprechend hoch sind die Verbräuche.
Allerdings, da kann man nicht meckern, aber ist das @Stock an der Steckdose oder wurden in BIOS von Hand auf die Idle Leistungsaufnahme hin optimiert?Ich habe die Tage ein Supermicro X12SCA-F mit einem W-1290P gemessen. Im Leerlauf 12W. Das nenn ich bezogen auf die mögliche Maximalleistung und IPMI sparsam.
Womit sich wieder die Frage nach den BIOS Einstellungen und der genauen Beschreibung des Systems während eben genau dieses Tests der Idle Leistungsaufnahme stellt. Die schnelleren Schnittstellen wie PCIe 5.0 brauchen natürlich mehr Leistung, aber auch für PCIe gibt es Energiesparmaßnahmen, eben ASPM (Active-state power management). Es wäre natürlich wünschenswert und würde den Wert der Reviews für Heimanwender seigern, wenn die Reviewer gerade bei solche Serverboards die auch für Heimanwender interessant sein könnten, in den Reviews mehr auf dieses Thema eingehen würden und eben ggf. auch die Idle Leistungsaufnahme mit aktivieren Energiespareinstellungen ermitteln würden, sollten diese im Default nicht aktiviert sein.Meine jetzigen Xeon Workstation Boards (C246 und W480) liegen alle bei unter 10W, aber die haben auch kein IPMI. Daher verstehe ich auch nicht warum das Asrock Rack C256 so dermaßen viel verbrauchen soll. Wie soll das denn erst mit den Xeon W685 Boards und PCIe 5.0 werden.
Weil On-Die-ECC ein offizielles Feature des DDR5 Standards ist.DDR5 mit On-Die-ECC (bisher habe ich aber noch keine Riegel ohne gesehen)
Klassisch C-States und ASPM aktiviert. Das mache ich grundsätzlich bei allen Systemen, daher sind die Messungen auch halbwegs vergleichbar.Allerdings, da kann man nicht meckern, aber ist das @Stock an der Steckdose oder wurden in BIOS von Hand auf die Idle Leistungsaufnahme hin optimiert?
Habe ich mich noch gar nicht mit auseinander gesetzt. Wenn ich das aber richtig verstanden habe, werden bei DDR5 ECC Korrekturen keine mce logs ausgelöst. Wenn das so ist, erfährt der Nutzer also nicht von der Häufigkeit der Korrekten und evtl sterbendem RAM. Damit hielte sich also auch der Mehrwert in Grenzen. Informiert zu sein ist ja gerade der Vorteil von ECC RAM, wie es ja auch bei Datenträgern und deren SMART der Fall ist oder AER Fehlern bei PCIe Verbindungen.Du scheinst ja sehr aktiv im Bereich Heimserverplattformen zu sein und auch Wert auf ECC RAM zu legen. Hast Du irgendwas zu dem On-Die-ECC von DDR5 im Vergleich zum klassischen ECC im RAM Controller bzgl. der Möglichkeiten der Fehlerkorrektur gefunden?
Wenn man das bei allen Boards macht, dann sind die Messungen natürlich halbwegs vergleichbar, aber in den Reviews dürfte dies wohl leider nicht gemacht worden sein und daher hängt es dann davon ab was das BIOS da per Default eingestellt hat.Das mache ich grundsätzlich bei allen Systemen, daher sind die Messungen auch halbwegs vergleichbar.
Also ich sehe als größten Vorteil von ECC RAM den Schutz vor RAM Fehlern an, erst danach kommt dann die Information darüber.Informiert zu sein ist ja gerade der Vorteil von ECC RAM