Vierte EPYC-Generation: Genoa soll die Konkurrenz in den Schatten stellen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein wundervolles 2011-3 für Xeon E5 2600v3/v4, evtl. mit Glück sogar ATX-kompatibel, wenn man ohne I/O-Blende klarkommt.
Hat der Servershop24 auch noch Epyc-auf-2011-Adapter im Lieferprogramm? :hust:
Steht leider nicht da welcher Sockel, da ist die Seite echt mies was die Sockelermittlung angeht:

https://www.servershop24.de/hpe-dl385-gen10-plus-premium-server/a-125472/

Hier steht es dazu. Alleine Am Codnamen kann man wenig ableiten für welchen Sockel welches Board geeignet ist.

Ich würde einfach höflich fragen ob sie zum Prozessor auch entsprechende Boards haben und gut ist. Man kann auch einfach nur trollen, wenn jemand versucht einem zu helfen.
Aber Hauptsache meckern.
 
6499,99€ brutto - Schnäppchen!

Screenshot_20221113_175451.png


Drin stecken:
2x Epyc 7402 (3700€ neu)
2x 16GB DDR4 (500€ neu) (d.h. Singlechannelbetrieb zweier Octachannelprozessoren!)
RAID-Controller samt Lizenz (600€ neu?)
absurd überteuerte Dual-25GbE-Karte (1600€ neu)
Und, festhalten, 2x 300GB 10K SAS. Sowas hab ich hier schon verschenkt, und es ging weg wie sauer Bier.
Chassis, Board und Netzteile als Gratisbeigabe aufgrund Preisdifferenz neu-gebraucht.

Wer hat noch gleich mit diesem komischen Shop angefangen, weil er beweisen musste, dass meine Gebrauchtsuche auf eBay nicht das Maß der Dinge ist?
Die These war übrigens, dass gebrauchte Epyc-Boards nicht leicht zu finden sind, obwohl eigentlich genug verkauft wurden, dass man inzwischen *irgendwo* ein paar davon finden müsste. Die derzeit beste Quelle sind H11SSL aus China für 330€, wenn man das Abenteuer bei Versand und Zoll nicht scheut.

Damit hoffentlich genug OT.
 
6499,99€ brutto - Schnäppchen!

Anhang anzeigen 816121

Drin stecken:
2x Epyc 7402 (3700€ neu)
2x 16GB DDR4 (500€ neu) (d.h. Singlechannelbetrieb zweier Octachannelprozessoren!)
RAID-Controller samt Lizenz (600€ neu?)
absurd überteuerte Dual-25GbE-Karte (1600€ neu)
Und, festhalten, 2x 300GB 10K SAS. Sowas hab ich hier schon verschenkt, und es ging weg wie sauer Bier.
Chassis, Board und Netzteile als Gratisbeigabe aufgrund Preisdifferenz neu-gebraucht.

Wer hat noch gleich mit diesem komischen Shop angefangen, weil er beweisen musste, dass meine Gebrauchtsuche auf eBay nicht das Maß der Dinge ist?
Die These war übrigens, dass gebrauchte Epyc-Boards nicht leicht zu finden sind, obwohl eigentlich genug verkauft wurden, dass man inzwischen *irgendwo* ein paar davon finden müsste. Die derzeit beste Quelle sind H11SSL aus China für 330€, wenn man das Abenteuer bei Versand und Zoll nicht scheut.

Damit hoffentlich genug OT.
Der Shop war ein Beispiel, der Grund worum es nicht so viele gebrauchte gibt ist wohl auch das die Dinger noch genutzt werden.
Gebrauchte Prozessoren wird es wohl mehr geben, da man ja etwas skalieren konnte. Die Xeons gibt's wie Sand am Meer da diese ja auch teilweise gegen epycs getauscht wurden. Ich hab das ernsthaft gemeint beim Händler nach zu fragen ob der auch ein gebrauchtes Board hat. Du musst ja nicht das überteuerte Paket abnehmen. Es ist halt ein Indikator das er wohl auch Mainboards hätte. Leider sind nicht alle Webseiten immer gut gepflegt.
 
Steht leider nicht da welcher Sockel, da ist die Seite echt mies was die Sockelermittlung angeht:

https://www.servershop24.de/hpe-dl385-gen10-plus-premium-server/a-125472/

Hier steht es dazu. Alleine Am Codnamen kann man wenig ableiten für welchen Sockel welches Board geeignet ist.

Ich würde einfach höflich fragen ob sie zum Prozessor auch entsprechende Boards haben und gut ist. Man kann auch einfach nur trollen, wenn jemand versucht einem zu helfen.
Aber Hauptsache meckern.
Für den Preis bekommst bei HPE als Großkunde ein neues System mit Milan 32C und 5 Jahren Support. Für die Kiste würde ich mich nichtmal trauen 1/3 des Preises zu verlangen.
Beitrag automatisch zusammengeführt:

Der Shop war ein Beispiel, der Grund worum es nicht so viele gebrauchte gibt ist wohl auch das die Dinger noch genutzt werden.
Gebrauchte Prozessoren wird es wohl mehr geben, da man ja etwas skalieren konnte. Die Xeons gibt's wie Sand am Meer da diese ja auch teilweise gegen epycs getauscht wurden. Ich hab das ernsthaft gemeint beim Händler nach zu fragen ob der auch ein gebrauchtes Board hat. Du musst ja nicht das überteuerte Paket abnehmen. Es ist halt ein Indikator das er wohl auch Mainboards hätte. Leider sind nicht alle Webseiten immer gut gepflegt.
Aber erst spät, Naples war leider nicht so wirklich der Hit. Das kam erst mit Rome gegen Ende 2019/Anfang 2020. Und auch dann musste man Glück haben, ein System innerhalb von 6 Monaten Lieferzeit zu bekommen.
 
Nur blöd, das dir das so gut wie kein Rechenzentrum anbietet, bei ~1,6kW pro Server. Üblich sind ca. 3-7kW pro Rack, gegen Aufpreis gibts vielleicht noch 12 oder 20 kW, mit Glück und an wenigen Standorten 40kW das wars dann aber auch schon. Und da reden wir schon von den großen Datacentern, Equinix/Interxion/NTT/maincubes/Hetzner usw.
Die meisten Firmen mit ihren Baby-RZs im Keller können so eine Serverdichte erst Recht vergessen. Vom Kühlaufwand mal ganz zu schweigen...
Standardracks sollten 15-25kW pro Rack schaffen. Bei HPC wird es natürlich schwieriger, da sind mit Wärmetauschern im Rack oder mit spezieller Einhausung 50kW möglich und mit direkter Wasserkühlung sollten auch 100kW machbar sein. So werden die Dinger nämlich auch verkauft. Es ist klar, dass man ein HPC Rack nicht wie bei Hetzner mit Außenluft kühlen kann. Das kann bei dieser Packungsdiche nicht funktionieren.
 
Rechne Strombedarf pro Kern aus.
Mach das mit nem Ryzen 3000, 5000, 7000. Wegen mir Untervolted.
Dann hast du sehr wahrscheinlich deine Antwort.
das kann man nicht auf den einzelnen kern runterbrechen. klar brauchen mehr ccd mehr spannung, aber das ist relativ überschaubar. und wenn man nen 7950X auf 65 watt drosseln kann, dann sind zwei 7950X, sprich 4 ccx auch mit 130 watt ganz locker zu betreiben. ich vermute sogar dass 80 watt reichen würden um den ganzen chip betreiben zu können. bis 180 watt ist jedenfalls reichlich luft.
ich bin nach wie vor der meinung, dass in dem sektor energieeffiziente modelle einen mehrwert bringen würden. aber gut, das ist ne meinung und belastbare zahlen dazu gibt es mangels realer umsetzung nicht.

PS: hier hat man sowas schon mal beim vorgänger getestet: https://www.computerbase.de/2019-12...chnitt_threadripper_3970x_280_vs_180_watt_tpd
 
Zuletzt bearbeitet:
Das Problem ist heute (und imho) nicht, wenn man viel pro Einschub machen will, sondern wenn man wenig machen will ;) Das ist aber nur die Heimserver Sicht. Sonst trifft der Epyc4 voll ins Schwarze. Dafür ist die Palette breit genug und wird auch noch in die Tiefe gehen. Vorgestellt wurden ja nur die jeweiligen Speerspitzen ;)

Die SoHo-Enthusiasten werden sowieso nicht beachtet und greifen nur das ab, was grad irgendeine andere Servernische bedient. Das ist imho nicht Genoa. Ich glaub auch der Siena nicht?

Und auch bei Intel tue ich mich immer schwerer etwas mit RegECC zu finden. Ich bin schon länger im Besitz hab es aber immernoch nicht im Betrieb: R210II mit E3-1220L v2. Mit 16GB RAM und einer kleinen WDgreen. Das sollte sich mal ums Netzwerk kümmern. Tests hab ich aber natürlich schon einige gemacht. Wenn es mal ordentlich was zu tun hat, zieht es um die 28W aus der Steckdose.
Gibt es soetwas... neuzeitlicheres? Ein R220 mit 1220L v3 war es jedenfalls nicht. Das quält sich mit der Aufgabe halt viel länger und verliert im Verbrauchsvergleich über die Zeit. Und so ein Atom C3758 mit seinen 25W der nur minimallst schneller in Passmark singlethread als der v3 ist, macht auch keinen Sinn oder?

Andere Frage:
Wollt ihr das eigentlich auch weiter so machen wie die Industrie es NOCH macht? Also so viele VMs auf einer Kiste, daß ein HWdefekt dieser gleich das sofortige digitale Koma bedeutet? Die Großen denken jetzt wohl auch darüber verstärkt nach. Oder was ist eigentlich Edge-Computing?
 
Zuletzt bearbeitet:
Gibt es soetwas... neuzeitlicheres? Ein R220 mit 1220L v3 war es jedenfalls nicht. Das quält sich mit der Aufgabe halt viel länger und verliert im Verbrauchsvergleich über die Zeit. Und so ein Atom C3758 mit seinen 25W der nur minimallst schneller in Passmark singlethread als der v3 ist, macht auch keinen Sinn oder?
Geben tuts das schon - aber zu kaufen bekommen? Ist halt die andere Frage.
Ich suche seit gefühlt nem Jahr schon bezahlbare Xeon D mit Ice Lake Basis. 8C würden mir sogar reichen. Vier RAM Slots und paar 1GBit Ports, min. 2x und vielleicht nen 10GBit Port als I-Tüpfelchen. Aber kostet entweder Unsummen oder ist nicht verfügbar. Die alte Kamelle auf Skylake Basis will ich mir nicht (mehr) geben. Und Epyc ist mir zu unhandlich und zu unflexibel. Ich brauch hier Zuhause auch keine dröflzig Cores und TB weise RAM.
Andere Frage:
Wollt ihr das eigentlich auch weiter so machen wie die Industrie es NOCH macht? Also so viele VMs auf einer Kiste, daß ein HWdefekt dieser gleich das sofortige digitale Koma bedeutet? Die Großen denken jetzt wohl auch darüber verstärkt nach. Oder was ist eigentlich Edge-Computing?
Naja, kommt doch in aller erster Linie auf die Anforderungen an?
Die Summe der VMs pro Host ist ja nicht sooo das Problem, wenn es genug Redundanzen gibt. Ich sehe kein Problem geclusterte Dienste auf wenigen Hosts zu konsolidieren, sofern irgendwie sicher gestellt ist, dass der zweite Node eben woanders läuft.

Das Problem bei diesen Diskussionen ist viel eher, dass die meisten Leute in Foren wie hier gar nicht im entferntesten wissen, was da alles noch mit rein spielt und so schnell eine pro/kontra Hersteller Debatte draus wird. Bspw. sind gerade die gesockelten Intel Modelle nach wie in aller Regel das Mittel der Wahl, wenn es eben nicht HPC oder rein Compute Stuff sein muss. Oder der Käufer eben einer der größeren Cloud Provider ist. Meiner Ansicht nach liegt das primär einfach dran, dass AMD mit den Epycs einfach unten kein gutes Angebot hat. Die Dinger sind riesen Trümmer, wo man dann anfangen muss Kompromisse einzugehen. Bei Rome war es noch so, dass es zwei CCDs für zwei Memory Channel brauchte um Write die volle Performance zu bekommen. Wat soll das? Warum soll ich mir da so nen 48 oder 64C Trümmer ins Rack stellen, wenn mir 16, 24 oder 32C dicke reichen? Die Modelle mit allen CCDs aktiv und vollem Cache haben dann halt nur vier oder sechs Cores pro CCD - was bei VMs größer vier/sechs vCPUs wieder problematisch wird. Je nachdem wie viel Traffic entsteht und ob der Cache das abgefangen bekommt.
Korrekt, aber nachvollziehbar. Wenn AMD von 8 Kernen pro CCD abrückt, dann verschiebt es die komplette Modellpalette. Im Desktop brauchst du dann eine Alternative für die 6 Kerner, weil AMD wohl kaum einen 12C CCD halb deaktiviert und dann als 7600x verkauft. Den 7900X bekäme man dann mit einem CCD hin und der 7950X hätte 24C. Das betreibt dir wieder Raubbau an den Threadrippern... Im Server ist es nicht so relevant ob man nun 8 CCDs mit 12 Kernen oder 12 CCDs mit 8 Kernen nimmt. Das Package bleibt riesig.
Das ist weniger wirklich ein Problem. Denn AMD hat auch mit Zen4 wieder den unteren Bereich der Modellpalette doppelt und dreifach belegt. Völlig unnötigerweise. Es ist noch nicht alles verfügbar - aber die Designs gibts ja schon. Genau genommen wäre es zumindest von außen betrachtet, viel sinniger, AMD würde MCM für Desktop auf HEDT only umbiegen und unten einfach mit APUs agieren. 4, 6, 8C per APU und alles drüber dann Dual CCD MCM. Ich würde aber davon ausgehen, dass sich das für AMD so einfach nicht rechnet - denn wenn man die schon wohlwollenden Zahlen bei MF vergleicht, den 16C will quasi gar keiner haben und der 12C ist meilenweit hinter dem 6 und 8C Ryzen abgeschlagen. War so bei Zen2 und 3. Sprich wer würde das dann kaufen? Lohnt der Aufwand? -> wahrscheinlich nicht...

Vielleicht gehen sie den Schritt aber dennoch irgendwann. Mit TR haben sie es vor gemacht. Das bedeutet dann, man lässt das Zeug einfach auslaufen und macht so den Weg "frei" für andere Produkte. TR ist effektiv eingestellt. TR Pro ist noch existent - aber TR Pro ist 1:1 Epyc. Raubbau bei TR kann es also gar nicht geben, weil es keine TR für Customer mehr gibt aktuell. Wir werden sehen ob das so bleibt oder ob da noch was kommt. Mit dem angekündigten ultra langen Support für die sTRX40 Boards haben sie da den HEDTlern gehörig eins vors Schienbein getreten. Wobei - gelogen haben sie auch nicht. Es IST noch die aktuelle Plattform und supportet wir es auch noch. Kommt nur nix mehr :haha:
 
Geben tuts das schon - aber zu kaufen bekommen? Ist halt die andere Frage.
Ich suche seit gefühlt nem Jahr schon bezahlbare Xeon D mit Ice Lake Basis. 8C würden mir sogar reichen. Vier RAM Slots und paar 1GBit Ports, min. 2x und vielleicht nen 10GBit Port als I-Tüpfelchen. Aber kostet entweder Unsummen oder ist nicht verfügbar. Die alte Kamelle auf Skylake Basis will ich mir nicht (mehr) geben. Und Epyc ist mir zu unhandlich und zu unflexibel. Ich brauch hier Zuhause auch keine dröflzig Cores und TB weise RAM.
CB verlinkt in der Meldung über diese auf jene Liste. Ich hoffe das passt :whistle: Da sehe ich ehrlich gesagt auch nichts. Auf mich jetzt bezogen. Der D-1602 Q2/2019 mit 2c/4t, 27W, 121$ und 3.2/2.5Ghz ist fast identisch schnell wie der erwähnte E3-1220L v2 Q2/2012 mit 2c/4t, 17W und 3.5/2.3Ghz. Ich erkenne das Angebot nicht.
D-1702 Q1/2022 mit 2c/4t, 25W, 124$, 1.7/1.6Ghz. Ich erkenne das Angebot auch hier nicht. Der ist auch gleich so populär, daß er noch nicht auf Passmark aufgetaucht ist. Das ist schon wirklich selten.

Naja, kommt doch in aller erster Linie auf die Anforderungen an?
Die Summe der VMs pro Host ist ja nicht sooo das Problem, wenn es genug Redundanzen gibt. Ich sehe kein Problem geclusterte Dienste auf wenigen Hosts zu konsolidieren, sofern irgendwie sicher gestellt ist, dass der zweite Node eben woanders läuft.
Nun. Wenn ich frage, ob "ihr das weiter so machen wollt wie die Industrie", dann mein ich ziemlich sicher das eigene private Umfeld des HW-Luxx Teilnehmers ;) Oder hat hier jemand geclusterte Dienste mit wenigen Hosts? ;) Auf die Industrie bezogen bliebe aber doch die Frage offen warum nun wieder Edge-Computing entdeckt wird. Nachdem wir nun bei Rechenzentren angelangt sind, die kleinen Stadtteilen entsprechen.

Das Problem bei diesen Diskussionen ist viel eher, dass die meisten Leute in Foren wie hier gar nicht im entferntesten wissen, was da alles noch mit rein spielt und so schnell eine pro/kontra Hersteller Debatte draus wird. Bspw. sind gerade die gesockelten Intel Modelle nach wie in aller Regel das Mittel der Wahl, wenn es eben nicht HPC oder rein Compute Stuff sein muss. Oder der Käufer eben einer der größeren Cloud Provider ist.
Falls ich das nicht mit einem anderen Launchvideo verwechselt habe kamen bei dem Epyc4 Launch, von extern überwiegend Cloud-Provider zu Wort?

Meiner Ansicht nach liegt das primär einfach dran, dass AMD mit den Epycs einfach unten kein gutes Angebot hat. Die Dinger sind riesen Trümmer, wo man dann anfangen muss Kompromisse einzugehen. Bei Rome war es noch so, dass es zwei CCDs für zwei Memory Channel brauchte um Write die volle Performance zu bekommen. Wat soll das? Warum soll ich mir da so nen 48 oder 64C Trümmer ins Rack stellen, wenn mir 16, 24 oder 32C dicke reichen?

Das ist weniger wirklich ein Problem. Denn AMD hat auch mit Zen4 wieder den unteren Bereich der Modellpalette doppelt und dreifach belegt. Völlig unnötigerweise.
Zwischen den beiden untereinander stehenden Zitaten gibt es so keinen direkten Zusammenhang oder?
Chronologisch betrachtet könnte man sagen, AMD hat eingesehen: Lieber haben (jetzt) als brauchen (davor). Am Ende entscheidet die Kundschaft was sich unten am besten verkauft. Von dem anderen Zeug was nicht so gut weggeht stellt man halt weniger her. Das Problem des Zuvielhabens ist nur dann eins, wenn man sich mit allerlei solchem Zeug gedankenlos die Lager vollknallt. Man wird wohl schon auskundschaften was am allermeisten geht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh