[Sammelthread] Zeigt eure Dual-Lösungen / Server / Workstation - Bilder + Kommentare

Das ist aber genau das Problem, weil der CPU-8PIN passt technisch auf den Graka 8-PIN ist aber wie @Bzzz schon sagt, falsch belegt.
Die Grafikkarten haben nämlich nicht 4x 12V und 4x Masse, sondern 3x 12V und 2 zusätzliche MassePINs - ergo 5.

Aber wie hat es Dir da die Riserkarte zerschossen? - der Anschluß ist doch an der Graka und die hat da ja einen eigenen Spannungsregelbereich... o.0
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist aber genau das Problem, weil der CPU-8PIN passt technisch auf den Graka 8-PIN ist aber wie @Bzzz schon sagt, falsch belegt.
Die Grafikkarten haben nämlich nicht 4x 12V und 4x Masse, sondern 3x 12V und 2 zusätzliche MassePINs - ergo 5.

Aber wie hat es Dir da die Riserkarte zerschossen? - der Anschluß ist doch an der Graka und die hat da ja einen eigenen Spannungsregelbereich... o.0

Heyho, ich verstehe nicht ganz was du mir sagen möchtest, auf die M60 und P40 kommt ein EPS 12V aka CPU-8Pin. Ich sehe das Probem mit 4x PCIe, habs auch gerade mit der Xeon Phi ausprobiert, aber das betrifft mich hier nicht.

Seite 10 u. 11 - M60 Product Brief
Seite 7 - P40 Product Brief

Bzgl. der Riser, an PIN 4 sind die Pins verschmolzen. Die Karte wird nicht direkt vom Netzteil gespeißt, sondern bekommt Strom über einen CPU 8-PIN über die Riserkarte.

Multimetermessung: https://imgur.com/a/TnUN8eO

der Anschluß ist doch an der Graka und die hat da ja einen eigenen Spannungsregelbereich... o.0

Kannst du mir das näher erläutern?
 

Anhänge

  • WrongPinOut.jpg
    WrongPinOut.jpg
    72,7 KB · Aufrufe: 107
  • EPS12V.png
    EPS12V.png
    24,9 KB · Aufrufe: 111
Zuletzt bearbeitet:
Ok, die Grafikkarte hat nen normalen CPU-Anschluß - aber der Anschluß auf der Riser ist ggf. anders belegt - das die Riser direkt ihren Strom mit über das Mainboard verteilt, hatte ich so noch nicht - Power-Planes kenn ich aber - je nach System eben aber mit eigenen Adapter-Kabeln die für bestimmte Anforderungen sind - oder ggf. auch nur für GPU's belegt sind.

Das Problem ist, das ab und an, der 8-PIN CPU auch in den 8-PIN Grafikkarten-Std.-Anschluß passt - die Belegung aber natürlich nicht...
 
Die Riserkarte hat auch die korrekte Belegung, wie gesagt ich habe die M60 mit dem gleichen Kabel betrieben, das hatte ich auf die P40 geswitched da ich kein zweites hatte. Ich habe das gleiche Kabel, beim gleichen Händler, bestellt und die Belegung ist gedreht. Damit ist es weder EPS12V noch PCIe.

Sieht aber gut aus, dass der Server eine Schutzschaltung hat.
 

Anhänge

  • Capture.PNG
    Capture.PNG
    162,1 KB · Aufrufe: 107
Das ist aber genau das Problem, weil der CPU-8PIN passt technisch auf den Graka 8-PIN ist aber wie @Bzzz schon sagt, falsch belegt.
Die Grafikkarten haben nämlich nicht 4x 12V und 4x Masse, sondern 3x 12V und 2 zusätzliche MassePINs - ergo 5.

Aber wie hat es Dir da die Riserkarte zerschossen? - der Anschluß ist doch an der Graka und die hat da ja einen eigenen Spannungsregelbereich... o.0

Das Problem ist gar nicht so sehr die Belegung 3+5 statt 4+4, die ist bei farbigen Kabeln eher noch hilfreich, um falsch gesteckte Verbindungen zu erkennen.
Das Problem ist eher, dass hier knallhart 12V auf Masse und Masse auf 12V gelegt wird, also massivster Kurzschluss mit vielen parallelen Kontakten. Wenn das Netzteil das nicht vorab erkennt, und je größer dessen Nominalleistung desto eher sieht das aus wie Normalbetrieb, dann schiebt es da erstmal >100% Nennleistung drüber bis OCP, UVP, OPP oder irgendwas ähnliches greift. Leiterbahnen ziehen da in der Regel den Kürzeren. Danach Steckverbinder, Kabel oft erst hinterher wenn da nicht der Chinamann am Querschnitt gespart hat.
100A/12V macht Nennlast 120mOhm, ein verhältnismäßig schlechter Kurzschluss in der Größenordnung ist gar nicht erkennbar. Anständige Kabel liegen unter 10mOhm Leitungswiderstand (einfach), Stecker oft bei 10-20mOhm Übergangswiderstand, Leiterbahnen eher ein paar dutzend mOhm.
 
Interessant, die Karte geht nie über 80 Watt, selbst unter Volllast und performt im 3D Mark schlechter als die M60.

Könnte man meinen der zieht nur Strom über den PCIe Slot, laut GPU-Z jedoch nicht.

Auch mit Inference Workloads, wofür die Karte gemacht ist, gerade mal On-Par mit der M60.

Strange.
 

Anhänge

  • P40.PNG
    P40.PNG
    265,2 KB · Aufrufe: 122
  • Lizenz.PNG
    Lizenz.PNG
    19,4 KB · Aufrufe: 118
Zuletzt bearbeitet:
Guten Morgen.

Auch wenn das jetzt nicht direkt ein Dually ist, ist das dennoch eine Workstation (E5 2680v4 ES 14 Kerne, 64GB Ram). Die Überbleibsel von meiner großen Workstation.

Ziemlich silent, nachdem ich den CNPS 10X Extreme mit den passenden Schrauben und Federn 2011-3 tauglich gemacht habe.

Das Board ( Supermicro X10SRA-F) habe ich für 80€ geschossen 🎉

Testaufbau:

IMG_20221117_154539.jpg


Kurze Zeit später lief die Kiste und ist in ein Gehäuse eingezogen

IMG_20221117_161004.jpg


IMG_20221117_161024.jpg
 
Zuletzt bearbeitet:
Wie wir besprochen haben: Das Board war DAS Angebot 2022 :fresse:

Aktuell gibt es bei mir auch ein neues Projekt was meine beiden SR-2 und das SR-X angeht. Material bestelle ich Heute (GreenTec Pro und 2020-Profile). Das SR-X bekommt zwei 200mm-Lüfter und einen 120er Lüfter (von Thermaltake aus dem 51TG), für die beiden SR-2 muss ich noch 4er-Sets Lüfter kaufen.
1668852234003.png
 
Habe gar nicht gewußt dass die Tesla Karten keinen Lüfter haben
Ist im Server halt nicht erforderlich. Da hast du häufig nur Passivkühlkörper und irgendwo ne Lüfterwand, die mit entsprechend hohem statischen Druck einmal durch den ganzen Server pustet
 
Ist im Server halt nicht erforderlich. Da hast du häufig nur Passivkühlkörper und irgendwo ne Lüfterwand, die mit entsprechend hohem statischen Druck einmal durch den ganzen Server pustet

Ja der Ventilator ist ein guter Puster, der war aber schon vorher wegen der Ramkühlung da.
Beitrag automatisch zusammengeführt:

20221125_033130[1].jpg
 
1669725682815.jpeg


Also ich bleib dabei: 500-700 tacken finde ich nicht günstig, egal ob mit oder ohne Sockelschutz.
 
Fuer 500-700 haette ich mir das Board auch nicht gekauft ... :fresse:
 
Ich finde nur 499 oder 699 für ein Supermicro 2011-3 Board. So günstig finde ich das jetzt nicht
Was gefällt dir daran nicht?

Hat sogar 2x E5-2620v3 SockelschutzCPUs. Und RAM, den man perfekt unter den kippelnden Tisch legen kann.
 
Ich habe zwei Dual-Systeme (ein R620 mit 2* 2630L V2 und ein R620 mit 2* E5-2670 V2). Die haben schon genug Power und haben alle RAM-Bänke vollbestückt. Ich suche eher etwas im Single-Sockel Bereich mit 64 GB RAM. Aber ich glaube nicht, dass ein E5 V4 viel sparsamer als ein V2 sein wird.
 
Evtl würde ich das Set aus E5 2680v4, Supermicro X10SRA-F und 64GB DDR4 Reg ECC verkaufen.
 
Ein SM X10SRI-F mit E5-1620v4, 16GB RAM, 2x consumer SSD und SM 1+0 redPSU kommt im WinDOS idle auf ~35W.
Falls das was hilft.
 
Zuletzt bearbeitet:
Ein SM X10SRI-F mit E5-1620v4, 16GB RAM, 2x consumer SSD und SM 1+0 redPSU kommt im WinDOS idle auf ~35W.
Falls das was hilft.
Das ist ja ganz ok. Spiele mit dem Gedanken mir ein Dual-Sockel Board und 2 Xeon Gold 6132 (oder in die Richtung) zu kaufen. Ich glaube da kommt man aber nicht unter 100W weg, oder?
 
Ja, 100W ist so die Größenordnung für halbwegs moderne dual-socket Systeme im idle. Es ist meiner Erfahrung nach immer mehr als das Doppelte eines vergleichbaren Systems mit nur einer CPU.
 
Ein dual 32C EPYC, 1TB RAM, 16 Enterprise SSDs und einer Tüte NICs kommt im ESX IDLE auf 350W.

Bei dem X10SRI-F oben sind es im ESX glaube runde 55W oder sowas.

Sprich, es ist auch entscheidend, was für nen OS nutzt man und was das an Powerfeatures kann.
 
Ein 32-Kerner Epyc mit 1TB RAM, 16 Enterprise-SSDs und einer Horde NICs erreicht außer im Qualbetrieb bei einem Luxxer zuhause auch nie den Idle-Status :fresse:
 
Ein dual 32C EPYC, 1TB RAM, 16 Enterprise SSDs und einer Tüte NICs kommt im ESX IDLE auf 350W.

Bei dem X10SRI-F oben sind es im ESX glaube runde 55W oder sowas.

Sprich, es ist auch entscheidend, was für nen OS nutzt man und was das an Powerfeatures kann.
Ja, was die Teile im Teillastbetrieb bzw. ohne Powermanagementbasteleien brauchen, weiß ich... Wir haben die in der Arbeit (Uni) allerdings (Stichwort: Anreize...) auch eher nicht nach Idle-Effizient erworben (obwohl die manchmal schon ideln ---). Vmtl. ist es privat deutlich sinnvoller, einfach AM4-16Kerner nebeneinander zu stellen (wenn man mit der eingeschränkten Speicherbandbreite klarkommt, was der Fall sein dürfte :d).
 
Ein 32-Kerner Epyc mit 1TB RAM, 16 Enterprise-SSDs und einer Horde NICs erreicht außer im Qualbetrieb bei einem Luxxer zuhause auch nie den Idle-Status :fresse:
Das hoffe ich doch ganz stark. Ich habe es nur letztens im ILO gesehn und mal "abgespeichert".
Beitrag automatisch zusammengeführt:

Vmtl. ist es privat deutlich sinnvoller, einfach AM4-16Kerner nebeneinander zu stellen (wenn man mit der eingeschränkten Speicherbandbreite klarkommt, was der Fall sein dürfte :d).
Naja, wenn du Solarstrom hast, ist das wohl der einfachste Weg die Bude warum zu bekommen. Nur die Anschaffung ist so nen Thema... :fresse:
 
AMD Instinct MI25

Es handelt sich dabei um eine reine Computekarte. Funktioniert mit AMD ROCm mit Tensorflow und PyTorch. Die Karte kann MxGPU (vGPU-"Konkurrenz"), hat jedoch als MI25 keine Videotranscoder. Die Karte wird unteranderem in Microsoft Azure in der "NVv4" Instanz angeboten.

Lässt sich aber auch auf die WX9100 flashen und dann der MiniDisplayPort nutzen.

Zusätzlich sind noch zwei Tesla P4 angekommen, sind schon im Server, die P40 ging wieder zurück ;)

Meine zwei E5-2658Av3 gehen die Tage in den Marktplatz, wenn jemand möchte gerne melden.
 

Anhänge

  • Card1.jpg
    Card1.jpg
    1,2 MB · Aufrufe: 86
  • Card2.jpg
    Card2.jpg
    1,5 MB · Aufrufe: 80
Ich garantiere euch, wir werden noch miterleben das es Systeme gibt in denen der Taskmanager die Anzahl der Kerne NICHT mehr gescheit darstellen kann. :bigok:
Beim Anschauen des aktuellsten Linus Tech Tips-Videos habe ich mich an diese Aussage erinnert - Tada, es muss gescrollt werden, allerdings sieht das auch nach einer relativ geringen Auflösung aus:

 
Also knapp 900 Cores / 1800 Threads gehen noch. Dann kannst sogar Doom im Taskmanager spielen.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh