Multi-Sockel-Hardwaretreff Part 2

Octal quasi :-) für mich war eher interresant wie sich der höhere Ramtakt 1600 zu 1333 Mhz und die mehr Ranks ,Dual zu Duad auswirken. Scheint vorallem beim Schreiben was zu bringen hab aber auch keine Ahnung ob Bei Sandy EP der Uncoretakt so entscheiden ist wie bei z.B Haswell E ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier mal Cinebench C15 unter Win10 Pro 1607 über rDesktop geladen C15 snippet HWL.jpg kann also sein das noch last auf dem Sys ist wegen signal transkodieren (4K res) hab zur zeit kein 2. Monitor um es "sauber" zu machen.
 
So - die beiden Tesla M2090 haben ihre neuen Lüfter bekommen. Jeweils 2x Scythe Kaze Jyu Slim. Da die Teslas keine Ausgänge haben, sondern jeweils nur ein Dual-Slot-Bech, habe ich hinten an den PCI-Slots außen noch einen Scythe Kaze Jyu Slim mit 1000 U/min angebracht, um die Abwärme aus dem Gehäuse zu bringen.

Innenleben:
Xeon E5-2670 (C2 SR0KX)
AsRock EP2C602-4L/D16
128 GB PC3-12800R (also 1600 MHz) ECC Reg von Hynix
Quadro NVS 300 PCIe x1 Version - im x4 2.0)
2x Tesla M2090 - im PCIe Nr.2 (CPU1) und PCIe Nr.5 (CPU2) - beide x16 2.0
2x Samsung 850 Pro 256 GB
FSP Aurum PT 1200W (80 Plus Platinum)
Lian Li PC-A70F

Kühlung:
Lian Li 6-Kanal Lüftersteuerung
Alpenföhn Ben Nevis (2x)
- vorn: 2x 140mm + 1x 120mm (im Lian Li Expansion HDD Kit)
- oben: 1x 140mm
- hinten: 2x 120mm + 1x 100mm (siehe Beschreibung oben)


Fotos folgen.

:drool::fresse2::hail:
 
Also ich habe den Rechner zu mir in die Arbeit geschleppt. Dort läuft ANSYS und Matlab aktuell.
Besonders unter ANSYS Fluent, aber auch im Mechanical gibts durch die Teslas einen Boost. Je nach Art des Modells ist es ein wenig bis viel schneller :love:
Blender rendern geht damit auch schneller als mit den beiden E5-2670, aber das benötige ich nicht beruflich :p

@ Dunkler Rabe

Ich habe noch eine M2075 6GB (inkl. Slotblech) übrig und eine C2050 3GB. Falls du mal Interesse haben solltest melde dich :)
 
Zuletzt bearbeitet:
Ne, vielen Dank, aber ich hab da keinen Bedarf :) Wollte nur mal hören was jemand privat so mit Teslas macht, weil das ja schon eher unüblich ist, aber wenn du den Rechner im Büro stehen hast, dann macht das natürlich Sinn :)
 
Ich hätte nochmal richtiges Eisen im Anhang. Wird abgebaut und hat Schrottwert. Teil einer guten alten SUN M9000
IMG_20170424_120332.jpg
 
Hm, wird abgebaut und dann entsorgt? - die Netzwerkkarten in den SUNs, sind die speziell? - Hast Du generell paar mehr Infos zu dem Teil - nur aus Interesse, brauchen tut das sicher keiner daheim, was hat das mal Strom verbraucht?
 
Ich meine die liegen, wie unserer Storages, um die 20KW. Ich bin vor Jahren aus der Abteilung weg, auch wenn ich Solaris-Zertifiziert bin. Ich mach Storages/SAN.
Die FC Karten sind Qlogic, ich meine da ist keine angepasste FW drauf. Bei den Netzwerken weiß ich es nicht. Wenn die Firmen die nicht zurück nehmen wird entsorgt, korrekt. In der Regel bleibt ein Schrottpreis. Mein Chef hat zu Übungszwecken ne HDS, ehamals Enterprise, von ~1-2Mio für nen tausender gekauft.

SPARC Enterprise - Wikipedia
http://www.oracle.com/us/products/servers-storage/039222.pdf
 
Kennt jemand gerade günstige Bezugsquellen für Mainboards mit 2x Sockel 2011? Ich würde gerne eine low-cost Workstation für CFD zusammenklatschen, aber ein neues Board wäre mal eben die Hälfte des Budgets...

Edit: Mein billigstes Angebot so far: INVENTEC B800 10GB SFP+ Motherboard Dual 2011 Socket Chipset Intel C602 EATX | eBay
Noch nie von dem Hersteller gehört und ich finde praktisch keine Infos zu dem Board. Ich glaube da muss ich weiter suchen.
 
Zuletzt bearbeitet:
@amdahl
Dass das Teil keine normale NICs hat hast Du schon gelesen?
Ansonsten hat das Brett narrow ILM Sockel - da ist die Auswahl an Kühlern eher bescheiden.
 
Zuletzt bearbeitet:
Ja das ist wirklich nicht mein Wunschboard. Es hat so ziemlich alles was man nicht will.
Die Suche günstigen Alternativen gestaltet sich aber weiterhin schwierig. Ich sehe es schon kommen dass ich am Ende frustriert 330€ für ein neues AsRock-Board auf den Tisch lege.
 
...Ich sehe es schon kommen dass ich am Ende frustriert 330€ für ein neues AsRock-Board auf den Tisch lege.

Was auch nicht die schlechteste Entscheidung wäre, ich kann es nur empfehlen...
 
Der Narrow-ILM ist ja noch das geringste Problem bei dem Board :d Supermicro und Noctua haben eine Auswahl an Kühlern dafür.

Mir würden da so Sachen einfallen wie:
Angeblich EATX, aber man sieht auf dem Bild schon, dass es kein EATX-Format hat. Der Netzwerkport, der "nur" ein SFP ist, liegt auch nicht mehr im Bereich eines Standard-I/O-Panels würde ich meinen. Es gibt keine PCIe-Slots. Der Support ist zweifelhaft, weil das ja offenbar irgendein Custom-Design/OEM-Board ist.

Also eigentlich ist das Ding unbrauchbar außer für den Zweck wofür es ursprünglich mal konzipiert wurde, welcher auch immer das war.

Gebrauchte Boards kaufen ist halt schwierig, insbesondere bei Profihardware, weil niemand seine Boards verkauft, falls überhaupt Standardboards zum Einsatz kommen und oben keine proprietären Designs.
 
Zuletzt bearbeitet:
@DunklerRabe
Mit Noctua narrow-ILM Kühlern, speziell Noctua NH-U12DX i4 hab ich übel Schiffbruch erlitten. Wenn man die quer einbaut (ergibt gute Kühlung), kann man bei diversen Boards die innenliegenden RAM Slots nicht belegen. Und wenn man sie längs einbaut, ist die Kühlleistung so schlecht, dass fette CPUs nicht ausreichend gekühlt werden. Ich hatte Glück - ich hatte noch ein Paar Noctua NH-U12DX rumliegen. Die alten Kühler mit den neuen Halterungen haben dann genau gepasst. Ich würde von diesen Kühlern ganz klar abraten - auch wenn ich ansonsten Noctua sehr überzeugend finde.
 
Es geht sich denke ich eher um den Port der da auf höhe der eigentlichen PCIe-Steckplätze hängt.
 
Das was da aussieht wie LAN dürfte nur ein management-port sein.
In ~4 Stunden weiß ich ob ich das Projekt weiter verfolge oder es erst mal begrabe.
 
also ich würde sagen, das ist der IPMI, weil aufgelistet ist ja: Single IPMI Management port (avocent IPMI)

Interessant finde ich die Alternative für RJ45, wenn man kein SFP+ machen möchte -> dabei sind doch extra 1x PCIe 16x Slot & 1x PCIe 8x Slot 2 Erweiterungsslots vorhanden.
Wobei nix weiter zu erwähnt ist, der SFP+ scheint nur zu funktionieren, wenn 2 CPUs drauf sind...

vlt. war das ja ein Cloud-Server, dem reicht dann ggf. ja 10G über SFP+, IPMI und gut...

An sich finde ich das Board schon interessant, nur ist natürlich die Frage nach dem passenden Gehäuse (19" Servercase) wieder etwas Problematisch, vorallem wegen der Anschlüße :(
 
Ick freu mir :banana:
Fujitsu Celsius R920 - Intel Xeon E5-2643 x2 4051554434595 | eBay
Sieht nicht nach viel aus, aber für meinen Zweck sind die CPUs fast ideal.
Ich danke euch allen für die rege Teilnahme. Vorerst bin ich versorgt.

Da Woozy auch auf der Suche ist will ich euch meinen zweiten Favoriten nicht vorenthalten: Intel Server Mainboard | S2600CP4 | Dual Sockel 2011v1 | DDR 3 675901116732 | eBay
Da steht zwar etwas von 2011-1, aber der Sockel ist ziemlich sicher ein normaler 2011 für Xeon E5-2xxx v1 und v2. Steht auch so im Handbuch.
Was genau der C600-A Chipsatz nicht kann im Vergleich zum normalen C602 habe ich aber noch nicht rausgefunden.
 
Zuletzt bearbeitet:
@ amdahl Also für den preis.. WoW :d Das Board schau ich mir mal an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh