Problem mit Supermicro X9DRi-F

Hab ich eben gemacht - und das Ergebnis ist klar: das Netzteil ist die Ursache. Mit nem Seasonic X 650 verbraucht der SM Rechner jetzt auch nur 113W idle.
Mich erstaunt allerdings, dass beim Asus Rechner die Graka und der größere Speicher nicht für mehr Verbrauch sorgen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aktuelle Grafikkarten gehen sehr weit herunter was die Leistungsaufnahme angeht im Idle. Auch wird dein Asus wohl weniger PCIe Lanes und keinen SAS-Anschluss haben? Diese beiden sorgen nämlich oft für einen höheren Verbrauch.
 
SAS hat das SM auch nicht - und PCIe Lanes hat das Asus mehr. Vermutlich liegt es an den Lüftern - 5 Dicke im SM und nur 3 Langsame im Asus.

p.s. im Asus hab ich einige PCIe Slots ausgeschaltet (bootet schneller) - vielleicht hilft das auch.
 
Zuletzt bearbeitet:
Ja, sonst sucht es auf jedem Slot ein Graka-BIOS
 
Die Probleme mit dem SM Board sind immernoch nicht alle beseitigt: Bei XP x64 funktioniert das Ausschalten nicht - statt auszugehen kommt ein BSOD - crash im iaStorA.sys :(
Der Versuch, XP x64 auf nem RAID1 zu installieren, endete damit, dass Windows zuerst die Festplatten untersucht hat und dann gemeldet hat, es seien keine vorhanden :(
 
Schaut so aus, als gibts da Probleme mit dem Treiber für den SATA Controller. Vermutlich kommt die Version einfach nicht mehr mit XP klar... Hast du mal geschaut, obs bei Intel auf der Seite Treiber gibt, die noch für XP freigegeben sind?

Der Versuch, XP x64 auf nem RAID1 zu installieren, endete damit, dass Windows zuerst die Festplatten untersucht hat und dann gemeldet hat, es seien keine vorhanden

Microsoft'sche Logik die man nicht verstehen muss -.- Aber schön, dass Windows von der Platte startet um die dann zu sagen, dass es die Platte nicht findet...

Hast du vielleicht die Möglichkeit einen anderen (externen) Controller, dessen Treiber mit XP noch klar kommen?
 
Der Treiber ist für XP x64 - exakt dieser Treiber funktioniert auf dem Asus Board perfekt. Und ich brauche Performance - es muss SATA 6GB sein.
Aber der größte Witz ist: wenn ich auf dem Recher W7 laufen habe, kann ich auf andere Rechner im Netzwerk nicht zugreifen. Mit jedem anderen Rechner mit W7 geht das völlig problemlos.
 
Habe jetzt eine radikale Lösung gewählt: Ich hab das Board durch ein Intel S2600CP2 ersetzt. Das hat wie das Asus keinerlei Probleme mit XP x64. Aber verarscht fühle ich mich trotzdem:
1. Es hat entgegen allen Beschreibungen kein KVM mit dedicated LAN. Das muss man dazukaufen (RMM4 - 68€).
2. Es gibt keine Bedienungsanleitung - nur diverse Kurzanleitungen, auch auf der CD ist nichts dergleichen.
3. Ich hab den Eindruck, Intel hat alles getan, damit es inkompatibel zu SM Gehäusen ist - für Netzteil und Front Panel brauche ich Verlängerungen :(
Positiv zu vermerken ist der Stromverbrauch: idle 91W mit dem Seasonic X650.
 
Zuletzt bearbeitet:
So ein Aufriss wegen obsoleter Software, wo es Virtualisierung gibt.
 
Hi Kullberg,
das mit dem RMM4 hätte ich dir sagen können. KVM ist zwar mit dabei aber nicht als dedicated LAN. Die RMM4 ist also nicht zwingend notwendig.
Ich habe ein S2600CP4 und leider ein kleines Problem unter W2K8R2.
Ich bekomme einfach zwei Treiber nicht sauber installiert (bei mir war keine CD dabei - frag' nicht...) und damit funktioniert die Intel Active System Console nicht, welche ich jedoch auch gerne zum fliegen bekommen würde.
Hast du hier einen Tip für mich?
S2600CP4-1.JPGS2600CP4-2.JPGS2600CP4-3.JPG

Zum Handbuch: Es gibt eins dazu jedoch findet man das nicht unter dem Board :wall:
Such mal nach P4000M Serversystem bei Intel. Da sollte dann auch was zum C2600CP auftauchen.
Wenn nicht dann melde dich einfach, dann schicke ich es dir.

Grüße
Mad
 
@TCM
Was ist denn die obsolete Software? WinXP? Schonmal mit einer Virtualierungslösung versucht maximale Performance aus einem System zu holen?

Da haben native Systeme noch immer den Vorteil.
 
@TCM
Du verstehst leider nicht, was ich mache :(

@Madrobot
Ohne das RMM4 ist kein Zugriff von extern möglich - und KVM hat man dann auch nicht. Nur IPMI, was aber offenbar nicht angesprochen werden kann.
Übrigens hat offenbar keins der Intel Boards KVM - man muss es bei allen nachrüsten.
Bei meinem Intel S5520SC hab ich ein RMM3 in Verwendung - da ist sogar ein Grafikchip auf dem Modul.

Die CD ist ein ISO-Download (Intel® Deployment Assistant iso image file for S2600 series platforms). Da ist Intel allerdings ein Fehler unterlaufen - man bekommt ne CD für ein falsches Board :(

Ich hab bei mir probeweise W7 installiert - da gingen die Treiber (NIC und Grafik) auch nicht. Ich hab die dann von der Supermicro CD genommen - das geht. Versuch doch, die Treiber von SM downzuloaden.
Übrigens ist unter W7 der idle Verbrauch noch geringer: mit voller Lüfterbestückung knapp 80W.
 
Der RMM Umstand ist bei Intel leider immer gegeben. Asus ist da aber nicht immer besser. SM hat da vor einiger Zeit die Kurve bekommen und das fest auf die MBs gebannt. (versionsabhängig)
 
Stimmt, so schön wie bei SM ist es sonst nur bei einigen Tyan Boards. Asus scheint jetzt aber das ASMB6 den Server Boards beizulegen. Was den Nachteil hat, dass es nicht extra verkauft wird und ich deshalb mein Asus Board nicht ins Rack verfrachten kann.
 
Jemand, der eine Anwendung, die maximale Rechenleistung verlangt, virtualisieren will, sollte da lieber nicht mitreden.
 
Weil das Wichtigste bei einem Business ja ist, dass man 5% Leistung rauskitzelt, die Hardware außerhalb der Specs betreibt und nicht unterstützte Legacy-OS auf aktueller Hardware betreibt.

Sag doch einfach, dass es nicht geschäftlich ist, aber unterstell mir nicht, ich wüsste nicht, wovon ich rede.
 
Genauso sinnvoll und effektiv eine Virtualisierung in vielen Bereich ist, genauso unsinnig ist sie in anderen Bereichen. Und wenn es darum geht maximale Performance aus einem System zu holen, ist eine Virtualisierung unsinnig und weniger effektiv als ein natives OS.

Und das gilt nicht explizit für Kullberg sondern allgemein und das auch, oder vor allem im Produktivumfeld. Denn gerade da ist jede Zeitersparnis pures Geld. Ein System was 24/7 rechnet erarbeitet bei einer 5% höheren Performance in einer Woche einen Vorteil von 8h raus. Und das rechnet sich.

Und in gewisser Weise ist das auch business, daher ist das durchaus legitim, das Meiste aus der Investition rauszuholen, was durch den Einsatz geeigneter Software gelingt.

Beim Übertakten stimme ich dir zu, das gehört nicht un eine Produktionsumgebung.
 
Zuletzt bearbeitet:
Es wird nichts außerhalb der Specs betrieben. Und es ist geschäftlich. Und ich will kein Netzwerk mit unterschiedlichen Betriebssystemen laufen lassen. Das wäre ne Frickel Lösung. Und ich hab überhaupt keine Lust 30 W7 Lizenzen zu kaufen - und noch viel schlimmer W7 auf 30 Rechnern zu installieren.
Ich hab übrigens mal (vor Jahren) Computer Schach auf ner VM laufen lassen - die Performance war unterirdisch.

Edit: Ich bin übrigens inzwischen der Meinung, dass das SM Board irgendwie defekt ist, denn auch mit W7 gab es einige Sachen, die nicht richtig funktioniert haben. Was mich ärgert ist die Zeit die ich damit verbraten habe - in der hätte ich das Geld für 2 neue Boards verdienen können.
 
Zuletzt bearbeitet:
Genauso sinnvoll und effektiv eine Virtualisierung in vielen Bereich ist, genauso unsinnig ist sie in anderen Bereichen. Und wenn es darum geht maximale Performance aus einem System zu holen, ist eine Virtualisierung unsinnig und weniger effektiv als ein natives OS.
Erzähl das mal IBM da läuft auf den HPC-Knoten mit Power7 CPU grundsätzlich der Hypervisor.

---------- Post added at 21:39 ---------- Previous post was at 21:38 ----------

Es wird nichts außerhalb der Specs betrieben.
Ist das OS für das Board zertifiziert?
 
Erzähl das mal IBM da läuft auf den HPC-Knoten mit Power7 CPU grundsätzlich der Hypervisor.


Weil sie zu Faul sind und lieber Software auf den Hypervisor schreiben, als sie jedes mal an die HW anzupassen.

Du kannst mich gerne eines besseren belehren, aber steigt durch eine zusätzliche Abstraktionsschicht die Leistung der HW? Oder hat man nicht eher den Performancevorteil, wenn man die Software auf die HW draufschneidert.

V-Nodes ermöglichen nur eine einfachere Verteilung der HW, sorgen aber nicht für mehr Rohleistung. Es geht hier einzig und allein um Kostenminimierung und Multifunktionalität. nativer Zugriff auf Resourcen = höchste Performance (nur nicht mehr flexibel)

HPC heißt nicht maximale Performance, sondern nur hoch performance. Maximale Performance ist es dann, wenn mehr nicht aus der HW rauszuholen ist und da ist nunmal der native Zugriff auf sämtliche Resourcen jeglicher Zwischenschicht überlegen.
 
Zuletzt bearbeitet:
Ist das OS für das Board zertifiziert?
Das Board ist 'rausgeflogen. Es wird nicht betrieben. Somit wird es auch nicht außerhalb der Specs betrieben, da es garnicht betrieben wird.
Meine einzelnen Rechner sind alleine zu schwach für die Aufgaben - deshalb habe ich sie zu Clustern zusammengefasst. Da hilft keine Virtualisierung.
 
Bitte bitte, keine Power7 Seitenhiebe hier! Es sind extra CPU-Cores für Virtualisierung, Speicherverwaltung und Netzwerk Hardwaremäßig zugeteilt.
Ein AIX oder zOS sollte man nicht mit Solaris vergleichen oder nem kleinen Windows.
Es vergleicht ja auch keiner einen Opteron oder Xeon mit einem ARM der in einem 100 Euro Smartphone drinn ist ;)
 
Weil sie zu Faul sind und lieber Software auf den Hypervisor schreiben, als sie jedes mal an die HW anzupassen.
Irrtum, das wird sehr wohl getan, zumindest unter AIX und Linux for Power. Für i wird die Software ohnehin nie in Maschinencode compiliert, sondern in Code für eine virtuelle Maschine. HPC Anwendungen waren aber noch nie die Stärke von OS/400.
Du kannst mich gerne eines besseren belehren, aber steigt durch eine zusätzliche Abstraktionsschicht die Leistung der HW?
Viel wichtiger ist, daß durch Virtualisierung die Leistung nicht notwendigerweise abnimmt, und man kann die Verfügbarkeit von der Hardware durch Virtualisierung verbessern. Im HPC Bereich ist man momentan dabei zu erforschen wie man die Zuverlässigkeit erhöhen kann. Wenn man tausende Knoten für einen Job allozieren muß, dann muß man immer daran denken, daß Knoten ausfallen können. Daher sind dann so Konzepte wie FTB in Kombination mit BLCR entstanden. In letzter Zeit widmet man sich aber verstärkt Virtualisierungslösungen. Mal sehen was sich durchsetzt.
 
Das ist doch kein Seitenhieb. Die HPC hypersivorgeschichte von IBM ist nur die Antwort auf die Anforderung der kunden. Dies kann man mit einem ESX nicht mehr vergleichen. Dennoch ist es eine HPC Adaption der normalen Virtualisierung.

Auch ist es eben so wie es ist, Abstraktion kostet Leistung (ohne Wertung ueber die Hoehe) gegenueber einer nativen Implementation, kann aber auch mit Vorteil aufwarten. Dies muss man eben abwaegen.

Dennoch aendert das ja nichts an der Sachlage. Ich kann mich jedenfalls an keinen Fall erinnern, wo ein virtualisierter Rechner mehr Power generiert hat als die selbe Anwendung nativ implementiert. (gerne koennen gegenteilige Erfahrungen dargelegt werden)

Das hat auch nichts mit Xeon vs ARM zu tun.
Der Vergleich waere eher, wenn man einen Xeon ausbremst, generiert er ploetzlich mehr Leistung.

@jdl
Die Rede war von maximaler Performance, nicht welche Vorteile die Virtualisierung gegenueber direkter Umsetzung hat. Dies ist gelaeufig und braucht nicht naeher erlaeutert werden, das sollte doch klar sein.
 
Zuletzt bearbeitet:
*seufz* muss ich wirklich nach der Beschreibung der Power7 Architektur suchen?
Solaris Zones oder BSD Jails kosten ja auch nicht wirklich viel extra CPU-Zyklen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh