underclocker2k4
Mr. Alzheimer
Die aktuellen EVAs sind mit 4 oder 8 10GBE Interfaces ausgestattet. Da geht so einiges an Druchsatz. Sprich, 8GB/s muß man erstmal verarbeiten können.
Nen Cluster ist nicht immer möglich, der Vorteil beim Clustern ist klar, dass man 1000e kleine Maschinen hat als eine Hand voll große.
Die 8 Socket bekommt man btw auf 4HE unter und wenn man die Performance wirklich in nur einer Maschine haben will, dann muß man wohl auf sowas zurückgreifen. Es ist nicht jede Anwendung in der Lage Berechnungen zu Clustern oder anderweitig auszulagern.
Es wird auch mit diesen 8 socket maschinen das selbe sein wie mit allen anderen vorangegangen, man kann die Anzahl wohl an einer Hand abzählen. Das ist wohl auch der Grund, warum man nur eine CPU im Sormtiment hat.
Ähnlich wird es wohl bei den quad socketmaschinen passieren. Diese sind zwar öfter anzutreffen, der Markt verlangt aber in der Regel nach dual Maschinen, diese lassen sich auch noch gut in 1U Pizzaschachteln stecken lassen, oder aber in BCs. Wobei es auch BC Einschübe mit quad socket gibt.
@poison nuke
Wie willst du eine Bladecenter mit über 2kW Abwärme einiger Maßen stromsparend kühlen? Die Luft bekommt man nur mit Gewalt durchs BC gezogen.
Das selbe gilt für zB für Super Micro Computer, Inc. - Products | SuperServers | 1U | 1042G-TF sowas. Da hast du mit locker 500W bei Vollast ordentlich was abzuführen und auch hier wieder das Problem, dass die Packdichte entsprechend hoch ist.
Und mit 2k Core/42U sind das schon ein paar kW die man da durch das Rack prügeln muß.
Klar, gerade im Hosting gibt es genügend Racks die viel IDLEn, aber das gilt nicht für alle.
Die 18°C waren nur nen Beispiel. Klar, solche Temps macht man >>mittlerweile<< nicht mehr im RZ.
Man ist hier ja auch schon andere Wege gegangen um die Rechner kühl zubekommen. Nichts destotrotz gibt es eben genügend Anwendungen die es eben notwendig machen auf eine höhere Packdichte als 2-way auf 1U zu gehen.
Nen Cluster ist nicht immer möglich, der Vorteil beim Clustern ist klar, dass man 1000e kleine Maschinen hat als eine Hand voll große.
Die 8 Socket bekommt man btw auf 4HE unter und wenn man die Performance wirklich in nur einer Maschine haben will, dann muß man wohl auf sowas zurückgreifen. Es ist nicht jede Anwendung in der Lage Berechnungen zu Clustern oder anderweitig auszulagern.
Es wird auch mit diesen 8 socket maschinen das selbe sein wie mit allen anderen vorangegangen, man kann die Anzahl wohl an einer Hand abzählen. Das ist wohl auch der Grund, warum man nur eine CPU im Sormtiment hat.
Ähnlich wird es wohl bei den quad socketmaschinen passieren. Diese sind zwar öfter anzutreffen, der Markt verlangt aber in der Regel nach dual Maschinen, diese lassen sich auch noch gut in 1U Pizzaschachteln stecken lassen, oder aber in BCs. Wobei es auch BC Einschübe mit quad socket gibt.
@poison nuke
Wie willst du eine Bladecenter mit über 2kW Abwärme einiger Maßen stromsparend kühlen? Die Luft bekommt man nur mit Gewalt durchs BC gezogen.
Das selbe gilt für zB für Super Micro Computer, Inc. - Products | SuperServers | 1U | 1042G-TF sowas. Da hast du mit locker 500W bei Vollast ordentlich was abzuführen und auch hier wieder das Problem, dass die Packdichte entsprechend hoch ist.
Und mit 2k Core/42U sind das schon ein paar kW die man da durch das Rack prügeln muß.
Klar, gerade im Hosting gibt es genügend Racks die viel IDLEn, aber das gilt nicht für alle.
Die 18°C waren nur nen Beispiel. Klar, solche Temps macht man >>mittlerweile<< nicht mehr im RZ.
Man ist hier ja auch schon andere Wege gegangen um die Rechner kühl zubekommen. Nichts destotrotz gibt es eben genügend Anwendungen die es eben notwendig machen auf eine höhere Packdichte als 2-way auf 1U zu gehen.
Zuletzt bearbeitet: