AMD FX-6x00 als Server CPU

Der Unterschied von gezwungenen ~5% Taktsenkung zwischen Top Sandy-Bridge 2700K auf Top 8 Kern Xeon ist aber bei weitem kleiner als der Unterschied zwischen Top Bulldozer FX-8170 (3,9GHz) bzw. FX-8150 (3,6GHz) auf die kleinen acht Moduler mit 2,6/2,7GHz. Was mal schlappe 33% weniger sind.
Wo also beim Intel aus vier zu acht Cores auch locker 80-90% Performance Plus drin sind, so verpufft beim AMD aktuell der Performancegewinn durch den niedrigeren Takt zu einem deutlich größeren Teil.


Das man in einem gewissen Maß den Takt senkt um die Effizienz zu erhöhen, ist ja durchaus verständlich, aber wo bei vier Modulen schon 125W TDP auf dem Papier stehen, so bleibt eben deutlich weniger Luft um die Anzahl der Einheiten zu verdoppeln.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne vergleiche hier bitte nicht die Desktop Bulldozer mit den Opterons. Habe es auch durch eigenen Versuch heraus finden müssen, dass die Speicheranbindung leider nur die Hälfte beträgt wie bei den Opterons. Wenn ich noch richtig liege war auch AMD in der Praxis mit max 40gbyte/sec? da deutlich vor Intels Xeon Prozessoren wenn man genügend Threads auf die CPU los lässt. Und wie underclocker auch schön angemerkt hat, die Preise gehen recht schnell auseinander, was gerne vergessen wird. Auch hat deine Sockel 2011 CPU ein doppelt so breite Speicheranbindung wie dein Sockel 1155 System, weswegen es nicht verwundert, das es mit mehr Cores auch skalieren kann.
 
@sonne

2700k vs 2987w // 95W vs 150W -> 50%

8150 vs 6282 // 125W vs 140W -> 25%

AMD kann sicherlich auch mehr, ka was die VRM Specs sagen...

Geht man von den 50% TDP steigerung aus, so landet man bei fast 200W. Damit kann man also locker 3GHz auf nem 8 Moduler fahren.

Nur wuerde das AMD nicht machen, da eine solche CPU eher im "Rechen"markt anzusiedeln ist und da kommt AMD nicht rein.

Und klar heizen die teile von AMD.

@blue
Das mit der "schlechten" Bulldozerspeicherperformance liegt an dem Zusammenbappen der Opteron. Jeder Opteron besteht aus 2CPUs, daher auch 2x dualchannel und nicht quadchannel. Dad hatten wir aber schon.
 
Das ist kein Gesundbeten von irgendwas. Das Design ist nunmal eher auf Multicore ausgelegt, als auf single Core. (Performance)
Das Design (im Sinn von vielen Cores) ist nicht das Problem, das Problem ist die nicht vorhandene Performance.
Und ein Serverumfeld definiert sich nicht nur durch Leistung/Watt, sondern auch durch Leistung und Skalarität. Denn was bringt es einem, wenn der sceduler ständig arbeiten muß, weil man keine Cores hat?
Der Scheduler unterbricht die Programmausführung im Normalbetrieb ohnehin sehr häufig. Für HPC pinnt man deshalb Threads fest an Cores, um die Kontextwechsel zu minimieren. Das ist aber nicht der Normalbetrieb. Da die meisten Algorithmen nicht linear skalieren, sind weniger Cores bei gleicher Leistung immer von Vorteil. Mit dem Scheduler Leistung auf mehrere Threads verteilen kann man immer, umgekehrt geht es nur unter bestimmten Umständen.

Man darf auch nicht vergessen, dass es mit dem Opteron möglich ist ohne Probleme riesige Speichermengen zu verwalten ohne dabei tief in Portemonai greifen zu müssen. Da muß man bei Intel zum S2011 greifen und bei etwas Rechenleistung minimal mehr als für nen Opteron bezahlen.
Der Opteron 3200 unterstützt nur 32GB RAM, und beim Opteron 4200 befindet man sich preislich auf Niveau der kleinen Xeon E5 2400 bzw. 2600. Die Opteron 6200 kranken an der Problematik, daß pro Sockel zwei NUMA-Knoten vorhanden sind. D.h. pro NUMA Knoten hat man nur halb soviel RAM im Relation zum Xeon E5.

Intel muß den Takt erhöhen, damit sie nicht zu viel Leistung ziehen?
Intel muß nicht, Intel kann den Takt erhöhen und bleibt trotzdem im Rahmen der TDP! AMD muß wegen der TDP den Takt absenken!

Auch Intel muß den Takt senken, sonst platz denen der Sockel und das VRM vom Board.
Zur Info: Intel 8 Core @3,1GHz = 150W TDP
AMD 8 Core @3GHz = 115W TDP
Warum immer diese mutwillig unsinnigen Vergleiche? Ein i7 3770 liefert eine vergleichbare Leistung zu einem FX8350. Der Xeon E3 1270v2 stimmt von der Rechenleistung mit dem i7 3770 überein, und der Xeon E5 2687W ist ungefähr doppelt so schnell wie ein Xeon E3 1270v2. D.h. man braucht effektiv zwei Opteron 4284 (der ist mit nur 3GHz getaktet, liefert also im optimalen Fall nur 3.0/3.6 ca. 84% der Leistung eines FX-8150 und somit ist die Rechnung ein Xeon E5 2687W=2*Opteron 4284 noch legitimer) um die Rechenleistung eines Xeon E5 2687W zu erreichen. Somit sieht die Bilanz 150W vs. 190W aus.

Und ECC wird schongarnicht vom Mainboard unterstützt,
Du solltest Dich dringend mit den Intel Produkten auseinandersetzen. Es ist vollkommen selbstverständlich, daß die CPUs das im Prinzip auch mit jedem anderen Chipsatz könnten, aber Intel trickst halt gerne rum. Daher gibt es das Feature nur mit C2xx Chipsatz!

dass es für den AM3 kein ServerMB gibt.
Ich schrieb von AM3+. Denn der Opteron 3200 ist ein AM3+ Chip. Aktuelle Mainboards gibt es aber nicht.

Jedes System hat so seine Vor- und Nachteile, aber auch Probleme. Hier aber AMD die Servertauglichkeit abzusprechen ist eine Verkennung der Realität, nicht umsonst werden AMDs in Server eingesetzt und auch gerne genommen.
Server tauglich sind die CPUs, aber momentan ist es nicht sinnvoll Opterons einzukaufen. Und wir haben einige Opteron 6100 Systeme im Betrieb. Die Plattform hat so ihre Probleme, sie bleibt insgesamt deutlich unter ihren theoretischen Möglichkeiten zurück. Bei diversen Tests kam bei uns heraus, daß ein Xeon E3 einen Opteron 6100 abfertigt. Beim Opteron 6x00 kommt noch das NUMA-Problem hinzu, so daß man sehr viel Aufwand beim Programmieren treiben muß, um den Opteron 6x00 genauso effektiv wie einen Xeon E3 nutzen zu können.

---------- Post added at 21:28 ---------- Previous post was at 21:15 ----------

fdsonne vergleiche hier bitte nicht die Desktop Bulldozer mit den Opterons. Habe es auch durch eigenen Versuch heraus finden müssen, dass die Speicheranbindung leider nur die Hälfte beträgt wie bei den Opterons.
Das ist inkorrekt. Sie ist bei allen Opterons nur DualChannel pro NUMA-Knoten, und somit gleich groß wie bei den Desktop CPUs. Lediglich die akkumulierte Speicherbandbreite über alle NUMA-Knoten ist größer. Aber das ist nicht weiter verwunderlich. Das nützt Dir aber rein gar nichts, wenn man in einem Thread die Bandbreite braucht. Mehr als Dual Channel pro Thread geht bei Opterons nicht.
 
Wer kauft sich schon einen Opteron oder 8 Kerner wenn man nur Programme hat die nicht auf mehreren Threads laufen?
Und zum Chipsatz, wenn du z.B. bei einem C205 einen Desktop i7 oder Pentium G rein setzt, wird die CPU deswegen ECC verwenden? ;)
 
fdsonne vergleiche hier bitte nicht die Desktop Bulldozer mit den Opterons. Habe es auch durch eigenen Versuch heraus finden müssen, dass die Speicheranbindung leider nur die Hälfte beträgt wie bei den Opterons. Wenn ich noch richtig liege war auch AMD in der Praxis mit max 40gbyte/sec? da deutlich vor Intels Xeon Prozessoren wenn man genügend Threads auf die CPU los lässt. Und wie underclocker auch schön angemerkt hat, die Preise gehen recht schnell auseinander, was gerne vergessen wird. Auch hat deine Sockel 2011 CPU ein doppelt so breite Speicheranbindung wie dein Sockel 1155 System, weswegen es nicht verwundert, das es mit mehr Cores auch skalieren kann.

Dir ist bewusst, das es die "Desktop" Bulldozer genau so im C32 Sockel als vollwertige Serververtreter gibt?
Den Einwand lasse ich an der Stelle also nicht gelten... Da unter der Decke der Spaß absolut identisch ist.

Und wenn du es rein auf das Speicherinterface runterbrechen willst. Ja, ich gebe dir recht, bestenfalls wäre hier der G34 Sockel von AMD vergleichbar. Bekanntermaßen verwendet der aber nicht ein Quadchannel RAM Interface, sondern bündelt zwei Dualchannel Interfaces, wie jdl schon sagte, über die NUMA Node Problematik.
Das bietet dir aber ein C32 Bulldozer nicht. Und der steht genau dort, wie ich oben sagte. 3,6GHz in Form des 8150 Desktop Modells mit 125W eingestuft auf einem AM3+. Und mit 95W als 3GHz Opteron 4282. Es ändert an der Leistungsfähigkeit absolut Null Komma gar nichts.
Selbst wenn ich das Rechenspiel mal mitspiele, so bleiben beim S1155 für vier Cores + SMT bei (Sandy-Basis) 3,6GHz Basis sowie ein Dual Channel Interface im Vergleich zur doppelten Core Anzahl des Top acht Kerners auf S2011 mit Quadchannel Interface und 3,1GHz. (AllCore Turbo 3,4GHz)
Es stehen also doppelte Core Anzahl bei ~10% weniger AllCore Turbo Takt -> ergo 80-90% mehr Leistung, sofern die Skalierung der Anwendung(en) passt.

Bei AMD steht da dann 3,0GHz vier Moduler auf C32 vs. 2,6GHz acht Moduler G34 unter gleichen Interfacebedingungen. Mit dem NUMA Node Nachteil und einer Skalierung von vllt bestenfalls 70-75%. Wenn überhaupt.

Gepaart mit der Tatsache, das benannter S1155 Sandy-Bridge schon ausreicht um den Top Desktop Bulldozer, der nochmals 20% mehr Takt hat, deutlich in die Schranken zu weisen, hinkt der oben angesprochene Vergleich also ziemlich gewaltig. Da eben Intel noch deutlich Luft hat, um mehr Cores ohne nennswerte Taktsenkung zu verbauen, AMD die üblichen Limits von ~130-150W MAX! aber schon mit vier Modulen erreicht.

@sonne

2700k vs 2987w // 95W vs 150W -> 50%

8150 vs 6282 // 125W vs 140W -> 25%

AMD kann sicherlich auch mehr, ka was die VRM Specs sagen...

Geht man von den 50% TDP steigerung aus, so landet man bei fast 200W. Damit kann man also locker 3GHz auf nem 8 Moduler fahren.

Genau jetzt bist du richtig. Intel hat Luft, weil eben die CPU deutlich weniger Ansprüche stellt. Ergo bleibt auch mehr Spielraum, wie oben von jdl angesprochen. Wo AMD zwingend mit dem Takt runter muss, hat Intel Luft. Die ~5% zum Desktop respektive 10% zum schnellsten Xeon auf S1155 Basis sind derart wenig, da kommt AMD nicht hin.
Ich bezweifle, das man zeitnah die Klassen weiter erhöhen wird. Seit geraumer Zeit stehen die 130-150W maximal wie in Stein gemeißelt. Und es hält sich jeder dran. Wenn die Hardware nicht reicht, muss eben irgendwo gespart werden. Ich würde sogar soweit gehen und diese Grenze als quasi absolut Fix einstufen, zumindest was den x86 based Servermarkt für die nächsten paar Jahre anbelangt. Leistung um jeden Preis ist wohl nicht mehr ganz die höhe der Zeit.

Und genau das wollte ich eingangs vermitteln. Intel hat durch deutlich mehr Reserven auch mehr Luft für mehr Cores. Wohingegen AMD mit halber Modulanzahl schon die Grenze kitzelt. Wo sollen die Einheiten also noch hin?
Selbst wenn AMD hier die 200W CPU bringen würde, es würde bestenfalls ausreichend sein um mit Intel Leistungstechnisch mitzuhalten. Die Luft, die Intel hat, bleibt aber weiterhin. Drücken die dann wiederum 2-4 Cores mehr drauf, bleibt die Sache analog wie jetzt. An irgend einer Kennlinie muss gemessen werden. Und Leistung/Watt ist da nicht unüblich ;)

Warum immer diese mutwillig unsinnigen Vergleiche? Ein i7 3770 liefert eine vergleichbare Leistung zu einem FX8350. Der Xeon E3 1270v2 stimmt von der Rechenleistung mit dem i7 3770 überein, und der Xeon E5 2687W ist ungefähr doppelt so schnell wie ein Xeon E3 1270v2. D.h. man braucht effektiv zwei Opteron 4284 (der ist mit nur 3GHz getaktet, liefert also im optimalen Fall nur 3.0/3.6 ca. 84% der Leistung eines FX-8150 und somit ist die Rechnung ein Xeon E5 2687W=2*Opteron 4284 noch legitimer) um die Rechenleistung eines Xeon E5 2687W zu erreichen. Somit sieht die Bilanz 150W vs. 190W aus.

War das ein Tipfehler? Der 8350 kommt als Piledriver für den Desktop mit 4GHz ;)
Es dürften also durchaus mehr wie 190W hinten bei raus kommen...
 
@jdl
Man hat sich bei AMD eben dazu entschlossen eben die Performance aus mehr core zu holen als aus weniger. Ob das nun gewollt oder gezwungen ist, muss man die designer frage.

Und klar muss der scheduler so schon ackern, es ist aber schon ein merklicher Vorteil, wenn er sich die Haelfte der Taskwechsel sparen kann, wenn er doppelt soviele Hirne zum Rechnen hat.

NUMA ist dein ganz persoenliches Problem, so hart das klingt. Ich habe kein Problem mit den doppelten Knoten. Woran das liegt? Ich nutz kein HPC, daher muss der Speicher nich am Limit laufen. Das gilt im uebrigen fuer die meisten dual maschinen.

Das ist kein mutwillig unsinner Vergleich, ich koennte dir auch mutwilliges Nichtverstehn unterstellen.

Der Vergleich hat NICHT die Aufgabe des Lst/W Vergleichs, sondern: Intel bewegt sich ohne weiteres in der selben TDP bereichen.
(wie bereits MEHRFACH angedeutet, bescheinige ich AMD NICHT die Effizienz, wohl aber skalieren Beide Systeme, daher ist hier Intel eben kein Zauberer und schaffen eine effizienzsteigerung innerhalb der Serie)

Ich hoffe das kommt an!

Du hast gesagt: Nimm ein i3 schnall den aufn nen SM board und du hast ECC. In der Realitaet hast du garnichts. Denn bis zum SB konnte der kein ECC. Da haetteste auch 5 von draufschnallen koennen, haette nix geaendert.

Erst jetzt mit dem IB kann man sich den teuren xeon sparen und nen i3 nutzen. Wie dad beim P G aussieht weiss ich nicht. Tendenziell kann es sein, dass es du trotz SM board(was ECC aktivieren kann) der IMC es trotzdem ignoriert.

Und ich kenne die Intel Welt mehr als ausreichend, daher kann ich dir sagen, dass SB i3 + C2xx = no ECC bedeutet. (anders als du es ausgesagt hast)

Und wie gesagt, EURE Anwendung hat "Probleme" mit NUMA, da sie sehr auf das Zusammenspiel Core-Speicher angewiesen ist. Das ist aber bei weitem nicht ueberall der Fall.

Und ich wiederhole mich da gerne nochmal:
S1155 ist ein schoenes System und bietet viel Spass fuers Geld. Nur hat der Opteron durchaus seine Berechtigung. Mal sehn ob AMD am Zug dranbleiben kann, das sieht man im Moment nicht so.

@sonne

AMD braucht eben mehr W fuer die Leistung. Wieso wird es als schlecht angesehen, wenn AMD ihr TDP um 50% anheben muss, waehrend man Intel das zugesteht? Wird hier mit 2erlei Maß gemessen?

Und ich sehe ehrlich gesagt auch nicht, wo Intel Luft hat. Was meinst du passiert, wenn sie nen 16 core bringen? Die muessen genau das gleiche machen wie AMD und das heisst Takt runter, oder zaubern.

Ich habe in KEINSTER Weise gesagt, dass AMD hier Perf./W koenig ist. Sie haben das Problem. Dennoch, wenn man das ganze ins Verhaeltnis setzt, dann ist alles skalar und nicht wie behauptet, dass es dann bei AMD ploetzlich schlechter aussieht.

Ich hoffe das kommt an, wenn nicht, bin ich auch raus, die massage dringt dann einfach nicht durch, kann ich nix fuer....
 
underclocker, klar nakt auf die Zahlen kannst du das Spiel bis ins unendliche Treiben. Doppelte Cores und Doppelte Leistungseinstufung geht dann irgendwie auch ohne Taktverminderung. Das bestreitet ja niemand...

Das Problem ist die Realität, und hier steht 130-150W fix als aktuelle Grenze. Genau so wie im Grafikkarten Markt dort 300W pro PCIe Slot spezifiziert sind.
Logisch kannst du also hier aus 100W auch 200W machen und die Cores munter erhöhen. Nur schießt du damit übers Ziel. Wärend Intel in dem Beispiel oben genau das machen kann, und gerade so noch im Limit der aktuell als max. geltenden TDP Powerklasse bleibt.
AMD hat also hier das Problem, das man nicht so viele Cores drauf packen kann, wie man vllt will, und/oder nicht so viel Takt drauf drücken kann, wie man vllt will, damit es für das Konkurenzprodukt reicht. Ergo hat AMD das Limit schon deutlich früher erreicht als Intel. Der Grund dafür ist Simpel, nämlich eben jener Performance/Watt Vergleich, den Intel an der Stelle gewinnt. -> mit dem Resultat, das aus gleicher Verbrauchsklasse auch mehr Leistung gezogen werden kann.

So wird denke ich ein Schuh draus.

Und an einen fiktiven 16 Core Intel glaube ich auch nicht, zumindest nicht ohne massiven Takteinbruch ;)
Mit IvyBridge-EP sollen es aber wohl 10 Cores werden. Also 25% mehr. Das dürfte gemessen an SandyBridge-EP durchaus drin sein, ohne Takt einzubüßen und ohne die Leistungsaufnahme explodieren zu lassen. Schließlich gibts dann auch 22nm für diese CPUs.
 
Es ging mir um folgende Aussage von jdl.
Die Server Bulldozer müssen daher auch deutlich im Takt abgesenkt werden, damit sie nicht zuviel Strom verbrauchen

Auch Intel muß hier die Taktraten senken, damit sie noch im Rahmen bleiben. Wie gesagt, beide Hersteller unterliegen hier dem gleichen Sachverhalten. Im Serverumfeld gilt 125-135W als Max. Wenige WS Boards machen noch mehr, das ist aber eher die Ausnahme.

Während Intel und AMD beidermaßen im Bereich des Desktops mit Taktraten von ~3,5-4GHz fahren, so ist das bei den 8C/M CPUs nicht mehr der Fall. Hier bewegt man sich grad so vor 3GHz. (AMD ca ~2,5GHz, wenn man vom 6282 und 140W etwas runter geht)

Ganz konkret macht Intel bei 2,9GHz zu, während AMD bei ~2,5GHz zumacht. Beide Starten im Desktopbereich bei 3,5/3,6GHz(neu neuen ~4GHz).

Intel kann hier also bei weitem nicht so weit ausholen, wie man evtl glaubt. (wenn man jetzt mal 400MHz als nicht weit definiert)
Beide Hersteller laufen also mehr oder weniger gleich schnell in das Limit. Sicherlich werden wir keinen AMD 8M mit 3GHz sehen(ggf. piledriver @opteron), weil das deutlich über dem ist, was man in dem Bereich als TDP akzeptieren mag. (mehr ist sicherlich machbar)

Intel kann den Takt erhöhen und bleibt trotzdem im Rahmen der TDP!
Und das ist auch nicht korrekt. Intel hat weder den Takt erhöht, noch ihn beibehalten gegenüber den kleineren Brüdern. Auch sie mußten senken.

Es kochen halt beide nur mit Wasser. Und bei einer Verdopplung der Recheneinheiten, verdoppelt sich auch ~ die TDP. Wenn man dann über die magische Grenze kommt, muß der Takt runter, hilft alles nichts.

Davon losgelöst muß man die Frage der reinen Leistung betrachten. Hier braucht es in der Regel immer 2 Opterons um einem Xeon die Stirn zu bieten. AMD hat bei der Leistung/W die Nase hinten, das weiß jedes Kind und war auch kein Diskussionsgegenstand. Dafür bietet AMD noch immer ein gutes Leistung/$ Verhältnis, welches ggf. unter dem der Xeons liegt. (müßte man mal nachrechnen) Aber es soll auf diesem Planeten auch Systeme geben, die nicht nach höchster Leistung gieren, sprich auch ein Opteron erfüllt die Anforderung.

Daher muß man dem Opteron nicht seine Daseinberechtigung aberkennen.

Das Spiel Intel vs AMD war schon immer so, dass der eine so und und der andere anders rum, am Ende hats mit beiden gepasst, während Intel sich im obersten Leistungsbereich eingenistet hat. Das lassen sie sich aber auch fürstlich bezahlen.
 
Zuletzt bearbeitet:
Und zum Chipsatz, wenn du z.B. bei einem C205 einen Desktop i7 oder Pentium G rein setzt, wird die CPU deswegen ECC verwenden? ;)
Nochmals und bitte genau lesen.
i3 und bestimmte Celerons, Pentium Gs können ECC in einem der folgenden Chipsätze (BIOS Support vorausgesetzt) C202, C204, C206 oder C216 ECC.

Allgemein gilt: Damit ECC funktioniert braucht man einen ECC fähigen Speichercontroller (respektive CPU), ein Mainboard, das die ECC Verdrahtung besitzt, und ein BIOS mit ECC Support. Die letzten beiden Punkte sind bei den Consumer Boards i.d.R. nicht gegeben.

Als Beleg: ARK | Compare Intel® Products
Die Daten auf der Webseite sind wohl absichtlich nicht vollständig, es gibt noch weitere CPUs die ECC unterstützen und dies in der Produktbeschreibung nicht aufgeführt haben. Irgendwo in der technischen Dokumentation zur Plattform ist die Information vergraben. Es gibt aber auch so ausreichend Hits bei einer Websuche.
 
Wie bereits mehrfach angesprochen gilt das NUR für die Ivy Bridge CPUs. Sandy Bridge (bis "vorgestern" also) konnte das noch nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh