Was hat AMD mit Bulldozer falsch gemacht ?

Stuhl69

Neuling
Thread Starter
Mitglied seit
24.01.2016
Beiträge
60
Ist zwar nen Uralt Thema, aber ich würde es trotzdem gerne diskutieren:

Was hat denn eigentlich AMD mit Bulldozer verkehrt gemacht, damit es soweit mit AMD kam, dass sie kurz vor dem Ende stehen ? Weil betrachtet man es von heute in Programmen die 8 Kerne ausnutzen, ist AMD mit den alten Prozessoren eigentlich wieder richtig gut dabei, nur sah das leider vorher anders aus :S

Was meint ihr dazu ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach damals.. vor einer langen langen langen Zeit... da kam der Rote :teufel: mit der Bulldozer Architektur.. Ne keine Ahnung würde mich aber auch interessieren und hoffe das jemand die Frage beantworten könnte :popcorn:
 
AMD hätte wissen müssen, das der Ansatz mit eher mäßiger IPC und und hohem Takt nichts bringt.
Damit hatte sich Intel schon Jahre zuvor (Puntium 4 anyone?) in die Nesseln gesetzt.

Intel dagegen hat genau das gemacht was AMD nun mit Zen auch tut: Eine Architektur mit deutlich mehr IPC nachgeschoben.
Bei Intel war das damals der Pentium-M bzw. die Core Architektur.
Der größte Unterschied ist, das Intel deutlich besser durch die Durststrecke gekommen ist als AMD, auch weil Intel so ein riesen Laden ist.
 
Das mag sein, aber Bulldozer hätte doch dann in Anwendungen die auf mehrkerne ausgelegt waren, wenigstens ein wenig mehrwert erzielen können. Ich will zwar nicht sagen das da was gehjacket worden ist, aber der Markt hat sich da nicht wirklich um 8 Kerner geschert, obwohl man daraus etwas hätte profitieren können, siehe einige Beispiele mit DX 12 mit FX 8xxx CPUs. Vielleicht nicht spiele, aber zum rendern wären die FX Modelle doch ideal gewesen ... naja gewesen.

Man muss aber auch sagen das sich AMD da selbst ins Bein geschossen hatte, als sie die Architektur hochgehypet hatten wie blöde, da hätte man dem Marketing eigentlich auch eine schellen können.
 
Also kurz ausgedrückt: Man hat fälschlich angenommen, die Kunden und die Softwarewelt sei bereit für 8 Kerne (4 echte + 4 weitere, ~60-70%-starke Kerne).
Deswegen die Ausrichtung auf das "Modul-Design" und nicht auf mehr IPC bei weniger Kernen so wie bei Intel.
Um das dann rum zu drehen - besonders weil sich Bulldozer aus verschiedenen Gründen (teils nicht AMD's eigene Schuld) deutlich verspätet hatte - hat man an der Taktschraube gedreht was aber nur noch dazu führte dass die Chips auch noch den Ruf als Verbrauchsmonster bekamen.

EDIT:
Das mag sein, aber Bulldozer hätte doch dann in Anwendungen die auf mehrkerne ausgelegt waren, wenigstens ein wenig mehrwert erzielen können.
Das ist ja auch der Fall. In manchen optimierten Anwendungen (bzw. eher ganz bestimmte Aufgaben) schlägt ein FX 8350 nen Sandybridge i7. Nur sind solche Anwendngen im Mainstream extrem selten und bei Servern hat man den großen Nachteil mit der Effizienz bzw. AMD kann deshalb dort keine Chips mit sehr hohem Takt anbieten.
Zudem kam dann noch dass Intel, AMD gerne am Rande der Legalität oder darüber hinaus, Steine in den Weg gestellt hat.
 
Zuletzt bearbeitet:
Das mag sein, aber Bulldozer hätte doch dann in Anwendungen die auf mehrkerne ausgelegt waren, wenigstens ein wenig mehrwert erzielen können. Ich will zwar nicht sagen das da was gehjacket worden ist, aber der Markt hat sich da nicht wirklich um 8 Kerner geschert, obwohl man daraus etwas hätte profitieren können, siehe einige Beispiele mit DX 12 mit FX 8xxx CPUs. Vielleicht nicht spiele, aber zum rendern wären die FX Modelle doch ideal gewesen ... naja gewesen.

Man muss aber auch sagen das sich AMD da selbst ins Bein geschossen hatte, als sie die Architektur hochgehypet hatten wie blöde, da hätte man dem Marketing eigentlich auch eine schellen können.
Bulldozer war Schrott, da die Divider Einheit zu hohe Leckstöme provozierte.
Mit Vishera kam diese dazu und hat bei Mathematischen Lösungen sehr viel gebracht gerade Multi-Threaded Software.
Trotzdem wurden manche Vishera CPUs zu heiß, daher hat man nochmals mit dem King Stepping Nachgelegt: FX-8370(e) & FX-8320e.
Mehr ist nicht mehr drin, es sei den sie wollen mal FMA ausnutzen für x86 Befehle...
 
Zuletzt bearbeitet:
Das mag sein, aber Bulldozer hätte doch dann in Anwendungen die auf mehrkerne ausgelegt waren, wenigstens ein wenig mehrwert erzielen können.

Das ist auch der Fall. Bulldozer ist ein Multithreadingmonster, nur leider gibts einfach nicht genug Software die das wirklich vollständig nutzen kann.
Selbst heute, 4 Jahre nach dem Launch ist er immernoch seiner Zeit voraus.
 
AMD hat in der Vergangenheit allerdings schon viel dazu beigetragen dass diese Architektur das ist, was sie heute ist.

Ich wollte es gerade sagen, hat Intel nicht AMDs x86 Architektur lizenzsiert, weil die diese Architektur eingeführt hatten ?
 
Hochtaktarchitekturen wie Builldozer oder Pentium 4 haben schlechte IPCs
P3 > P4
K10 > Bulldozer
 
Ich wollte es gerade sagen, hat Intel nicht AMDs x86 Architektur lizenzsiert, weil die diese Architektur eingeführt hatten ?

x86 ist eine Intel Architektur. Lediglich die 64bit Erweiterung hat AMD eingeführt und Intel musste sich beugen. In neusprech heisst die Erweiterung x64, was aber eigentlich nicht korrekt ist, da sie eigentlich AMD64 bzw. Intel 64 heisst. Eher zutreffen würde x86-64 oder ähnliches.
 
Zuletzt bearbeitet:
Na dann lag ich wohl falsch, immerhin wirds mit humor aufgenommen, in anderen Foren gehen einige da voll ab ^^

Na dann scheint die Frage geklärt zu sein, AMD hat zu der Zeit einfach mit zuwenig IPC pro Kern gegen Intel versagt. Immerhin ändert sich das langsam mit den Programmen. Ich hoffe nur das Intel nicht auf die Idee kommt die Entwickler zu überreden bei 4 Kernern zu bleiben, würde ernorm den Fortschritt bremsen.
 
Ich wollte es gerade sagen, hat Intel nicht AMDs x86 Architektur lizenzsiert, weil die diese Architektur eingeführt hatten ?

Nein es sind +8! 64Bit + 8Bit ECC = 144Bit Dual Channel oder 288Bit Quad Channel)
Von wegen Bitflip oder Single Channel...

Glaube du denkst an die x64 Komponente, oder irre ich mich?
Bin noch nicht so lang dabei :d
Jo, also doppelt so viele Register, damit lässt sich schon mal RAM + VRAM auf einmal adressieren. ;)
 
ich hatte damals auf den Phenom3 (Quad) gewartet. 25% mehr Leistung bei 25% weniger Verbrauch
 
Zuletzt bearbeitet:
Richtig die phenom2 waren gut dann kahm der Fx müll.
FX Müll? :haha:
Eher Board bedingt, ein FX-9590 mit einem idle Last Delta von 10°C bei den VRMs steht zur Debatte?
Die VRMs haben doch eine Thermal Diode oder? :confused:
 
aber Bulldozer hätte doch dann in Anwendungen die auf mehrkerne ausgelegt waren, wenigstens ein wenig mehrwert erzielen können.
Das Problem ist aber, dass solche Anwendungen gerade bei Heimanwendern eher selten sind und sich auch nicht jedes Problem mit parallelen Algorithmen lösen lässt. Es ist eben nicht alleine die Faulheit der Programmierer, die gerne auf bestehende Algorithmen zurückgreifen, die meist auch nicht multithreaded sind, dafür aber erprobt und schneller einsetzbar als neue, parallelisierte Algorithmen zu schreiben, sondern teilweise eben gar nicht möglich.

siehe einige Beispiele mit DX 12 mit FX 8xxx CPUs.
Frag Microsoft, wieso die nicht schon vorherige DX Version so viele Threads nutzen konnten. Aber auch das I/O Subsystem in Windows wurde noch längst nicht so gut parallelisiert wie z.B. bei Linux. Microsoft investiert bei Windows eher in Bereich die der Kunden sehen kann, weniger in den Unterbau und das vermeidet halt auch Bugs. Aber es kostet eben Performance und zwar vor allem wenn die Singlethreadleistung der CPU gering ist.

Man muss aber auch sagen das sich AMD da selbst ins Bein geschossen hatte, als sie die Architektur hochgehypet hatten wie blöde, da hätte man dem Marketing eigentlich auch eine schellen können.
Und genau das sollte ihnen bei Zen nicht noch einmal passieren, denn noch mal dürfen sie sich sowas nicht erlauben. Nichts ist schlimmes als übertriebene Erwartungen zu wecken, die dann erfüllt werden können und nur umso enttäuschtere Kunden hinterlassen.

hoffe nur das Intel nicht auf die Idee kommt die Entwickler zu überreden bei 4 Kernern zu bleiben, würde ernorm den Fortschritt bremsen.
Intel hat schon CPUs mit bis zu 18 Kernen im Programm und in Kürze welche mit 22 Kernen, die würden sich da in eigene Fleisch schneiden. Außerdem haben deren i7 für den Mainstreamsockel 115x schon seit Jahren auch 8 Threads (4 Kerne +HT), Programmierer zu animieren weniger als 8 Threads zu nutzen, wäre also gar nicht in deren Interesse. Aber da müsste Intel auch nichts machen, denn die natürliche Faulheit von Programmierern und auch der Mangel an wirklich guten Programmierern führt eben dazu, dass die SW meist der HW um Jahre zurückhängt, also deren Möglichkeiten eben erst nach Jahren anfängt wirklich zu nutzen. Außerdem ist es auch nicht so leicht effektiv parallele zu programmieren, gerade wenn es komplexe SW wie Games sind, denn wenn man da ein Problem hat welches sich zwar parallel lösen lassen würde und dann einfach pro Kern einen Thread dafür erzeugt, bremst man am Ende andere, wichtige Thread aus, was womöglich im Ergebnis schlimmer ist.
 
Na dann scheint die Frage geklärt zu sein, AMD hat zu der Zeit einfach mit zuwenig IPC pro Kern gegen Intel versagt. Immerhin ändert sich das langsam mit den Programmen. Ich hoffe nur das Intel nicht auf die Idee kommt die Entwickler zu überreden bei 4 Kernern zu bleiben, würde ernorm den Fortschritt bremsen.

Versagt ist aber dabei nicht ganz das richtige Wort... Man hat einfach zur falschen Zeit aufs falsche Pferd gesetzt.
Während AMD mit dem A64 seinerzeit deutlich eher als Intel weg vom FSB ist und da auch massiv punkten konnte, hat Intel länger am FSB und dessen Vorzüge festgehalten.
Rückblickend betrachtet war es für Intel sehr einfach einen Gegenspieler gegen den Athlos 64 X2 zu bringen, indem man nur zwei SingleCore DIEs unter einen Deckel am den selben FSB geklemmt hat. Da die Leistungsunterschiede damals noch eklatant geringer ausgefallen sind als heute, ging das auch halbwegs auf um sich Zeit für einen echten Netburst P4 Nachfolger zu erkaufen.
Mit der Core bzw. Core2 Architektur hat Intel dann massiv die Leistung pro Takt erhöht und dank guter Fertigung auch nicht sonderlich Federn in der Effizienz gelassen. -> AMD musste gegenhalten und wollte den Phenom I X4 als nativen Quadcore bringen. Wäre technisch auch aufgegangen, aber es kam nicht so. Denn erst plagten das Ding ein paar unschöne Bugs (TLB Bug) und auch die Fertigung war nicht sonderlich gut. So kam das Teil einfach viel zu spät um gegen den doppelten Dualcore aka Core2Quad (der immernoch am FSB hängt) gegenzusteuern. Das brachte Intel die Zeit um mit Nehalem, später Lynnfield und noch später Westmere durchzustarten. Es fand dazu eine Marktsplittung zwischen Server- und HighEnd Bereich und dem Mainstream statt. AMD wollte dann mit dem Bulldozer die Sache richten.

Eigentlich sollte Bulldozer den Durchbruch bei AMD bringen -> nur wurde nix daraus, weil die Software lange nicht von acht Threads profitieren könnte. Das war ein Umstand, den hätte AMD durchaus selbst sehen können. Nur dreht man nicht mal so eben während der Fahrt die komplette Entwicklung in eine andere Richtung. Von Single- zu Dual- zu Quadcore hat es sehr wenig Zeit benötigt. Warscheinlich war es diese kurze Zeitspanne, die AMD in Richtung Oktacore getrieben hat. -> nur war das eben nicht brauchbar für die Software am Markt.
In der Theorie ist Bulldozer bzw. der AMD Ansatz in Sachen CMT gar nicht mal schlecht. Ggü. heutigen HighEnd Prozessoren zwar nicht mehr so, aber AMD ist halt bei 32nm stehen geblieben, während Intel demnächst die Broadwell-E(P/X) Prozessoren raushaut.
Zwischenzeitlich hat AMD mit den APUs punkten wollen (gleicher CPU Background, maximal vier Threads und ohne L3 Cache -> dafür GPU unter dem Deckel) -> und dies auch eine gewisse Zeit lang geschafft. Blöd aber, dass die GPU einer APU am RAM des Prozessors klemmt und DDR3 da selbst mit DualChannel Interface recht lahm ist -> also ist dort auch recht schnell die Luft raus gewesen.


Für die Zukunft -> AMD wird mit Zen massiv aufholen. Das zumindest versprechen die Daten auf dem Papier. Diese Daten sehen weit besser aus als die Daten seinerzeit beim Bulldozer, denn man geht massiv auf Leistung pro Takt anstatt auf breite CPUs. -> letzteres wird zwar sicher nicht zu kurz kommen, aber es besteht auch massiv Aufholebedarf. Aktuell bin ich zuversichtlich, dass AMD das Ruder zumindest gerade biegen kann. Denn die Daten auf dem Papier sprechen eigentlich nur für AMD.

Aber da müsste Intel auch nichts machen, denn die natürliche Faulheit von Programmierern und auch der Mangel an wirklich guten Programmierern führt eben dazu, dass die SW meist der HW um Jahre zurückhängt, also deren Möglichkeiten eben erst nach Jahren anfängt wirklich zu nutzen. Außerdem ist es auch nicht so leicht effektiv parallele zu programmieren, gerade wenn es komplexe SW wie Games sind, denn wenn man da ein Problem hat welches sich zwar parallel lösen lassen würde und dann einfach pro Kern einen Thread dafür erzeugt, bremst man am Ende andere, wichtige Thread aus, was womöglich im Ergebnis schlimmer ist.

Also den ersten Satz würde ich so nicht unterschreiben... Programmierer sind faul, da spreche ich aus eigener Erfahrung. Aber das Software der Hardware derart hinterher hängt liegt eher an anderen Problemen... Bspw. der Kompatibilität. Was interessiert es im Endeffekt, ob eine Software nur auf den aller neuesten Hardwaremodellen laufen würde? -> das kauft kein Mensch. Seit je her tut sich Software schwer, die nicht abwärtz kompatibel ist. Und seit der Markt nur noch jährlich um ein paar wenige Prozente in der Leistung nach oben geht (pro Thread betrachtet), tun sich die Menschen schwer, da alle Nase lang zu wechseln... Klassisches Henne/Ei Problem.

Was den zweiten Satz angeht, da stimme ich dir grundsätzlich zu. ;)

Glaube du denkst an die x64 Komponente, oder irre ich mich?
Bin noch nicht so lang dabei :d

Warscheinlich meint er das... AMD kann man aber auch den Part mit dem IMC zuschreiben.
Was x64 angeht, hier hat Intel seinerzeit aufs falsche Pferd gesetzt... Der IA64 Ansatz bei Intel war/ist zwar gegeben, aber eben fehlte die Kompatibilität zur alten Software -> wie bei einigen der Themen gilt auch hier -> das hätte Intel sehen können.
Möglicherweise war es aber auch gar nicht gewollt? Lässt sich schwer beurteilen. Zwischen Intel und AMD bestehen ja lange Zeit schon Verträge... So nach dem Motto, lass mal den kleinen die x86-64 Technik entwickeln, wir lizensieren das dann einfach, könnte für Intel immernoch günstiger und einfacher gewesen sein, als es selbst zu machen.
Unterm Strich war/ist der Part aber definitiv pro Endanwender abgelaufen. Denn so gibts keine Probleme mit der Software. Undenkbar wäre es doch heute, wenn AMD und Intel unterschiedliche x64 "Ansätze" fahren würden... Das wäre entweder der Todesstoß für AMD gewesen oder Intel hätte lange nicht so viel Marktmacht wie heute ;) In beiden Fällen hätte der Endanwender das Nachsehen, so oder so rum...
 
fdsonne bringt das schon gut auf den punkt.

der fx ist ja keine schlechte cpu.
es war seitens amd allerdings weniger klug auf viele "lahme" kerne zu setzen wenn die meiste software eben eher wenige (dafür schnelle) kerne benötigt.

so langsam kommt die software ja da hin wo sie nach amds wunsch vor 5 jahren hätte sein sollen, wodurch die dinger nun ein mal öfter etwas besser aussehen.
 
der fx ist ja keine schlechte cpu.
es war seitens amd allerdings weniger klug auf viele "lahme" kerne zu setzen wenn die meiste software eben eher wenige (dafür schnelle) kerne benötigt.

so langsam kommt die software ja da hin wo sie nach amds wunsch vor 5 jahren hätte sein sollen, wodurch die dinger nun ein mal öfter etwas besser aussehen.

Hinterher kann man das immer sagen, diese Entscheidungen werden gut 5 und mehr Jahre vor dem Release der Produkte getroffen und eine bessere Glaskugel als alle Anderen hat AMD auch nicht.

Die Einführung von Sockel 1366 für Workstations hat denke ich auch einen kleinen Teil beigetragen, denn dadurch wurde die Masse auch entsprechend breite CPUs "vorenthalten".
Bevor einer kommt, ja jeder kann Sockel 1366 bzw. 2011 kaufen, aber bei MediaMarkt und co. findet man solche Systeme idr. nicht.

Hochtaktarchitekturen wie Builldozer oder Pentium 4 haben schlechte IPCs
P3 > P4
K10 > Bulldozer

Nein, "Hochtaktarchitekturen" haben eine elend lange Pipeline und das hat Bulldozer nicht, weil es keine "Hochtaktarchitektur" ist.
 
Mal ein weiterer Gedankenanstoß:

Unabhängig von der letztendlich guten/schlechten Implementierung von Bulldozer:
AMDs eigentlichen Bestrebungen zu dieser Zeit war eine Architektur bei der mehrere CPU Kerne einen einzigen Thread bearbeiten können um somit bei SingleThreading Anwendungen keinen Overhead an nicht genutzten Hardwareressourcen zu haben. AMD war/ist hier nicht der 1. Kandidat der sich die Zähne an dem Problem ausgebissen hat. (Da gibt es mittlerweile mit der VISC Architektur auch erste funktionierende Ergebnisse)
Bulldozer scheint hier ein erstes/frühes/unfertiges Produkt aus diesen Bestrebungen zu sein...
 
Was hat denn eigentlich AMD mit Bulldozer verkehrt gemacht, damit es soweit mit AMD kam, dass sie kurz vor dem Ende stehen?
AMD hatte früher ein starkes Standbein im HPC Markt, weil die Opterons sehr früh schon NUMA unterstützt haben. Intel hat erst mit der Xeon 5500 Serie mit QPI gleichgezogen. Trotzdem waren die Opteron 6100 noch attraktiv, weil sie günstig viel Rechenleistung anboten. Das Bulldozer Design ist aber für HPC extrem schlecht. Zwar kann wird für HPC Code mittlerweile sehr gut parallelisiert, aber die Module eines Bulldozers haben nur eine Pipeline für Gleitkommaoperationen, so daß sich die effektive Kernzahl von 12 auch 8 reduziert hat beim Übergang von Opteron 6100 zu 6200. Dieser Nachteil an den Kernen ließ sich durch die anderen Maßnahmen nicht mehr kompensieren. Nahezu zeitgleich brachte Intel die Xeon E5 auf den Markt. Das war für AMD das Ende im HPC Markt. Es gibt auch keinerlei brauchbare Angebote für Opteorn Server mehr. Angesichts der Tatsache, daß AMD mit dem Opterons im HPC Markt gut vertreten war ist die Entscheidung pro Bulldozer vollkommen unverständlich. Ein schlechteres Produkt hätte man kaum entwickeln können.
 
AMD hatte früher ein starkes Standbein im HPC Markt, weil die Opterons sehr früh schon NUMA unterstützt haben. Intel hat erst mit der Xeon 5500 Serie mit QPI gleichgezogen. Trotzdem waren die Opteron 6100 noch attraktiv, weil sie günstig viel Rechenleistung anboten. Das Bulldozer Design ist aber für HPC extrem schlecht. Zwar kann wird für HPC Code mittlerweile sehr gut parallelisiert, aber die Module eines Bulldozers haben nur eine Pipeline für Gleitkommaoperationen, so daß sich die effektive Kernzahl von 12 auch 8 reduziert hat beim Übergang von Opteron 6100 zu 6200. Dieser Nachteil an den Kernen ließ sich durch die anderen Maßnahmen nicht mehr kompensieren. Nahezu zeitgleich brachte Intel die Xeon E5 auf den Markt. Das war für AMD das Ende im HPC Markt. Es gibt auch keinerlei brauchbare Angebote für Opteorn Server mehr. Angesichts der Tatsache, daß AMD mit dem Opterons im HPC Markt gut vertreten war ist die Entscheidung pro Bulldozer vollkommen unverständlich. Ein schlechteres Produkt hätte man kaum entwickeln können.
Das würde aber Voraussetzen, dass die FPU Pipeline nur mit 256Bit Code gefütter werden kann, dem ist ja nicht so, da passen auch 2x 128Bit auf einen Schwung durch.

Ein Modul ist keinesfalls mit einem Kern zu Vergleichen, eher noch mit einem Intel+HT also zwei Threads. ;)

Die 6200 Opterons sind seit Release stabil im Preis bis heute: http://www.cpu-world.com/CPUs/Bulldozer/AMD-Opteron 6284 SE (OS6284YETGGGU).html
 
Zuletzt bearbeitet:
Vielleicht nicht spiele, aber zum rendern wären die FX Modelle doch ideal gewesen ...
Gerade zum Rendern taugen die FX CPUs rein gar nichts, weil sie dann nur noch 4 "Kerne" CPUs sind. Jedes Module verfügt über zwei Integer und eine Gleitkommapipeline. D.h. nur mit Integercode verhält sich ein Bulldozermodule wie zwei Kerne, mit FPU-Code verhält er sich wie ein Kern. Ein Opteron 6200 hat maximal 2x4 Module sprich 8 Gleitkomma-"kerne" und der mußte damals gegen eine Xeon E5 bestehen, der über echte 8 Kerne verfügte. Die Intel Kerne sind aber deutlich stärker als die AMD Kerne beim Gleitkommarechnen.
 
Hinterher kann man das immer sagen, diese Entscheidungen werden gut 5 und mehr Jahre vor dem Release der Produkte getroffen und eine bessere Glaskugel als alle Anderen hat AMD auch nicht.

Neja, das hätten sie aber haben müssen... Warum? Der Softwaremarkt war schon immer extrem träge in diesen Bereichen. Zwingt ja keiner AMD dazu, in den Märkten mitzumischen. Nur wenn man mitspielen will, geht man gewisse Risiken ein.
Jeder Volldep erkennt, dass die ersten SMT Implementationen bei Intel auf dem Papier gut klangen, in der Praxis aber effektiv nahezu gar keinen Mehrwert (in Sachen Speed dieser Software, nicht in Sachen usability) brachten. Das war Stand 2002. Das gleiche gilt/galt für die ersten Dualcores (Stand 2005), bei Intel sogar im ersten Step mit vier Threads. Auch die ersten Quadcores (Stand 2006-2007) hatten dieses Verhalten. Und es soll nicht ersichtlich gewesen sein, dass sowas mindestens mal Probleme bereiten wird?? Ich bitte dich...

Es war eben einfach ein Fehler quasi blindlinks darauf zu vertrauen, dass dieser Markt fast bedingungslos in die Breite expandiert. Viel mehr gibts da ja nicht dran rumzureden... Der Markt war nicht bereit für acht und mehr Threads. In Einzellfällen zwar schon, aber in der Masse nicht. (er ist es nichtmal heute!) Und wenn dann das Design darauf fußt, dass quasi fast gleichwertige Threads vorhanden sind und bei Last von sagen wir 50% nur ~50% Performance bei rum kommen, geht der Spaß nicht auf.

Die Einführung von Sockel 1366 für Workstations hat denke ich auch einen kleinen Teil beigetragen, denn dadurch wurde die Masse auch entsprechend breite CPUs "vorenthalten".
Bevor einer kommt, ja jeder kann Sockel 1366 bzw. 2011 kaufen, aber bei MediaMarkt und co. findet man solche Systeme idr. nicht.

Sehe ich nicht so... Mit der Splittung des Marktes auf einen HighEnd Ableger und einen Mainstream Ableger hat man eher dem Endkunden was gutes getan. So pegelten sich schon eine Generation nach dieser Splittung die Preise für die größten Modelle des kleineren Sockels bei um die 300-350€ ein. Wer mehr will, kann halt mehr kaufen... Ob das nun im MediaMarkt steht oder nicht, ist wenig entscheidend. Umsatz wird doch heute (im privaten Endkundengeschäft -> denn die Anderen gehen gar nicht beim Blödmarkt kaufen!) lange nicht mehr mit dicken Desktop CPUs gemacht. Weder im HighEnd Bereich noch im Mainstream. Umsatz kommt heute eher vom Mobile Bereich... Und was findet sich dort? -> irgendwelche 15W DualCores mit oftmals sehr hohem TurboBoost um Lastspitzen abzudecken und sonst recht niedrigem Basistakt. -> gibts mit den Dingern HEUTE irgendwelche Leistungsprobleme durch mangelnde CPU Breite? Ich seh zumindest wenig bis nix. Was klar zeigt, dass dieses Konzept, viel viel viel pro Thread Power bei wenig Verbrauch und ohne sehr Breite CPUs klar aufgeht/aufgegangen ist.

Witzig ist dabei die Wandlung der Geschichte. AMD hat mit den Athlons, Athlon XPs und Athlon 64 Modellen genau diesen Part doch selbst gepusht. Nicht mehr "nur" auf Taktrate, sondern auf Leistung pro Takt gehen. Hat funktioniert, bis Core respektive Core2 das Licht der Welt erblickte. Und da war es dann effektiv schwer mitzuhalten, da einige der technischen Entscheidungen pro A64 einen simplen Gegenspieler ggü. den Core2Quads verhindet haben. Dann noch die bescheidene 65nm Fertigung, die Bug Probleme und der Stein kam ins rollen. Phenom I und auch II waren ja keineswegs schlecht. Sie waren einfach nur viel zu spät. Hab hier selbst noch so nen 9550er Phenom I am tuckern. Mit guter Kühlung und ~3GHz OC geht das Ding auch gut ab. (ggü. Core2). Aber das ist AMD Technik Stand Mitte 2008 ggü. Intel Technik Stand Ende 2006... Und OC muss es dann auch noch sein. Mit den 2,x GHz lockte schon der Phenom I keinen hinterm Kamin vor...

AMDs eigentlichen Bestrebungen zu dieser Zeit war eine Architektur bei der mehrere CPU Kerne einen einzigen Thread bearbeiten können um somit bei SingleThreading Anwendungen keinen Overhead an nicht genutzten Hardwareressourcen zu haben.

Woher stamt diese Aussage?
Bulldozer ist eigentlich das komplette Gegenteil von dieser Aussage... Denn das Konzept von CMT basiert genau darauf, anstatt einem Multicore Design ein eher flächeneffizienteres anderes Mittel für Multithreading zu nutzen. Wie man auch schön am Bulldozer sieht. Das Ding geht ab bei Volllast... Schon nur halbe Load lassen die Performance aber um ~50% einbrechen. Der SMT Ansatz bei Intel agiert dort anders. Du hast bei Volllast volle Leistung und bei halber Last immernoch gute ~80% im Schnitt. Da nun beide Umsetzungen bei Volllast nicht viel Performanceunterschied aufweisen, ergibt sich folgerichtig, dass die CMT Umsetzung bei Teillast klar das Nachsehen hat.

Bestenfalls trifft die Aussage auf die shared FPU jedes Bulldozer Moduls zu. Nur ist das eben auch nur bedingt gültig. Denn die Sandy Architektur bot bei Intel im Vergleich bspw. 2x256Bit FPU pro Core. Bulldozer kam mit 2x128Bit pro Modul daher. Beide zusammenschaltbar oder getrennt nutzbar. Je nach Berechnungsbreite hat AMD da mit dem BD keinen wirklichen Nachteil, teils aber eben doch...
Bei den ALUs sieht es imho ganz anderes aus. Hier fährt eher Intel wie gesagt den von dir angesprochenen Part. Denn Sandy bot drei ALUs, ab Haswell sogar vier ALUs. BD kommt auf zwei pro Int. Core. Macht pro Modul ebenso vier. Nur sind diese gerade eben NICHT zusammenschaltbar. Mit Skylake hat Intel zudem noch am FrontEnd geschraubt. Das Backend scheint weitestgehend gleich. Die Decoder können aber mehr durchschubsen und damit für bessere Auslastung sorgen...
Zen wird, wenn man den Daten auf dem Papier aktuell traut, ähnlich dem Haswell Ansatz agieren... Vier ALUs, zwei AGUs und mit 4x128Bit auf der FPU Seite ähnlich "fett". Was allerdings im Endeffekt hinten bei rum kommt, ist noch völlig offen ;)
 
Das würde aber Voraussetzen, dass die FPU Pipeline …
Was zählt, ist das was hinten herauskommt und da reißt keiner der Opteron 6200 oder 6300 noch etwas. Ich habe jetzt länger nicht mehr ausgerechnet welche Kombination an Xeons und Chassis das optimale Preisleistungsverhältnis liefern. Aber seit einigen Jahren ist Intel beim Systempreis billiger als AMD. Das gab es vor den Bulldozern nie, da war AMD immer bei den absoluten Kosten und den Kosten pro Rechenleistung billiger - vorbei. AMD ist deshalb komplett aus diesem Markt herausgeflogen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh