[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Projekt Haswell: Intels übernächste CPU soll viel paralleler arbeiten - News - pc-newsticker.de



Intel wird auch in den nächsten Jahren ihre Architektur umstellen, spätestens wenn haswell kommt. Ivy Bridge wird deswegen eher langweilig sein, da es wieder nur 4 Kerne werden, halt extrem schnelle 4 Kerne...
Spätestens wenn neue Konsolen rauskommen, die extrem viele Cores haben werden, werden diese CPUS a la BD Sinn machen, da dann erstmals auch Spiele etc. auf mehrere Cores programmiert werden wird, gehe ich mal von aus.
 
also ich halte 170€ für den FX8150 für gerechtfertigt weil dann liegt er auf augenhöe mit dem 2500er von intel aber das ist nur meine meinung wobei ich dann trozdem eher den 2500er nehmen würde weil es das bessere paket ist was preis leistung und verbrauch angeht und wenn man seine grafikkarte verkauft kann man trozdem mit der GPU der CPU diese zeit überbrücken wobei die GPU eher schrott ist und nicht mehr kann als ein bild zu erzeugen...


Bei Preisgleichheit von 2500k und 8150 Bulli spricht doch nix für den Bulli.

In Typischen Desktopsachen zieht der Bulli meist den Kürzeren und hat dabei noch einen Horrorverbrauch.

Eigentlich dürfte das Ding keiner kaufen der sich ein wenig Leistungsvergleiche von den CPUs angesehen hat und somit informiert ist.
 
@getexact

Es ist kein klassischer Dual core, das ist richtig, weil eben ein Teil der Redudanzen einer klassischen DC CPU abgeschafft wurden.

Dennoch enthält ein Modul eine doppelte out-of-order engine, was das Grundmerkmal einer DC CPU ist, denn damit können 2 ipc verarbeitet werden.

Nachteil ist eben, dass das eben nicht so skaliert, wie es mit Redundanz könnte.

EDIT:
Durch den inneren Aufbau ist das Design dem HT von Intel ganz klar überlegen, weil es eben echte parallelität zuläßt, was bei Intel nicht so der Fall ist.
 
Zuletzt bearbeitet:
@Bendor
Es sind schon 8 echte Kerne und nicht wie bei Intel, wo man vier echte Kerne hat und dazu dann wie du es sagst "preusdo Dinger".
BD ist ne Art dual Core CPU Verbund.

Cores sind Cores...da gibts kein "echt".
AMD hat 4 Module und jedes Modul hat einige Elemente doppelt und andere nicht.
Ein Modul ist aber kein klassischer "echter" Core.
 
@Powerplay
Da für das der Bulli noch mehr Saft durch zieht als der 2500K.
Sich beide Richtung 5GHz takten lassen.
Müsste der 150 kosten weil er dan bei gleich hohem OC null zu melden hätte.
 
Zuletzt bearbeitet:
Spätestens wenn neue Konsolen rauskommen, die extrem viele Cores haben werden, werden diese CPUS a la BD Sinn machen, da dann erstmals auch Spiele etc. auf mehrere Cores programmiert werden wird, gehe ich mal von aus.

Ach nicht wieder dies Märchen, als ob man jeden Algorithmus und jede Applikation bzw. deren performancekritischen Teile beliebig parallelisieren könnte, sogar wenn man den Overhead für thread syncro und kommunikation ausser acht lassen würde.
Der Performancegewinn in Spielen skaliert nicht ohne Grund über 3 Cores kaum noch mit. Und das auch bei reinen PC only titeln.
 
Vergesst nicht, dass der Bulli auf anderen Platinen wie bspw. die mit der Heise.de getestet hat, deutlich weniger aus der Dose zieht. Um genau zu sein sogar 10% weniger als der Phenom 2 X6.
 
Ach nicht wieder dies Märchen, als ob man jeden Algorithmus und jede Applikation bzw. deren performancekritischen Teile beliebig parallelisieren könnte, sogar wenn man den Overhead für thread syncro und kommunikation ausser acht lassen würde.
Der Performancegewinn in Spielen skaliert nicht ohne Grund über 3 Cores kaum noch mit. Und das auch bei reinen PC only titeln.

Skaliert nicht, weil es auch garnicht gebraucht wird.
Für die meisten aktuellen Spiele reicht ein einziger i5 core des 2500k, die anderen könnte man praktisch abstellen...
Warum sollten die sich die Mühe machen und für mehr als 4 Kerne anpassen, wenn 1-2 schon locker reichen, um das Spiel flüssig darzustellen.
Klar, so eine Anpassung ist nicht einfach, aber ich denke, daß die Entwickler bisher auch noch nicht auf soviele Core angewiesen waren, da ja alles "läuft".

An solchen Enignes wird aber schon gearbeitet:

Epic Games: Unreal Engine 4 kommt wohl 2014 - Golem.de

Einfach mal abwarten...
 
Mag sein, aber wie erklärt sich dann der große Unterschied im gegensatz zum heise Test auf einer 880G Platine?

Wurde in allen Reviews mit einem Crosshair 5 getestet?
 
Das kann genausogut am Bios der Boards liegen. Ausserdem schalten sich die Module noch nicht ab. Alle 8 Kerne laufen immer auch wenn sie nicht gebraucht werden. Was der echt verbraucht stellt sich erst noch raus.
 
Zuletzt bearbeitet:
Mag sein, aber wie erklärt sich dann der große Unterschied im gegensatz zum heise Test auf einer 880G Platine?

Wurde in allen Reviews mit einem Crosshair 5 getestet?

Ich glaube schon. Das ist halt das Paket was von AMD kommt. 990FX + 8150. Damit haben sie es wohl nicht anders gewollt... leider. :wall:

Apropos Konsolenports... die PowerPC Teile in der PS3 z.B. haben auch 7 Cores. Ich denke nicht das davon nur 3 benutzt werden. Irgend einen Grund wird das ja haben.
 
Mag sein, aber wie erklärt sich dann der große Unterschied im gegensatz zum heise Test auf einer 880G Platine?

Wurde in allen Reviews mit einem Crosshair 5 getestet?


Nein, es wurden auch 990FX von MSI und Gigabyte verwendet. Aber alles waren 990 Chipsätze. Eventuell gibt es noch Bios BUGS die den Verbrauch so drastisch anschwellen lassen.
 
@Sonne

Ich werfe da nix durcheinander.

Bei den Desktopablegern wird einfach versucht durch Senkung der Cores den Takt hochzutreiben um damit mehr singlethread Performance zu haben.

BD ist eine klassische Multicore Architektur.
Doch, du setzt oben Bulldozer als Architektur auf eine Schwelle mit Magny-Cours und Westmere EP als Produkte, was eben so keinen Sinn macht... Wenn du dort ein BD Produkt ranziehen willst, muss es eben Interlagos als Bulldozer Ableger für den Multisockel G34 sein. ;)

Und zum zweiten, da stimme ich zwar grundsätzlich zu, aber aktuell läufts doch genau andersrum als bei Intel.
Intel baut die Westmere EP CPUs als mehr Kern CPUs mit weniger Takt zu den kleineren Brüdern. AMD hingegen nutzt für die Mehrmodul CPUs beim G34 eben jeweils zwei davon. Das Taktpotential des einzelnen Parts bleibt identisch. Man beugt sich aber aus thermischen Gründen und senkt den Takt für die acht Moduler Interlagos. (hebt sogar die TDP Power an)

Unterm Strich ist das aber nicht mehr oder weniger auf den Servermarkt zugeschnitten wie andere CPUs vorher und wie CPUs der Konkurenz. Was am Ende rumkommt zählt. Und AMD geht seit ner ganzen Weile vermehrt den Weg viele kleine Cores zu bringen, wohingegen Intel seit der Core Architektur eher auf weniger, dafür stärkere Cores abziehlt. Beweihräuchert könnte man nun sagen, das ist für den Servermarkt. Ich sehe das eher als Zeichen, das man eben nicht mithalten kann mit der Konkurenz. Und man wenigstens die Fälle rettet, die nicht den Bach runter geflossen sind... (nämlich das man bei MT eben noch halbwegs mithalten kann)
Dennoch ist das ganze ohne Wertung zu sehen, wenns heute nicht klappt, klappts vllt beim nächsten Modell. Ist doch nix verkehrt dran... Ich kann dieses Ausredengesuche für die Tätigkeiten eines Unternehmens aber irgendwie nicht so ganz nachvollziehen.

Wie schon gesagt, ich denke, dass der BD seiner Zeit etwas vorraus ist.
Die Richtung der nächsten CPU Gens zeigt er aber deutlich auf, weg von hohen SinglethreadCPUs hin zu extrem parallelisierten CPUs. Das hatte Intel vor einiger Zeit mit einem 100? Core prototype demonstriert. Und BD geht hier den ersten Schritt.
Wie man an den Benches sieht, geht beim Multithread schon eine Menge.

Es ist doch vollkommen egal, wie sich die Leistung zusammen setzt...
Bei beiden Herstellern, und somit bei beiden Ansätzen bekommt man viel absolute Multithreaded Leistung...

Ob du nun 100% Leistung pro Core + 15-25% für SMT des gleichen Cores bekommst. Oder in Summe eben zwei quasi gleichwertige Int. Einheiten pro Modul hernimmst, ist doch völlig egal. Hinten raus muss es passen. Und im Moment ist ein Modul in CMT Bauweise dem Intel Core mit SMT Bauweise nicht gewachsen, da hilft auch sehr hoher Takt nicht sonderlich, wie man sieht.

Und sogar dann, wenn Multithreading mehr im Desktop Bereich auftrumpft, ist der Ansatz immernoch irrelevant.
 
Zuletzt bearbeitet:
Haha.. das habe ich ja jetzt erst gesehen. Von Luschen für Luschen.... das ist ja witzig! Roflkopter!

Zum Glück hast du keine Graka von den Luschen im System...Puh. Ach ja ATI Zählt ja nicht zu AMD. Die wurden ja nur ganz böse geschluckt und das ganze know how geklaut für Llano...PFUI.
Ich habe meinen 2500K jedenfalls auf 4GHz geschlumpft!
 
Zuletzt bearbeitet:
Sieht wirklich irgendwie nach einem Bug aus der den Stromverbrauch bei den 990fx Boards so dermaßen explodieren lässt.

@ Keim: Wen meinst du? :)
 
Skaliert nicht, weil es auch garnicht gebraucht wird.
Für die meisten aktuellen Spiele reicht ein einziger i5 core des 2500k, die anderen könnte man praktisch abstellen...

Wenn es sich um ein CPU limitiertes Szenario handelt bringt ein 2. Kern IMMER etwas da dort Systemprozesse und APIs ablaufen ohne dem eigentlichen Performancekritischen Thread die Leistung zu klauen. Dafür braucht 0 wirkliche Parallelisierung in der Anwendung selbst getätigt werden.
Hier kommt aber eben auch das Problem bei immer mehr Cores....die Threads die dann auf die weiteren Cores ausgelagert werden können sind dann entweder nicht Performancekritisch genug so das ein 2. oder 3. core problemlos mehrere abarbeiten könnte ohne Leistungseinbussen oder eben zu wenige.
Im Realszenario kommen wir eigentlich immer dahin das es einen atomaren Performancekritischen Thread gibt der die Leistung runterzieht und da bringen einem auch 10 weitere cores rein garnix.

Warum sollten die sich die Mühe machen und für mehr als 4 Kerne anpassen, wenn 1-2 schon locker reichen, um das Spiel flüssig darzustellen.

Hier gehts aber nicht um Mühe oder Wollen sondern um Machbarkeit.
In einen 1l Krug bekommst du auch keine 2l Wasser unter Erdüblichen bedingungen.
Das Multithreaded Softwareentwicklung eigentlich immer das ein oder andere graue Haar wachsen lässt ist bekannt aber sowas wie Spiele kann man einfach nicht in unzählige Performanceunkritische Threads zerlegen.
Daher auch die extrem geringen zugewinne bei mehr als 3 Cores obwohl schon seit fast 10 Jahren desktop Equipment für Multicore vorhanden ist.
 
Zuletzt bearbeitet:
Die werden sich schon was einfallen lassen, geht nicht gibts nicht...
Mich wüde mal interessierne, wie das bei der PS3 gehandhabt wird, die hat ja auch 7 SPUs und die scheinen ja auch genutzt zu werden.
 
@sonne

Den 2. Absatz check ich nicht.

Intel und AMD haben bei den mutlicore CPUs da selbe Problem, sie können den Takt nicht anziehen, da ihnen sonst die CPU wegglüht. Wenn Intel es könnte, würden sie den W-EX auch mit >3GHz befeuern, genauso wie es AMD machen würde, das geht aber nicht.

Ein Server der wirklich multithreaded arbeitet profitiert stärker von mehr core als von mehr Takt, aus einem ganz einfachen Grund. Taskwechselzeit!

Wenn ich 100Threads auf einen 4 Kerner loslasse, dann ist die CPU mehr damit beschäftigt (und das OS) ständig den Taskwechsel zu machen als gerechnet wird. Daher macht es eben Sinn, dass man in Servern nach Möglichkeit für jeden Thread einen eigenen CPU/Core hat, das steigert die Effizienz des Servers.

Wenn man also das Produkt aus core und clock bildet, dann sind vergleichbare high Clock CPUs einer multicore CPU in der entsprechenden Umgebung einfach unterlegen und das deutlich spürbar.

Das ist auch der Grund, warum man in Servern multicore einsetzt. Wenn es Sinn machen würde, dann würde die auch 5GHz QCs einsetzen, macht es aber nicht, es sei denn der Server berechnet nur wenige Threads, aber das ist immer seltener der Fall.

Daher hat man schon lange, bevor man in klassischen Servern und PC überhaupt daran dachte in Mainframes auf viele viele Kerne gesetzt. Da es eben Sinn machte und man entsprechende Tasks hatte, die auch in der Lage waren 1000e Core/CPUs zu nuten, dabei mußten die einzelnen CPUs nichtmal einen so schnellen Takt haben.

Diesen Weg hat man daher auch bei Servern eingeschlagen und BD macht das konsequent weiter, in dem man eben viele Kerne bei nicht ganz so hoher Taktung einsetzt.

In Workstations sieht das mitunter anders aus. Denn da profitieren die meisten Anwendungen, weil es eben nur eine ist, von mehr Takt, da es eben nicht viel so nebenbei zu machen gibt. Daher würde ich mir auch keine multicoreCPU in eine WS hängen.

Es gibt viele Sachen die es bei der Auswahl der CPU zu beachten gibt.
Daher ist im ESX Server auch eine 8core CPU verbaut, da diese eben dort besser ist, als eine QC CPU, da ich eben keine Sachen einsetze die zuviel Einzellast haben.
 
Zuletzt bearbeitet:
Um's mal mit den Worten eines Mitglieds in einem anderen Forum zu sagen:

"Hm, schade, die 8 GHz sind nicht die Serie. Und mehr als 8 Kerne je CPU gibt's auch nicht. Naja, immerhin ein recht guter Preis."

Womit er Recht hat.
 
@Crypto

Das selbe könnte man auch Intel vorwerfen, schließlich haben die auch 10core CPUs im Programm, oder auch AMD vor dem BD, denn 12core gibt es bei AMD auch schon lange.

Aber was für einen Sinn macht es eben, auf einem System, was nicht multithreaded ausgelegt ist eine solche hohe Anzahl an cores einzupflanzen?

Aktuell ist für ein Großteil der User auch ein 6core nicht nutzbar, sondern eben eher 3-4Core das höchste der Gefühle.

Man kann also beiden Herstellern wohl kaum einen Vorwurf machen, wenn sie bestrebt sind eine CPU für einen bestimmten Markt zu bauen. (wobei ich denke, dass der BD in DER Form falsch plaziert ist)

Welcher Gamer würde denn gerne auf einer 2,5GHz CPU zocken, ich kenne keinen.

Und leute, die wirklich viele Core brauchen, die können mit den aktuellen Plattformen gut arbeiten und auch mit dem kommenden 16core BD geht da einiges.
 
Zuletzt bearbeitet:
Ohne jetzt hier viel gelesen zu haben möchte ich trotzdem sagen, dass ich schockiert bin. Hatte wirklich gehofft das AMD endlich wieder was konkurenzfähiges auf den Markt bringt.

Aber das Verhältniss "Stromverbrauch - Leistung" ist einfach nicht zu rechtfertigen. Das ist schon fast peinlich und tut mir leid für AMD.
 
Haste auch sinnvolle Beiträge zu melden @ l@mer?

@Troopi: Die Sache mit dem Stromverbrauch sieht nach einem Bug im 990FX Bios aus. Anders kann ich mir es sonst nicht erklären, warum er auf einem 880G soviel weniger verbraucht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh