AMDs Bulldozer bzw. was kommt nach dem K10

Status
Für weitere Antworten geschlossen.
gpu in die cpu stecken wird die TDP nur sinnlos erhöhen.

halte das selbst bei dem nehalem für einen fehler.

lieber eine cpu die nicht mit so viel nebensächlichkeiten vollgestopft ist und eine höhere taktrate bei gleicher spannung erreicht.


das mit der intergrierten apu halte ich für genau so sinnlos
gibt doch genug onboard sound & gpu,s

wozu den ganze "schrott" noch in cpu,s packen ?
erhöht nur die komplexität des chips.

da halte ich andere dinge für viel wichtiger.

TDP pro takt wird nur in die höhe getrieben. es wird mehr spannung nötig sein. evtl werden die cpu,s sich auch nicht mehr so hoch takten lassen wie ohne diesen kram.

der nehalem ist das beste beispiel für einen falschen schritt. (wärme entwicklung / Leistung)

wenn da noch eine apu reinkommen würde, wär,s ja noch besser...

nur meine meinung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke, da bist du auf einem ganz falschen Dampfer. CPU und GPU/APU in einem Design zu vereinen, ist imo einer der wichtigsten Schritte in den letzten Jahren.

Es geht ja nicht darum, die TDP in de Höhe zu treiben. Zum einen soll die IGP auf dem Board wegfallen. Und die braucht logischerweise auch Strom. Ich denke eher, das wird nicht nur helfen, die Kosten zu senken, sondern eben auch die Leistungsaufnahme. Und zum anderen soll dadurch der Durchsatz gesteigert werden. Selbst die einfachsten dedizierten GPUs momentan, die eine Leistung von maximal 20 oder 30 W benötigen, liefern ähnliche Rechenkapazitäten wie die schnellsten CPUs, die jenseits der 100 W liegen. Das erhöht die Energieeffizienz natürlich ungemein. Und das, obwohl GPUs momentan ja immer noch einen Fertigungsschritt den CPUs hinterherhinken.

Und mal abgesehen davon, zumindest laut Roadmap wird es von AMD ja trotzdem noch CPUs ohne GPU/APU geben, zB Orochi.
 
Na ja, die APU ist ja eigentlich nur ein IGP, der in ein eher kleines, einfaches CPU-Die integriert ist. Llano soll ja aus K10-Kernen bestehen und die APU integrieren. Bulldozer hingegen wird wohl keine APU mitbringen, also bei den leistungsfähigen Varianten gibts auch keine TDP-Erhöhende Platzverschwendung, was ich ok finde. Intels GPU-Integration einer solchen Klasse wie vorgesehen in einen upper-Mainstream-Chip halte ich auch für gnadenlos unsinnig. Das macht nur den Chip groß und bringt im Endeffekt kaum Mehrwert. AMDs Integrationspläne gehen ja in eine andere Richtung. AMD möchte ja die GPU nicht als Modul in die CPU integrieren, sondern langfristig GPU und CPU vereinen. Das ist auch der richtige Weg langfristig und das ist in der Tat revolutionär. Aber das einfache Ranklatschen einer GPU der HD46xx-Klasse ist - na ja - ein bisschen nutzlos. Beim OEM-Billigprozessor könnt ichs verstehen.
 
Zuletzt bearbeitet:
Ist Sockel C32 nicht LGA, welcher für 1P/2P Workstations und Server nächstes Jahr kommt? Ich könnte mir vorstellen, dass der langfristig auch als Desktop Sockel genutzt wird.
Muss mich hier mal selbst zitieren, da John Fruehe etwas interessantes dazu gesagt hat.
C32 will not have a desktop analog, it is strictly a server socket.
Also wird Desktop Bulldozer AM3 oder etwas bisher noch unbekanntes.
 
Wieder ein paar Aussagen zu Bulldozer (John Fruehe).

Interlagos will have all the same power efficiency, and more. We aren't commenting on power bands at this time, but we continue to focus on power efficiency.

We will remain one thread per core. We see much better benefit from 12 or 16 real cores over 8 real cores and 8 fake ones. There are workloads that could actually slow down with hyperthreading enabled, and in a best case scenario, it is 15-30% performance improvement. Real cores have a much more predictable outcome.

SMT dürfte damit ziemlich unwahrscheinlich sein. Aber das ist wohl nichts neues. Fragt sich nur, wie man bei Bulldozer "Kern" definiert und inwiefern CbMT noch ein Thema ist.
 
Mich würde interessieren wie breit ein Bulldozer Kern wird, könnte ja sein das ein Kern so schnell wie 2 Kerne rechnet, weil dieser breit aufgebaut ist. Aber wenn man 8 Kerne auf einem DIE platziert, wie möchte man dann große Kerne bauen, die sich auf einem DIE befinden, also müsste man dann wenige große Kerne realisieren?
 
Mich würde interessieren wie breit ein Bulldozer Kern wird, könnte ja sein das ein Kern so schnell wie 2 Kerne rechnet, weil dieser breit aufgebaut ist. Aber wenn man 8 Kerne auf einem DIE platziert, wie möchte man dann große Kerne bauen, die sich auf einem DIE befinden, also müsste man dann wenige große Kerne realisieren?
Es sind wahrscheinlich nur 4 Kerne, die je 2 Threads in 2 Cluster rechnen ... die Kern und Cluster Definition verschwimmt z.Zt.

Prinzipiell gibts heute auch schon keine "echten" Kerne mehr, da so ein i7 / P2 Kern ohne die NB nutzlos ist ... d.h. das sind eigentlich bereits jetzt schon Cluster.

ciao

Alex
 
Mich würde mal interessieren was AMD dem i7 und dem kommenden i5 entgegen setzten will.
War nicht einmal was von Phenom 2 FX zu hören ?
 
JF-AMD schrieb:
Interlagos (Bulldozer) will have 16 cores. Valencia, will have 8. Both will be significantly faster than Magny Cours.
8 BD Kerne deutlich schneller als 12 K10.5 Kerne?
 
8 BD Kerne deutlich schneller als 12 K10.5 Kerne?
Ich zweifel da mal v.a. das "significantly" an. Da hat er sicherlich etwas dick aufgetragen. Ausser er bezieht sich auf AVX Benches, da werden die neuen Chips sicherlich davonziehen. Dagegen spricht aber das geringe FPU Leistungswachstum auf ner alten AMD Grafik.

Eins von beiden ist also falsch, ich hoffe die Grafik ^^

Was noch sein könnte, ist, dass er mit 8 Kernen wirklich "Kerne" und nicht Cluster meint. Das würde in dem Fall 16 Cluster bedeuten, die sicherlich schneller als 12 K10.5 Kerne rechnen, aber naja ... wird wohl eher nicht der Fall sein.

ciao

Alex
 
Zuletzt bearbeitet:
Ich bin schon gespannt wie ein Flitzebogen wer schneller wird, BD oder Sandy Bridge...
 
was leistet denn gpu und cpu auf einem die?
brauche ich dann keine grafikkarte mehr, wenn ich crysis spielen will? oder wie muss ich das sehen?
 
was leistet denn gpu und cpu auf einem die?
brauche ich dann keine grafikkarte mehr, wenn ich crysis spielen will? oder wie muss ich das sehen?

Wenns wie bei Intel wird, dann kannste die mit Onboard GPU's von aktuellen Chipsätzen vergleichen, aaso ältere Spiele und ansonsten alles, und für neuere Spiele wäre ne aktuelle dedizeirte Graka von Vorteil.
 
Zuletzt bearbeitet:
Wenns wie bei Intel wird, dann kannste die mit Onboard GPU's von aktuellen Chipsätzen vergleichen, laso ältere Spiele und ansonsten alles, und für neuere Spiele wäre ne aktuelle dedizeirte Graka von Vorteil.

achso...
dann wird die leistung niemals mit aktuellen grafikkarten mithalten können. aber ich finde es dennoch gut. dann hat jeder pc automatisch eine onboard graka, falls die hauptgraka kaputt geht und man hat auch sonst mehr freiheit beim kauf von grafikkarten, da man kurze zeiträume ohne leistungsstarke graka überbrücken kann.
 
achso...
dann wird die leistung niemals mit aktuellen grafikkarten mithalten können. aber ich finde es dennoch gut. dann hat jeder pc automatisch eine onboard graka, falls die hauptgraka kaputt geht und man hat auch sonst mehr freiheit beim kauf von grafikkarten, da man kurze zeiträume ohne leistungsstarke graka überbrücken kann.

Richtig, find das Konzept auch gut.:bigok:
 
Also ich sehe die GP Einheit in der CPU immer aus einer anderen Sicht als das was hier immer besprochen wird.
Das was Intel aktuell macht ist nur eine GPU mit auf das CPU DIE zu kleben und sonst nichts.

Ich verstehe den Sinn der GP Einheit im Prozessor anders. Da es Berechnungen gibt, die eine Grafikeinheit schneller berechnen kann als ein Prozessor ist das Ziel diese Grafikeinheit direkt in den Prozessor zu integrieren und nicht nur doof auf das CPU DIE zu kleben. Was dann zu Folge hat, dass diese Grafikeinheit im Prozessor nicht zur Bildwiedergabe genutzt wird, sondern zur Berechnungen von Aufgaben die mit dieser Einheit dann viel flotter gehen. Zur Bildwiedergabe wird es dann weiterhin eine IGP und oder PCI-E Grafikkarte geben.
 
Zuletzt bearbeitet:
Ich zweifel da mal v.a. das "significantly" an. Da hat er sicherlich etwas dick aufgetragen. Ausser er bezieht sich auf AVX Benches, da werden die neuen Chips sicherlich davonziehen. Dagegen spricht aber das geringe FPU Leistungswachstum auf ner alten AMD Grafik.
Auf der einen Folie, die bisher zu sehen war, waren die Bulldozer Balken ja nicht final, sondern nach oben hin "offen".
Für mich hörte es sich aber auch erstmal etwas optimistisch an. Worüber reden wir bei "significantly"? 30%? Das wäre dann bei 50% mehr Kernen von Valencia zu Magny Cours praktisch doppelte Performance pro Kern. Entweder er spricht wirklich bezogen auf AVX oder ein Kern besteht in der Tat aus zwei Clustern. Eine Unbekannte sind hier zudem die Taktraten.
 
achso...
dann wird die leistung niemals mit aktuellen grafikkarten mithalten können. aber ich finde es dennoch gut. dann hat jeder pc automatisch eine onboard graka, falls die hauptgraka kaputt geht und man hat auch sonst mehr freiheit beim kauf von grafikkarten, da man kurze zeiträume ohne leistungsstarke graka überbrücken kann.

Die leistungsschwache GPU muss auch keine aktuelle Grafikkarte schlagen, sondern wird nur die aktuellen Onbord-GPUs ersetzen, und wenn sie das Konzept richtig machen, dann gibt die On-Chip-GPU immer das Bild aus, während die schnelle, leistungsstarke Karte nur dann aktiviert wird, wenn man mehr Leistung braucht. Wir werden sehen. Das ist übrigens etwas, was ich AMD eher zutraue als Intel, da AMD mit ATi da eine starke GPU-Sparte hat.
 
Der Bulldozer wird nicht gegen den i5 konkurrieren, das macht der Phenom 2
Ich denke das der Bulldozer gegen Intel Sandy Bridge konkurriert.

Mit dem I5 als solches sicherlich nicht, das stimmt.
Der Sandy-Bridge-Quad ist aber im Grunde nix anderes als ein Lynnfield mit IGP. Cache und Aufbau von Sandy und Nehalem ist nahezu identisch, mit Ausnahme von AVX - was aber lange Zeit uninteressant für den Endverbraucher ist wie alle Befehlssatzerweiterungen vorher auch lange Zeit uninteressant waren. Die Energieeffizienz von Sandy wird sicher auch etwas besser aufgrund des feineren Fertigungsprozesses, damit erschöpfen sich die Unterschiede aber.
BD ist eine Architektur und wird mittelfristig mit der Nehalem-Architektur konkurrieren, wozu man auch den Sandy-Bridge rechnen kann. Orochi (sehr wahrscheinlich 4 Kerne, 8 Cluster, 8 Threads) hingegen ist ein Derivat der BD-Architektur und wird mit den grösseren Sandy-Bridge-Varianten konkurrieren (4-6 Kerne) und Llano, welcher allerdings offenbar noch zur K10-Generation gehört und ein Propus mit IGP in 32nm darstellt, mit den kleineren (2 Kerne).
 
Zuletzt bearbeitet:
Du wirfst gerade Westmere und Sandy Bridge durcheinander. Westmere ist der Refresh von Nehalem ohne große Architekturänderungen, Sandy Bridge wird eine neue µ-Architektur.
Scheinbar nicht. Sandy Bridge wird wohl ebenfalls nur eine Core Weiterentwicklung. Eine Generation, für die zumindest kernseitig grössere Änderungen im Raum stehen, wird wohl erst Haswell ein bis zwei Jahre später.
Das ist aber kein Thema für diesen Thread. Also führe diese Diskussion bitte woanders.
 
Um die Diskussion mal wieder etwas anzuheizen ;)

obero.png


Originalquelle war hier -> http://forums.ocworkbench.com/showthread.php?t=89809 wurde aber von einem Moderator entfernt mit dem Hinweis "NDA".

Es ist nichts sicher, kann problemlos auch ein Fake sein. Aber nach einem kurzen Überfliegen kann man keine typischen PS Anzeichen entdecken. Könnte also wirklich ein BD ES sein =D
 
Kann auch net dran glauben...
 
Glauben und beweisen ist was anderes. Ich hab schon geschrieben dass es ein Fake sein kann, muss aber nicht bzw. es weißt nichts besondern auf ein Fake hin.

16 Kerne 16 Threads AVX, 2,9 Ghz 1v :fresse:

Und? Du weißt schon dass CPU-Z nur aus einer Datenbank ausließt?!
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh