[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Zum Thema 22 nm und 14 nm... das physikalische Limit ist so langsam erreicht. Es müssen neue Technologien her (z.B. Quanten-CPUs) sonst stagniert die Entwicklung demnächst sicherlich. Vergleich man die CPU-Leistungen im 3-Jahres-Zyklus hat sich beispielsweise 1990, 93, 96, 99 bis 2002 leistungstechnisch viel mehr getan als danach. Die Leistungsspünge in neuen Generationen sind nicht mehr exorbitant, häufig helfen nur noch Hardwarebeschleunigungen (also neue Befehlssätze) zu wirklich mehr Performance.

So würde ich das nicht unterschreiben. In den letzten 2-3 Jahren war es vielleicht etwas stiller (seit i7 und der der Verbreitung von 4x cpus )...
in den frühen 90er lief es meisten nur über den Takt oder Befehlserweiterungen.
Gerade die letzten Jahre haben da deutlich mehr und vor allem für alle Anwendungen nutzbare Innovationen gebracht.
Die nächste Evolutionsstufe steht uns die Tage hoffentlich ins Haus;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
BD liefert aber ungemein viel Flexibilität für die Weiterentwicklung. Vllt. ist der Weg, den Intel mit Haswell gehen will, einfach etwas steiniger, denn auch Intel muss von den klaren Kerndefinitionen weg um die Effizienz zu steigern und Intel muss genau wie AMD CPU und GPU wirklich fusionieren, was für Intel ein erheblich schwierigerer Schritt werden dürfte als für AMD

Zunächst muss man schauen, ob Bulldozer wirklich effizienter wird, als Intels Gegenstück im gleichen Prozess und gleicher Diesize - ich sehe noch nicht so ganz, dass das Modulkonzept zwangsläufig und in jedem Fall der bessere Weg ist.

Zum GPU-Thema: AMDs GPUs sind zweifellos erheblich schneller, aber ich wüsste nicht das hier die Integration schon weiter fortgeschritten ist. Eher im Gegenteil: Z.B. die gemeinsame Nutzung des L3-Caches gibt es hier noch nicht.
 
Die Servervariante kommt bald zu den OEMs.
Gemäß
AMD readies Bulldozers to ship next month ? The Register
:
On the server front, Siefert said that the 16-core "Interlagos" Opteron 6200 processor, the first server chip to make use of the "Bulldozer" core and implemented in GlobalFoundries' 32 nanometer processes, would ship this quarter to OEM partners. He added that the chip would offer about a 35 per cent performance boost compared to the current 12-core Opteron 6100s.
16 / 12 = 133%. Pro Kern wird das Teil nicht schneller. Früher hat AMD mal etwas von 170% Leistungssteigerung bei integerlastigen Aufgaben gesprochen.
 
BD liefert aber ungemein viel Flexibilität für die Weiterentwicklung. Vllt. ist der Weg, den Intel mit Haswell gehen will, einfach etwas steiniger, denn auch Intel muss von den klaren Kerndefinitionen weg um die Effizienz zu steigern und Intel muss genau wie AMD CPU und GPU wirklich fusionieren, was für Intel ein erheblich schwierigerer Schritt werden dürfte als für AMD (der Schritt ist für beide wahnsinnig schwer, aber AMD hat mehr Grafik-KnowHow und mehr Vorarbeit geleistet).
Jup. Bei Intel hängt die GPU zB noch am L3, was aber lediglich eine Notlösung ist. Der nächste Schritt, den AMD ja schon vollzogen hat, ist ein einheitlicher Adressraum. Deshalb hat AMD die Anbindung der GPU auch über die Crossbar realisiert. An dem Punkt ist Intel noch gar nicht.


16 / 12 = 133%. Pro Kern wird das Teil nicht schneller. Früher hat AMD mal etwas von 170% Leistungssteigerung bei integerlastigen Aufgaben gesprochen.
Kern != Kern. Das Thema hatten wir ja nun schon gefühlte 1001 mal. 8 * 80% vs 6 * 100% = +6,666...%. Interlagos hat also einen Kernvorteil von lediglich knapp 7%. Das wäre pro "Kern" also mehr als 25% Vorsprung. Wobei das hier eh unter voller Auslastung gilt. Einer bzw weniger Threads ist aufgrund von Turbo nochmal eine andere Geschichte. Mal davon abgesehen ging es hier speziell um HPC. Da liegt AMD selbst mit Magny Cours schon vor der Konkurrenz. Das hat also nicht unbedingt etwas mit genereller durchschnittlicher Performance zu tun.


Mal etwas zum Conference Call der Quartalszahlen:
There's Interlagos, which is our server-based products, which will begin shipping initial production next month. Likewise, there is a desktop version called the Zambezi, which is geared more towards the desktop enthusiast market. That will also begin initial production and shipments next month.
Ab nächsten Monat wird also ausgeliefert (passt zur Computex Folie -> August). Vermutlich ist dann im September offizieller Launch.
 
Zuletzt bearbeitet:
Zunächst muss man schauen, ob Bulldozer wirklich effizienter wird, als Intels Gegenstück im gleichen Prozess und gleicher Diesize - ich sehe noch nicht so ganz, dass das Modulkonzept zwangsläufig und in jedem Fall der bessere Weg ist.
Darum gehts doch garnichtmal. In der Theorie ist es sonnenklar, dass es effizienter ist, die Redundanz zu reduzieren, wo sie nicht erforderlich ist. Das Modulkonzept ist der erste Versuch das hinzubekommen. Wir werden sehen, wie die Praxis aussieht. Aber machen wir uns nichts vor, selbst wenn BD fehlschlägt (was unwahrscheinlich ist), hat man dennoch irre viel aus dieser Entwicklung gelernt - Wissen, dass Intel nicht hat.
Um mehr Leistung aus einem x86er rauszuholen bei weniger Transistorbudget und vor allem die Zentralisierung der FPU bei der Integration von GrafikALUs bleibt garkein anderer Weg, als eine Modulbauweise zu nutzen. Das Ziel wäre ein Modul, dass 4+ "Kerne" hat und eine große massiv-parallele FPU.
Zum GPU-Thema: AMDs GPUs sind zweifellos erheblich schneller, aber ich wüsste nicht das hier die Integration schon weiter fortgeschritten ist. Eher im Gegenteil: Z.B. die gemeinsame Nutzung des L3-Caches gibt es hier noch nicht.
Das halte ich für ein falsches Urteil. AMDs GPU ist weiterhin klar besser, vor allem, wenn man auf SI schaut. Klar, Intel hat diesen Cache-Anbindung (in wieweit das wirklich eine Auswirkung hat lass ich mal dahingestellt; hat ja eigentlich nur bei GPGPU Vorteile) und die Video-Encodierung (der einzige echte Vorteil, aber mMn ist das eher Trickserei, die relativ billig herzustellen war und dennoch einen handfesten praktischen Vorteil bringt), aber Intel hat die GPU ja auch neu entwickelt und hat da sicherlich einen ziemlichen Aufwand betrieben. Das ist notwenig, um eine konkurrenzfähige GPU aufzubauen. Denn eines ist ebenso klar, die GPU ist zwar besser geworden, aber konkurrenzfähig ist sie noch lange nicht.
AMD hat bisher keine großartige Integration gemacht; Llano und Ontario/Zacate sind CPU und GPU auf einem Die. In wieweit Trinity da Verbesserungen bringt, ist auch unklar. Sollte Trinity eine VLIW4-GPU mitbekommen (was mMn zutrifft), ist Trinity nicht "besser" als Llano in der Hinsicht, nur deutlich Leistungseffizienter. MMn kommt der nächste Fusionsschritt nach Trinity und noch in 32nm und da der SI beinhalten wird, wird das auch der erste echte Schritt in Richtung Fusion. Wir wären dann auf dem 3. Schritt nach AMDs Definition. Auch wenn Trinity jetzt schon gerne der BD2-Generation angedichtet wird, er ist mMn noch erste Generation. Warum sonst sollte man ihn jetzt schon öffentlich zeigen können, wo BD nichtmal releast ist? Llano ist nichts weiter als eine Brücke, eine Studie.
 
Zuletzt bearbeitet:
Es jetzt aber nur noch ca. die Hälfte der versprochenen Leistungssteigerung
Welche versprochene Leistungssteigerung? 70%? Zeig mal, wo man das getan haben soll. Es gibt bisher eine einzige Prognose zu Interlagos, 50% mehr Durchsatz gegenüber Magny Cours. Das ist etwas anderes als die hier erwähnten 35% mehr Performance bei HPC. Durchsatz ist ein sehr theoretischer Leistungsindikator. Das hat nicht unbedingt etwas mit Real-World Performance zu tun. Und die bei C't erwähnten 70% für specint haben ebenso wenig etwas mit den 35% HPC zu tun. Bitte nicht alles in einen Topf werfen. Ausserdem wüsste ich nicht, wo AMD offiziell von 70% mehr Performance bei specint gesprochen haben soll. Da musst du schon die C't fragen, wo sie das her haben.
 
Zuletzt bearbeitet:
hier erwähnten 35% mehr Performance bei HPC.
Ich lese da nichts von HPC - aber AMD hat sicher das Szenario mit dem geringst möglichen Leistungszuwachs für die Performanceabschätzung gewählt - Ehrlichkeit ist in diesem Geschäft alles. :xmas:

Wie groß wäre ein Phenom II X8 Die @ 32 nm in etwa geworden?
 
Ich lese da nichts von HPC - aber AMD hat sicher das Szenario mit dem geringst möglichen Leistungszuwachs für die Performanceabschätzung gewählt - Ehrlichkeit ist in diesem Geschäft alles. :xmas:

Wie groß wäre ein Phenom II X8 Die @ 32 nm in etwa geworden?

Kannst du selber rechnen... wie gross ist ein Phenom Kern? Wie gross der Cache? Wie viel kleiner ist 32 als 45nm? Und fertig.
 
In der Theorie ist es sonnenklar, dass es effizienter ist, die Redundanz zu reduzieren, wo sie nicht erforderlich ist.

Vollkommen korrekt. Aber die daraus resultierende bessere Auslastung bekommt man z.B. auch durch SMT. CMT kostet mehr Transistoren, bringt aber auch einen höheren Performancegewinn. Das würde ich weder besser oder schlechter nennen, sondern einfach einen anderen Weg - ein direkter Vergleich bei zwei so verschiedenen Architekturen ist so oder so nicht möglich.

Um mehr Leistung aus einem x86er rauszuholen bei weniger Transistorbudget und vor allem die Zentralisierung der FPU bei der Integration von GrafikALUs bleibt garkein anderer Weg, als eine Modulbauweise zu nutzen.

Tja, jetzt geht es um Definitionen. ;) Hätten wir denn bereits eine "Modulbauweise", wenn aktuelle SB-Kerne über keine FPU verfügen würden sondern über den Ring-Bus die GPU-ALUs nutzen würden? Würde ich nicht so nennen. So ein Weg wäre auch weiterhin mit relativ "dicken" Kernen inkl. SMT denkbar, im Gegensatz zu AMDs aktueller Entwicklung zu schlankeren (Int-)Kernen, welche zu Modulen gruppiert werden.

Das halte ich für ein falsches Urteil. AMDs GPU ist weiterhin klar besser, vor allem, wenn man auf SI schaut.

Zweifelos ist die GPU erheblich besser, ich wollte nur auf den Punkt der Integration in die CPU anspielen. Hier war Intel zuletzt etwas schneller bzw. weiter voran, was natürlich nur für die rein technische Betrachtungsweise von Interesse ist. Das Llano den Speichercontroller höher taktet (aber trotzdem auf weniger Durchsatz kommt?) ist weniger technisches Meisterwerk, sondern eine Notwendigkeit aus der höheren Rechenleistung der GPU.

MMn kommt der nächste Fusionsschritt nach Trinity und noch in 32nm und da der SI beinhalten wird, wird das auch der erste echte Schritt in Richtung Fusion. Wir wären dann auf dem 3. Schritt nach AMDs Definition. Auch wenn Trinity jetzt schon gerne der BD2-Generation angedichtet wird, er ist mMn noch erste Generation.

Den eigentlichen ersten Schritt, wie es z.B. Clarkdale war - CPU und GPU in einem MCM - hat AMD ja direkt übersprungen. Llano, Bobcat oder SB sind für mich die zweite Stufe, CPU und GPU auf einem Die. Die dritte Stufe wäre jetzt die Verschmelzung von FPU und ALUs, die kommt bei Intel erst bei Haswell(?), bei AMD hab ich dazu noch keine Infos bewusst gelesen (oder aber übersehen? Bitte mal auf die Sprünge helfen). In jedem Fall ist die letzte Stufe die vermutlich schwierigste, in vielerlei Hinsicht.
Warum ist Trinity bzgl. Integration für dich noch eine weitere Stufe? SI/VLIW4 Shader sind ein GPU-seitiges Update (zudem gfls. bereits eine weitere Evolutionsstufe der BD-Kerne), einen weiteren Schritt für die Verschmelzung sehe ich hier aber nicht.

Edit: Sry fürs Posting-Schreddern. ;) So viele Einzelzitate sollten das gar nicht werden...
 
Zuletzt bearbeitet:
Den eigentlichen ersten Schritt, wie es z.B. Clarkdale war - CPU und GPU in einem MCM - hat AMD ja direkt übersprungen. Llano, Bobcat oder SB sind für mich die zweite Stufe, CPU und GPU auf einem Die. Die dritte Stufe wäre jetzt die Verschmelzung von FPU und ALUs, die kommt bei Intel erst bei Haswell(?), bei AMD hab ich dazu noch keine Infos bewusst gelesen (oder aber übersehen? Bitte mal auf die Sprünge helfen). In jedem Fall ist die letzte Stufe die vermutlich schwierigste, in vielerlei Hinsicht.
Warum ist Trinity bzgl. Integration für dich noch eine weitere Stufe? SI/VLIW4 Shader sind ein GPU-seitiges Update (zudem gfls. bereits eine weitere Evolutionsstufe der BD-Kerne), einen weiteren Schritt für die Verschmelzung sehe ich hier aber nicht.

Was meinst du mit letzte Stufe?
Der endgültig letzte Schritt wäre aus meiner Sicht die vollständige Integration der GPU in die CPU. So das durch "normale" Programme der Teil mit beansprucht werden kann und somit auch merklich schneller abläuft.
Im Moment sind die ganzen GPU auf/in/an CPU Geschichten ja immernoch normale GPU Einheiten, die auch nur in Programmen angesprochen werden kann, die auch mit der GPU klar kommen... (quasi GPGPU)

Und hier sehe ich für die Zukunft irgendwie noch ein Problem... Auch gibts wohl da keinen allgemein gültigen gängigen Standard...
 
Was meinst du mit letzte Stufe?
Der endgültig letzte Schritt wäre aus meiner Sicht die vollständige Integration der GPU in die CPU. So das durch "normale" Programme der Teil mit beansprucht werden kann und somit auch merklich schneller abläuft.

Genau das wäre die angesprochene Verschmelzung von CPU-FPU und GPU-Shadern.
 
Vollkommen korrekt. Aber die daraus resultierende bessere Auslastung bekommt man z.B. auch durch SMT. CMT kostet mehr Transistoren, bringt aber auch einen höheren Performancegewinn. Das würde ich weder besser oder schlechter nennen, sondern einfach einen anderen Weg - ein direkter Vergleich bei zwei so verschiedenen Architekturen ist so oder so nicht möglich.
Ich sehe SMT nur als ersten Schritt, aber SMT selbst hat zu viele Nachteile allein. CMT löst das. Der Trick ist ja grade der, dass die ALUs im Vergleich zum restlichen Prozessor im Verhältnis immer kleiner werden, man kann also ruhig mehr ALUs verbauen und sich im Frontend um eine gute Threadverteilung kümmern und zwar konsequenter als bei SMT. Das Ziel wäre ja das, dass das Modul sowohl bei einem Thread als auch bei massivem Multithreading schnell ist. BD wird genau das noch nicht in dem Umfang leisten können, aber es ist klar, dass das Modul das Potenzial genau dazu hat. Ein Modul könnte z.B. auch Synchonisierungslatenzen komplett eliminieren bei Programmen die viele zusammenhängende Threads haben.
Tja, jetzt geht es um Definitionen. ;) Hätten wir denn bereits eine "Modulbauweise", wenn aktuelle SB-Kerne über keine FPU verfügen würden sondern über den Ring-Bus die GPU-ALUs nutzen würden? Würde ich nicht so nennen. So ein Weg wäre auch weiterhin mit relativ "dicken" Kernen inkl. SMT denkbar, im Gegensatz zu AMDs aktueller Entwicklung zu schlankeren (Int-)Kernen, welche zu Modulen gruppiert werden.
Die dicken Einzelkerne stoßen an ihre Grenzen. Wenn Module kleiner sind und ähnliche Leistungen liefern (vllt. sogar weniger aber dafür kleiner und effizenter sind), ist die Zeit der dicken Einzelkerne vorbei. Da gibts keine "Definitionssache". Und ein Ringbus an einer so Latenzsensiblen Stelle kannst du eh vergessen ;). Der GPU wär das egal, aber für die FPU-Eigenschaften wäre das tödlich. Die Einbettung in ein Modul sehe ich als einzigen relativ einfach gangbaren Weg.
Zweifelos ist die GPU erheblich besser, ich wollte nur auf den Punkt der Integration in die CPU anspielen. Hier war Intel zuletzt etwas schneller bzw. weiter voran, was natürlich nur für die rein technische Betrachtungsweise von Interesse ist. Das Llano den Speichercontroller höher taktet (aber trotzdem auf weniger Durchsatz kommt?) ist weniger technisches Meisterwerk, sondern eine Notwendigkeit aus der höheren Rechenleistung der GPU.
Intel hat eine Schnittstelle geschaffen, dass Videodaten sehr direkt (also Latenzarm) über die GPU gerechnet werden können. Zudem bietet der L3 potenzial für einen schnellen Zugriff auf GPGPU-Berechnungen. Damit erschöpft sich Intels bessere Integration und für den ersten Versuch taugt das schon recht viel.
Den eigentlichen ersten Schritt, wie es z.B. Clarkdale war - CPU und GPU in einem MCM - hat AMD ja direkt übersprungen. Llano, Bobcat oder SB sind für mich die zweite Stufe, CPU und GPU auf einem Die. Die dritte Stufe wäre jetzt die Verschmelzung von FPU und ALUs, die kommt bei Intel erst bei Haswell(?), bei AMD hab ich dazu noch keine Infos bewusst gelesen (oder aber übersehen? Bitte mal auf die Sprünge helfen). In jedem Fall ist die letzte Stufe die vermutlich schwierigste, in vielerlei Hinsicht.
Warum ist Trinity bzgl. Integration für dich noch eine weitere Stufe? SI/VLIW4 Shader sind ein GPU-seitiges Update (zudem gfls. bereits eine weitere Evolutionsstufe der BD-Kerne), einen weiteren Schritt für die Verschmelzung sehe ich hier aber nicht.
Ok, war vermutlich einfach falsch ausgedrückt. Um das glasklar zu stellen: Trinity hat mMn BD1-Module und VLIW4-ALUs. Das bedeutet, dass Trinity eindeutig Fusion Stufe 2 ist (wie schon richtig erwähnt wurde Fusion Stufe 1 von AMD übersprungen), was anderes habe ich auch nicht gemeint. Ich bin aber der Meinung, dass es nach Trinity in nicht allzugroßem Abstand einen BD2-Nachfolger mit SI-ALUs geben wird, der wird Fusion Stufe 3 und BD3 könnte dann Stufe 4 bringen. Das wäre dann quasi ein Tock auf Intelsch ausgedrückt (irgendwann Ende 2013). Ich denke, dass Intel den 4. Fusionschritt schon in Haswell realisieren will und dass er deshalb später als gedacht kommen soll.
Das sind natürlich alles ungelegte Eier, man könnte mehr dazu sagen, wenn man das Verhalten von BD schon kennen würde ;).
 
Zuletzt bearbeitet:
Ich lese da nichts von HPC
Dann solltest du nochmal genau hinschauen. ;)
The Interlagos platform is our first server offering, optimized for today's cloud datacenters and the architecture excels at compute-intensive and HPC workloads, where it will deliver up to 35% performance improvements compared to our current offerings.


aber AMD hat sicher das Szenario mit dem geringst möglichen Leistungszuwachs für die Performanceabschätzung gewählt
Na wenn du meinst, 35% wäre gering. :rolleyes: HPC ist seit langer Zeit eine AMD Domäne. Es ist völlig logisch, dass man auch hier entsprechende Prognosen vorgibt. Letztendlich ist die reine Performancesteigerung aber nebensächlich. Es geht in erster Linie um Energieeffizienz. Nur anhand der benötigten Energie lässt sich die Performance sinnvoll vergleichen. Zudem kommen ja weitere Optionen hinzu, wie AVX und FMA. Damit sind sicherlich mehr als 35% drin.


[QUOTE='[HOT]Um das glasklar zu stellen: Trinity hat mMn BD1-Module und VLIW4-ALUs.[/QUOTE]
VLIW4, vermutlich. BD1 Module, eher nicht. Laut AMD hat Trinity die selben Kerne wie Komodo. Das dürften also bdver2 Kerne sein.
 
The Interlagos platform is our first server offering, optimized for today's cloud datacenters and the architecture excels at compute-intensive and HPC workloads, where it will deliver up to 35% performance improvements compared to our current offerings.
Advanced Micro Devices' CEO Discusses Q2 2011 Results - Earnings Call Transcript - Seeking Alpha


Das "bis zu" stört mich. Das könnten im Durchschnitt deutlich weniger Prozentpunkte sein. Wie hoch sollte die CMT Skalierung aussehen, 80, 90%? Momentane Toplösung 12 Kerne gegen 16 Integer Kerne des zukünftigen Interlagos. Es wäre doch speziell im Client Bereich schön, wenn AMD die einzelne Kernleistung nicht vernachlässigt. Reine Bruteforce mit hoher Kernanzahl bringt es hier nur bedingt.


Wie hoch schätzt ihr die IPC Steigerung gegenüber Thuban ein? Ich erwarte eine Steigerung mindestens im niedrig zweistelligen Bereich, also mindestens 10%. Das wäre meine Mindesterwartung, alles andere wäre arg enttäuschend.
 
Zuletzt bearbeitet:
Die HPC-Anmerkung fehlte in der zusammenfassenden Quelle. Das 'bis zu' auch. :d

IPC-Rechnung wird dem hier glaube ich nicht gerecht. Wenn der Programmcode die Ausführungseinheiten eines Moduls nur spärlich auslastet (und man viele Threads hat), sollte der zweite Kern pro Modul gut skalieren.
Läuft ein Modul mit einem Thread schon gut ausgelastet, bricht die IPC im Mittel bei zwei Threads pro Modul ein.
Hat man nur genau einem Thread und eine schelchte Auslastung, sollte der Turbo greifen. Bei nur etwas über 4 GHz wird das aber knapp.

Im Wesentlichen soll Bulldozer wohl flexibler einsetzbar sein. K10 punktet nur bei bestimmten Rechenlasten (viele Threads, viel fp-SSE).
Die Frage ist, ob die 35% schon mit Software-Anpassung gerechnet sind. Bitte kein zweiter K8-K10 Sprung mit Vorteilen nur für Intel-Compiler-Nutzer.
 
warum hier so viel über gpu integration geredet wird.. mich als high end user wird eine cpu/gpu fusion nie interessieren.

eine seperate grafik karte wird immer mehr leistung bringen können.

ich will von der cpu nur eines. Maximale Power.

wenn es in 5 Jahren noch die Wahl zwischen CPU & CPU/GPU in einem gibt, würde ich nur die Normale CPU Nehmen.

Rein Logisch betrachtet dürfte eine CPU auch immer mehr platz haben und somit von der reinen CPU Rechenleistung einer anderen hybrid CPU immer überlegen sein. daher halte ich dieses Hybrid Konzept für Sinnfrei. dürfte zwar was für die Office PC,s sein was dem Massenmarkt entspricht, aber für High End nicht zu gebrauchen.
 
es geht ja nicht um Grafikberechnung via GPU, sondern um Vektoren oder so was, was die Graka dank ihrer hochen Parallelisierung viel schneller berechnen kann.
klar große GPUs sind da noch schneller, aber haben durch den BUS und die Software, die du brauchst um sie anzusprechen 1. höheren CPU load und 2. eine sehr hohe Ansprechzeit. Das ganz APU zeug macht schon sinn.
 
Rein Logisch betrachtet dürfte eine CPU auch immer mehr platz haben und somit von der reinen CPU Rechenleistung einer anderen hybrid CPU immer überlegen sein. daher halte ich dieses Hybrid Konzept für Sinnfrei. dürfte zwar was für die Office PC,s sein was dem Massenmarkt entspricht, aber für High End nicht zu gebrauchen.

Bei den aktuellen Ansätzen würde ich dir da voll zustimmen...
Aber warte einfach mal, was aus dem Fusionierungsprogramm irgendwann mal wird. Interessant wird es dann, wenn wie oben schon angesprochen die CPU auf Teile des ursprünglichen GPU Teils zurück greifen kann... Und somit Programmcode der dem GPU Part gut liegt erheblich schneller ausgeführt werden kann als bei ner reinen CPU Lösung.
Bis dahin wirds aber noch ein langer weg...

Sofern wie aktuell der GPU Part eigentlich nur dran gepackt ist und man um diesen anzusprechen zwingend "GPGPU Programme" braucht, sehe ich dessen Markt auch eher im LowBudget bzw. Multimedia/Heim TV Bereich... Nichtmal wirklich im OEM Office Bereich, denn dort brauch es die GPU Power vom Llano nichtmal...
 
Is halt ein anfang. Is denke ich erstmal eh in tablett oder notebooks besser aufgehoben,
ich denke zum richtig gamen wird es in den nächsten 10 jahren nichts damit umd einer Grafikkarte Konkurenz zu machen.
 
Und was soll daran jetzt neu sein?
lol, 8 Kerne, 32nm, 2MB L2 (2x1MB), 95-125W, AM3+ & DDR3-1866, FX bla bla
 
Interessant finde ich die mind. 300 MHz großen Schritte, wenn die Taktraten stimmen. Vielleicht legt man dann nicht für 100 MHz mehr wieder ein neues Produkt auf. Fänd ich gut.
 
Nein liegt wohl daran das AMD durch neue Steppings bugs beseitigen wird und den Takt auch weiter erhöhen kann, das ganze Potential zum Launch zeigen wäre nicht klug genug.
 
War nicht beim Turbo von bis zu 1GHz die Rede?
Die beiden kleinen Modelle machen dort laut Folie 900MHz gut. Die großen nur 600MHz.

Wird es denn Unterschiede zwischen den Modellen geben? Also ich sehe dort bei den vier 8 Kernern außer den Multi und Turbo nicht viel Unterschied... Da es wohl alles BEs werden, könnte man wohl bequem zum kleinsten 8 Kerner greifen und den Multi selbst hoch treiben...
Rein OC technisch dürfte es wenn die Fertigung mal richtig fluppt sogut wie keine Unterschiede beim max. OC geben... Erfahrungsgemäß schaffen ja auch die kleinen Phenom II CPUs gleiche Taktregionen wie die ganz großen Modelle. Das wird sich denke ich nicht unbedingt ändern...
 
Zuletzt bearbeitet:
Früher war immer nur die rede von 3,5Ghz Basistakt + 500MHz Turbo, +1Ghz bezog sich auf 4 Kerne und nicht auf 8 Kerne, aber offiziell war das nie angekündigt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh