AMD Zen-Prozessoren sollen im Oktober 2016 starten

Wenn Zen Schwächer wird als Skylake (was es 100% werden müsste), muss AMD eben wieder über Preise Arbeiten wie schon beim Phenom und Bulldozer.
100% sicher ist im Moment gar nichts. Im Moment schaut es lediglich so aus, dass Skylake nur ein kleines Update gegenüber Haswell/Broadwell wird. Ein 8-Kern Zen sollte genügend Potenzial haben, um auch im High-End Bereich wieder mitzuspielen.

AMD wird allein wegen den Fertigungs unterschieden (10nm mit cannonlake ca zeitgleich zum Zen Release), Intel nicht mehr das Wasser Reichen können was Leistung pro Watt angeht.
AMD beweist bereits mit 28nm, dass man bezüglich Energieeffizienz nicht weit von Intels aktueller Fertigung entfernt ist. Die 14nm Fertigung von Samsung/Glofo wird ein gewaltiger Sprung für AMD im Vergleich zu 28nm, sowohl was Flächen- als auch Energieeffizienz betrifft. Flächendeckende Intel Produkte in 10nm sind zudem wohl nicht vor 2H 2017, eher 2018, zu erwarten. Das wäre dann erst mindestens ein Jahr nach Zen. Bis dahin hat Samsung/Glofo eventuell auch schon 10nm am Start. Zen wird sich mit 14nm Skylake bzw dem Skylake Refresh messen.

Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
Halbherzig weiterentwickelt wurde keineswegs. Steamroller und Excavator sind äusserst signifikante Weiterentwicklungen, aus denen auch Erfahrungen für zukünftige Entwicklungen gewonnen wurden, zB der Einsatz von HDL. Es wurde lediglich kein eigenständiges CPU-Design mehr entwickelt nach Orochi. Das hat mit der Weiterentwicklung der eigentlichen Kernarchitektur aber wenig zu tun.

APU,s erforscht haben, wo die bis heute immer noch viel zu wenig einbringen.
Das mag sein. Dennoch machen sie trotzdem den Grossteil der Prozessorenumsätze bei AMD aus. Nicht zu vergessen, ohne APUs hätte man jetzt auch keine Konsolendeals, die für ordentlich Umsatz sorgen.

Es gab die Option für GPU,s auf Mainboards
Das will und braucht keiner. Wenn man es schon macht, dann richtig. Mit Hinblick auf HSA und Exascale Computing geht's auch nicht anders.

Das Große Zeitlassen mit Zen.
Keiner hat sich mit Zen Zeit gelassen. Das wurde sehr frühzeitig angegangen. Wenn du was von Prozessorenentwicklung verstehst, dann weisst du auch, dass eine komplett neue Architektur Jahre dauert und nicht innerhalb von ein paar Monaten zu machen ist.


Wir werden es wohl nie erfahren...
So ist es. Bringt jetzt auch nichts, weiter darüber zu diskutieren. Die entscheidenden Köpfe hinter Bulldozer sind eh nicht mehr am Start. Chuck Moore zB verstarb sogar vor einiger Zeit. Ich bin mir sicher, dass man noch einiges aus der Architektur rausholen hätte können. Steamroller und Excavator haben jedenfalls gut zulegen können. Einiges wird man aber nur schwer oder gar nicht ändern können, wie das suboptimale Cachesystem. Aber vielleicht sehen wir CMT in Zukunft nochmal in einer anderen Architektur wieder. Diese Erfahrungen werden sicherlich auch bei Zen einfliessen. Schliesslich nutzt Bulldozers CMT Implementierung teilweise auch SMT. Mittlerweile hat man jedenfalls ein anderes Entwicklerteam rund um Jim Keller am Start. Und wenn die andere Vorstellungen von einer CPU-Architektur haben, dann geht man halt ans Reissbrett zurück, unabhängig davon, was aus der alten Architektur noch rauszuholen gewesen wäre. Ein sauberer Schnitt ist an der Stelle dann einfach die richtige Entscheidung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
uiuiui

"Wenn Zen nicht floppt"

Wenn Zen Schwächer wird als Skylake (was es 100% werden müsste), muss AMD eben wieder über Preise Arbeiten wie schon beim Phenom und Bulldozer.

AMD wird allein wegen den Fertigungs unterschieden (10nm mit cannonlake ca zeitgleich zum Zen Release), Intel nicht mehr das Wasser Reichen können was Leistung pro Watt angeht.

Aber das ist schon ok um zu überleben.

Ich frage mich aber seit jahren, warum AMD solche Kostenintensiven Entscheidungen getroffen hat.

Ich zähle mal auf.

1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
2. APU,s erforscht haben, wo die bis heute immer noch viel zu wenig einbringen. Die hätten sich den ganzen aufwant sparen können. Es gab die Option für GPU,s auf Mainboards, wozu also Millionen ausgeben um die gpu zu verschieben, wenn man kein Geld hat und sein ganzes geld lieber in die CPU entwicklung stecken sollte ?
3. Das Große Zeitlassen mit Zen. AMD hätte Zen lieber direkt dieses Jahr mit 28nm bringen sollen, selbst wenn das bedeutet das man auf 10% IPC verzichtet.
Einfach weil AMD in der zeit wo sie Zen weiter entwickeln wenigstens mehr verkaufen können als die jetzigen Bulldozer welche seit Vishera (2012) nicht mehr schneller wurden.

Ist schon dementiert. Da ist so ein Pressefuzzi wieder mal total über die Stränge geschlagen.

Übrigens ist ne neue Roadmap aufgetaucht, die aus einem echten Slide zu stammen scheint, die führt diese komische Zeitplanungstabelle total ad absurdum.
http://benchlife.info/amd-apu-platform-will-add-zen-cpu-architecture-in-2017-06182015/
Demnach wird BR ab Q1 ausgeliefert und Zen ab Q3.
Da wird auch endlich geklärt, was Stoney Ridge ist, ein ein-Modul-Excavator, der die Cats ersetzt.
 
Zuletzt bearbeitet:
Das alles sehr viel Wunschdenken. Gerade AMD mit seinen begrenzten Resourcen wird sich lange überlegt haben, was besser ist: Bulldozer weiter zu entwickeln oder neu zu starten. Die Entscheidung hängt dabei vor allem von dem Potential ab, welches man der jeweiligen Variante zugesteht und dem Aufwand dafür. Da der Aufwand für jede Steiterung bei einer bekannten Architektur auch mit jedem Schritt steigt, ist irgendwann auch ein Neuanfang unumgänglich.

AMD hat de fakto in der Heutigen Realität die bulldozer entwicklung seit der 2ten Gen nichtmehr auf Performance ausgelegt.
Es gab 28nm SHP der kaum bessere Leistung brachte weil die iGPU das ding verkrüppelt hat, und nur 2 module und kein L3, und bei Excavator (MK4 haben sie dann eine Notebook Optimierung gemacht, weil sie wussten das sie Bulldozer für den Desktop fallen lassen wollen.

In meiner Argumentation gäbe es ja kein FM2+, keine APU,s und dennoch die einnahmen durch Konsolen Chips einfach in Form von GPU,s verlötet auf Mainboards so wie früher schon oder auf laptops.
AMD hätte auch keine Maske für APU,s entwickelt, und milliarden gespart ohne den ganzen APU forschungskram.

AMD ständen dann zur verfügung. Geld für einen neuen Sockel, Geld für Bulldozer MK3 in 28nm SHP mit L3 und 4 Modulen. Dadurch mehr Absatz als heute, und dem entsprechend die Option noch 1-2 Jahre Länger am Bulldozer Festzuhalten, einfach weil es besser ist, als versuchen bis 2017 mit MK2 oder überteuerten APU,s welche nicht schneller als MK2 und nur 2 Module haben, zu überleben.

Dem entsprechend hätten wir wenn sie diese APU geschichte nie angefangen hätten, heute schon einen MK4 in 28nm Super Process mit 20% mehr IPC als Vishera, bei 4 Modulen / 8 Kernen auf einem neuen modernen Sockel, und genug ST Performance um keine Große Schwäche mehr zu haben. Den Sockel hätte man sogar für MK3 schon einführen können. Und das alles hätte wie gesagt 0$ gekostet, weil AMD das Geld dafür hatte, und es nur Falsch verbraten hat.
Und damit hätte AMD zu 100% mehr eingenommen als heute mit ihren Krüppel APU,s und Uralt FXern auf Uralt AM3+ Basis, da bin ich mir sicher.
Ich hätte mir einen +20% Leistung pro Takt gegenüber Vishera FX8 mit L3 & DDR4 in 28nm Super High Performance Prozess für den neuen Sockel Definitiv gekauft.

- - - Updated - - -

100% sicher ist im Moment gar nichts. Im Moment schaut es lediglich so aus, dass Skylake nur ein kleines Update gegenüber Haswell/Broadwell wird. Ein 8-Kern Zen sollte genügend Potenzial haben, um auch im High-End Bereich wieder mitzuspielen.
Ja schon klar, da Zen mit 8 Richtigen Kernen kommt, werden sie die i5 und i7 4 Kerner defenetiv Schlagen, da bin ich mir auch sicher.
Meine aussage bezog sich nur auf die Kern vs Kern Leistung pro Takt (Kann man dazu auch Taktleistung sagen ?)
Ich vermute Zen wird keine Skylake Leistung Core vs Core beim gleichen Takt bieten, da bin ich mir 100% sicher. Es wird wohl was zwischen Sandy und Haswell.

AMD beweist bereits mit 28nm, dass man bezüglich Energieeffizienz nicht weit von Intels aktueller Fertigung entfernt ist. Die 14nm Fertigung von Samsung/Glofo wird ein gewaltiger Sprung für AMD im Vergleich zu 28nm, sowohl was Flächen- als auch Energieeffizienz betrifft. Flächendeckende Intel Produkte in 10nm sind zudem wohl nicht vor 2H 2017, eher 2018, zu erwarten. Das wäre dann erst mindestens ein Jahr nach Zen. Bis dahin hat Samsung/Glofo eventuell auch schon 10nm am Start. Zen wird sich mit 14nm Skylake bzw dem Skylake Refresh messen.
Ja das klingt Realistisch was du schreibst.

Halbherzig weiterentwickelt wurde keineswegs. Steamroller und Excavator sind äusserst signifikante Weiterentwicklungen, aus denen auch Erfahrungen für zukünftige Entwicklungen gewonnen wurden, zB der Einsatz von HDL. Es wurde lediglich kein eigenständiges CPU-Design mehr entwickelt nach Orochi. Das hat mit der Weiterentwicklung der eigentlichen Kernarchitektur aber wenig zu tun.
WIe gesagt wurde Excavator auf Low Takt für Notebooks entwickelt. Das war nicht der Ursprüngliche Plan. Das hat alles was mit den neuen Plänen die Bulldozer Architektur Fallen zu lassen zu tun.

Das mag sein. Dennoch machen sie trotzdem den Grossteil der Prozessorenumsätze bei AMD aus. Nicht zu vergessen, ohne APUs hätte man jetzt auch keine Konsolendeals, die für ordentlich Umsatz sorgen.

Das will und braucht keiner. Wenn man es schon macht, dann richtig. Mit Hinblick auf HSA und Exascale Computing geht's auch nicht anders.
HSA bringt AMD gerade nicht wirklich Milliarden ein.
Exascale Computung ist auch nicht der Heilsbringer.
Konsolendeals hätte man Technisch gesehen auch ohne APU,s machen können.
Begründung: Leistungsstarke Grafikkarten gibts auch auf Notebooks.
Von daher hätte AMD einfach viel mehr Geld gemacht ohne den ganzen "Schnick Schnack", in dem sie einfach Brutal auf die weiter Entwicklung ihrer Architektur geblieben wären.
Wie gesagt so ein FX8 mit 20% mehr leistung pro Takt und mehr Takt oder weniger verlustleistung bei gleichen Taktfrequenzen dank 28nm SHP wäre heute locker schon lange kaufbar gewesen und die mittel dazu wären da gewesen wenn sie auf den ganzen "Schnick Schnack" verzichtet hätten.

Keiner hat sich mit Zen Zeit gelassen. Das wurde sehr frühzeitig angegangen. Wenn du was von Prozessorenentwicklung verstehst, dann weisst du auch, dass eine komplett neue Architektur Jahre dauert und nicht innerhalb von ein paar Monaten zu machen ist.
Du verstehst mich Falsch. AMD arbeitet mindestens seit 2013 an Zen, evtl schon seit 2012.
AMD hätte den Zen dieses Jahr schon bringen können, mit weniger Leistung pro Takt, weniger Effizienz, und in 28nm.
Zen ist ja nur noch nicht da, weil AMD ihn unbedingt in 14nm und mit einer gewissen IPC (Leistung pro Takt) haben möchte.
Das könnte ihnen aber gerade den Hals kosten.

Die entscheidenden Köpfe hinter Bulldozer sind eh nicht mehr am Start. Chuck Moore zB verstarb sogar vor einiger Zeit. Ich bin mir sicher, dass man noch einiges aus der Architektur rausholen hätte können.

Definitiv. Zu 100% wäre mehr Leistung Pro Takt und Energie Ersparniss Rauszuholen gewesen.
Zambezi hat ja quasi 100% weniger leistung pro Takt vs Skylake.
Und ich wette Intel wird in den nächsten 5 Jahren wieder mehr Leistung pro Takt rausholen.
Daher, Intel zeigt uns, das man sogar aus Bulldozer locker 80% mehr Leistung pro Takt, und dementsprechend auch Pro Watt rausholen könnte, weil aufgrund des Designs nur ein 20% nachteil da sein muss.
Und wie AMD gezeigt hat, waren Leistung pro Takt Steigerungen auch mit jeder Gen möglich, und das obwohl AMD,s Forschungs Budge viel kleiner war.
Dazu kommt halt noch der Umstand das AMD quasi noch bei 32nm ist.
(Die 28nm APU,s zähle ich nicht dazu weil die iGPU verhindert zu zeigen wie viel der Prozess bei einer Only CPU Optimierung gebracht hätte).

unabhängig davon, was aus der alten Architektur noch rauszuholen gewesen wäre. Ein sauberer Schnitt ist an der Stelle dann einfach die richtige Entscheidung.

Bulldozer ist nicht wirklich Alt. Intels Sandy Basiert auf einer Architektur die wesentlich Älter ist (Core 2 von 2006 bzw Pentium M von 2004)
Aber das AMD eine neue Archtiektur bringt, dagegen habe ich nichts.
Ich finds nur so Schade das sie sich selbst daran gehindert haben, der Welt zu zeigen, wie gut Bulldozer hätte sein können, wenn AMD ihn nicht selbst so früh fallen gelassen hätte.
 
Zuletzt bearbeitet:
In meiner Argumentation gäbe es ja kein FM2+, keine APU,s und dennoch die einnahmen durch Konsolen Chips einfach in Form von GPU,s verlötet auf Mainboards so wie früher schon oder auf laptops.
AMD hätte auch keine Maske für APU,s entwickelt, und milliarden gespart ohne den ganzen APU forschungskram.

AMD ständen dann zur verfügung. Geld für einen neuen Sockel, Geld für Bulldozer MK3 in 28nm SHP mit L3 und 4 Modulen. Dadurch mehr Absatz als heute, und dem entsprechend die Option noch 1-2 Jahre Länger am Bulldozer Festzuhalten, einfach weil es besser ist, als versuchen bis 2017 mit MK2 oder überteuerten APU,s welche nicht schneller als MK2 und nur 2 Module haben, zu überleben.

Dem entsprechend hätten wir wenn sie diese APU geschichte nie angefangen hätten, heute schon einen MK4 in 28nm Super Process mit 20% mehr IPC als Vishera, bei 4 Modulen / 8 Kernen auf einem neuen modernen Sockel, und genug ST Performance um keine Große Schwäche mehr zu haben. Den Sockel hätte man sogar für MK3 schon einführen können. Und das alles hätte wie gesagt 0$ gekostet, weil AMD das Geld dafür hatte, und es nur Falsch verbraten hat.
Und damit hätte AMD zu 100% mehr eingenommen als heute mit ihren Krüppel APU,s und Uralt FXern auf Uralt AM3+ Basis, da bin ich mir sicher.
Ich hätte mir einen +20% Leistung pro Takt gegenüber Vishera FX8 mit L3 & DDR4 in 28nm Super High Performance Prozess für den neuen Sockel Definitiv gekauft.

Du siehst das irgendwie zu pauschal...
dGPUs bringen dir ganz andere Probleme in den Konsolen... Wie schon angesprochen, du hast bspw. keine shared Memorys mehr an der Stelle, wie sie die APU mitbringt. Du müsstest somit also wieder einen VRAM und einen RAM Pool bereit stellen.
Gerade das AIO Konstrukt der APU, die ja so auch nicht direkt im Endkundengeschäft zu kaufen ist, macht es für die Konsolen doch interessant... Zumal auch, wie gesagt, das Teil so in der Form nicht kaufbar ist im Endkundenmarkt. Da steckt also eine Entwicklung drin. Ebenso sind die APUs der Konsolen nun auch nicht Bulldozer, sondern eher doppelter Jaguar mit eben der deutlich breiteren GPU gepaart.

Auch bringt es AMD nicht direkt weiter, gar keine APU Lösungen zu bringen. Sicher sind die Intel Teile bis auf die GT3e Versionen nicht so schnell, wie es die APUs bei AMD sind, aber es sind eben auch "APUs". Würde man gar keine APUs haben, hätte man auf Chipsatzgrafik in dem Bereich gehen müssen. Auch wenn das hier viele vielleicht anders sehen oder nicht benötigen. Gerade im OEM Bereich kommt doch diese Intel GPU zum Einsatz, einfach weil sie drin/dran ist. Man darf halt nicht immer nur vom eigenen Bedarf aus schließen.
Und wie schon gesagt, das Konzept hinter den APUs war doch ursprünglich mal "Fusion", wie es AMD getauft hat. Ansich eine tolle Sache... Und wird früher oder später auch definitiv dort in die Richtung gehen. Die Frage ist halt, wann? -> eine APU mit HBM Speicher und ohne Bandbreitenproblemen in einem anständigen Prozess wäre durchaus in der Lage gut zu performen. Vielleicht versucht man das ganze unter Gamingaspekten auch einfach bis DX12 auszusitzen? Möglich wäre es zumindest.

Ebenso deine Ausführungen zum Bulldozer. Auch mit den Änderungen, die du benennst, hätte AMD immernoch wenig Chance ggü. Haswell/Broadwell und demnächst dann Skylake. Was soll es also bringen?
-> AMD hat, so schaut es zumindest aus, eher versucht sich einen Markt zu schaffen und dort mit einem Alleinstellungsmerkmal aufzutrumpfen. Dies ist zumindest bis zum Broadwell mit GT3e Einheit auch gelungen... Wie viele Jahre gibts nun schon die AMD APUs?
Das macht man doch nicht, weil man so gut aufgestellt ist... Sondern das macht man doch gerade dann, wenn man erkennt, dass in den anderen Bereichen der Zug abzufahren droht. Muss man sich mal auf der Zunge zergehen lassen. 2003-2004 noch hat AMD mit Intel zusammen 1000€ CPUs auf den Markt geklopt. Heute sind die großen Modelle für 150€ zu haben. -> wir wissen seit dem Thuban X6, dass AMD im Multithreading gut mithalten kann. Aber ebenso auch, dass es in Sachen ST Performance ein Defizit gibt. Das wird halt leider auch mit jeder Generation, die Intel nachschiebt größer. Auch wissen wir, dass ein Steamroller/Excavator vier Moduler/acht Threader nicht wirklich kleiner wäre, wenn es in der Fertigung nicht weiter vorran geht. Ob man ohne APUs da mehr erreicht hätte? Wohl kaum...

Ich bin zumindest gespannt auf Zen. Mal schauen was wird. Die ersten Daten klingen schon nicht verkehrt. Und es ist durchaus möglich, da was zu bringen, was auch richtig läuft... Solange man sich halt am Markt ausrichtet, gibts da auch keine Probleme... Heute ists allerdings durchaus schwer, anständige AMD based PCs zu kaufen. Denn sie werden einfach fast nicht mehr angeboten, selbst wenn man sie kaufen wollen würde... Und dabei meine ich nicht den Blödmarkt. Sondern eher die Partner ala Dell, HP, Fujitsu und Co.
 
APUs werden noch ne Weile monolithisch sein, aber im Zuge der Interposerentwicklung werden sie sicherlich aus separaten Dies irgendwann bestehen.
Zudem ist die Aussage ja schlicht falsch, dass Excavator nur für Notebook entwickelt wurde, es wird ja ne FM3-Variante geben.

Zu Zen ist zu sagen, dass die Entscheidung für das neue Projekt schon unter Seiffert gefallen sein dürfte. Beginn der Entwicklung meiner Ansicht nach auch. Die Entwicklung des konkreten 8-Kerners wird seit 2012 laufen, erste Testchips wird es seit Anfang 2014 geben.
Der 8-Kerner dürfte jetzt in die Samplephase gehen, die Entwicklung von Raven Ridge müsste derweil auf Hochtouren laufen.
 
Zuletzt bearbeitet:
... Die Entscheidungen pro Bulldozer dürften in Zeiten gefallen sein, wo sich AMD und Intel noch mit der Core/Threadverdopplung besser am Markt plaziert haben. Sprich 2004-2006 rum. Vielleicht sogar noch eher. Wenn das Ding einmal Formen angenommen hat, kannst du es nicht einfach fallen lassen, wenn so viel Arbeit und Geld da rein geflossen ist, wenn man nix anderes in der Hinterhand hat... Und das hatte AMD einfach nicht.
Blöd dabei ist/war allerdings, dass der Markt bei vier-acht Threads im Mainstream Bereich dicht gemacht hat, wo zwischen SingleThread CPUs und Quadcore/Achtthread Prozessoren vorher nur wenige Jahre lagen. Die Chance lag 50:50, dass der Markt hätte weiter danach gegiert. -> aber die Software ist/war einfach noch nicht so weit.
...
Es ging recht rasch von Single Core CPUs zu Single Core mit HT, Dual Core und schließlich Quad Core ... das stimmt. Allerdings war schon da die Software irre langsam hinterher. Einen 2006 gekauften Core2Quad konnte man auch nur in wenigen Programmen wirklich voll nutzen, Spiele und allgemeine Software haben sich lange Zeit gelassen mehr als 1-2 Threads zu nutzen und sogar heute gibt es noch jede Menge aktuelle/neue Software die nur von 1-2 Threads Gebrauch machen.
Und die Software hatte eigentlich schon viel mehr Zeit gehabt denn schon lange davor gab' es (nicht nur im High End/Server Bereich) Dual CPU Systeme. Also die 50:50 Chance wäre schon sehr sehr optimistisch und gutgläubig gewesen.

...
Und die 5% IPC vom Excavator sind wohl nicht das, was Ursprünglich geplant war. Die haben die Arbeit am Excavator klar auf Notebook und Effizienz ausgerichtet, von daher nur 5% mehr IPC.
Hätten die diesen Fokus nicht gehabt, hätten wir wohl wieder mindestens 10% mehr Leistung Pro Takt wie schon bei Vishera und Kaveri erlebt.
Und das halt in anbetracht der 4M/8C wäre dann halt richtig Nice gewesen bei MT Software. Also Quasi ein Vishera mit 20% mehr IPC (Leistung pro Takt) und 500mhz mehr bei gleichem verbrauch wäre locker machbar gewesen wenn sie das Geld und die Zeit nicht an APU,s verschwendet hätten.

2015 Hätten sie dann einen Bulldozer MK5 bringen können, wieder mit 8-10% mehr Leistung Pro Takt, und 2016 dann den Shrink.
Allein beim Vorstellen eines Visheras mit 20% mehr Leistung Pro Takt, würde man einsehen das er genug ST Performance für alle Gängigen Anwendungen und Spiele mitbringen würde.
...
Naja ich bin da eher fdsonnes Meinung daß ich auch glaube daß vielleicht aus der Architektur halt nicht mehr so viel rauszuholen gewesen wäre/ist. Immerhin wurde Bulldozer seit Mk1 ja ständig weiterentwickelt und optimiert und das hat von Generation zu Generation auch jeweils meist im einstelligen % Bereich was gebracht, aber ob da noch mehr drin gewesen wäre bezweifle ich jetzt mal.
Trotzdem finde ich es auch schade daß seit Vishera am AM3+ Sockel keine aktuelleren FX mit aktuelleren Kernen mehr gekommen sind. Somit hat man den Sockel quasi nur ein Jahr mit CPUs bedient (Zambezi Ende 2011 und Vishera Ende 2012) und das ist eigentlich schon sehr kurz/wenig.
Andersrum ist es bei Intel (zumindest aktuell) aber ja auch meist nur noch einen Refresh/Shrink lang.

Die Chips für die Konsolen haben Geld eingefahren, aber auch das geht ja nicht ewig so weiter, die hängen ja auch an der Technologie der CPUs und GPUs bzw. APUs und wenn die nicht mehr wettbewerbsfähig sind, wird es auch schwer bei künftigen Konsolen zum Zug zu kommen.
Da bin ich auch gespannt wie es weiter geht. Immerhin wurde ja vermutet daß die Abstände zwischen den neuen Konsolengenerationen nicht mehr so groß sein werden wie zwischen den letzten Generationen. Somit hat AMD noch etwas, aber nicht mehr viel Zeit für Nachfolgelösungen der kommende Konsolen zu haben, dann wohl schon mit Zen.
Wenn die wieder x86 haben können die dann auch zu 100% abwärtskompatibel sein denke ich. Bei x86 haben sie aber nicht die große Auswahl an CPU Herstellern und wer weiß, vielleicht will da Intel mit einer Lösung a'la Laptop i7 HQ Serie mit Iris Pro und eDRAM mitmischen.

Das war aber vorher absehbar und damit eine bewusste Entscheidung des Managments, gleichzeitig ein Desgin zu wählen welches den Zugang zum margenstarken High-End CPU (und damit auch Server-)Segment verbaut, eine komplett Fehlentscheidung. Da hat man offenbar irgendwelche Prognosen geglaubt nach denen in Zukunft niemand noch mehr Performance brauchen wird und es schon heute keine Gaming Desktops mehr geben dürfte.
Naja der Trend geht ja schon in die Richtung daß fast jede CPU auch eine iGPU hat und es diese in verschiedene Stärken und Ausführungen gibt, je nach Bedarf. Allerdings decken diese Intel CPUs mit iGPU und auch AMDs APUs eher nur den unteren Bereich ab und stoßen hin und wieder ins untere MidRange Leistungssegment was die Grafik anbelangt. Früher oder später werden wir bestimmt Modelle sehen die tatsächlich den MidRange Grafik Bereich erreichen und vielleicht sogar am untersten Performance Bereich kratzen.
Bis dahin werden aber noch einige Generationen an APUs und iGPUs ins Land ziehen und die Plattformen dahinter inkl. Kühllösungen und Anbindungen müssen erst einmal dafür ausgelegt werden.
Leider ist es ja bei AMD so daß sie mit den APUs CPU seitig auch nur den untersten Bereich abdecken, was sich jedoch hoffentlich mit Zen ändern wird. Wenn Zen tatsächlich starke Kerne werden kann ich mir gut vorstellen daß sie damit sämtliche Bereiche abdecken wollen (ähnlich wie bei Intel) bis vielleicht auf Low Power SoCs o.Ä..

Nur hängt die SW eben auch hinterher, weil auch die Umsetzung und SW-Unterstützung durch AMD hinterher hängt. Eben ein Fall von "zu wenig, zu spät", das gab es ja schon öfter in der Geschichte bei genialen Erfindungen, die eingentlich das Potential hatten um das Blatt wenden können.
Tja oder zu Früh da eben wie Du sagst die Software noch nicht dafür bereit / fertig ist. HSA ist ja wirklich eine gute Idee nur hängt die HW ja immer von der SW ab ob und wie sie genutzt wird. Aber irgendwer muß ja der erste sein der so etwas entwickelt und im Bereich APU / HSA ist es AMD. Intel beschreitet diesen Weg ja nicht denn aktuell gibt es ja nur mit QuickSync einen winzigen speziellen Teil (abgesehen von der 3D Berechnung der GPUs) was die iGPU der CPU abnehmen kann. Im spezialisierten High End Server Bereich ist man mit den Xeon Phi auch auf anderen Wegen als HSA das vorsieht.

2.) Die Hersteller bringen immer unausgereifte Technik und machen die Kunden zu Betatestern.
Vote for this.
In vielen Bereichen ist es so. Bei CPUs, APUs, GPUs etc. ist es vielleicht etwas schwerer da das Ding ja funktionieren muß und man später nicht sehr viel dran machen kann abseits von Treibern oder Firmwareupdates aber wie Du sagst ist es ja kaum möglich alle Hardware und vor allem Softwarekombinationen zu testen. Somit denke ich eher daß es bei z.B. CPUs tatsächlich so ist daß sie das Produkt so gut es möglich ist fehlerfrei fertigstellen und auf die Grundfunktionen zu testen und sobald bereit auf den Markt zu bringen. Zurückhalten wird hier niemand etwas, max. an den aktuellen Markt anpassen (durch Modellvarianten und deren Plazierung, Takt oder Preis).

Da SW nicht beliebig parallelisiert werden kan, wäre die schwache Singlethreadperformance immer ein Hemmschuh geblieben. Das hat AMD aber nicht anders gemacht, auch dort ist der AM3+ zum High-End Sockel geworden als man ihm die FM Sockel zur Seite gestellt hat. Der Unterschied ist allerdings, dass man bei Intel die S. 115x eher als Nachfolger des alten Einheitssockels 775 ansehen kann und die Enthusisaten einen neue Sockel bekommen haben, während man bei AMD dem AM3+ die einfacheren CPUs entzogen und die neuen FM schon von Anfang an darunter positioniert hat. Dazu kommt, dass der AM3+ nie wirklich gepflegt wurde und selbst die 900er Chipsätze nur 800er Chips mit neuen Labels sind.
Ich hatte die FM Sockel immer als komplett separate Schiene gesehen eben weil APU und eigentlich nicht wirklich als Mainstream wie z.B. die Sockel 115x. Umso mehr hat es mich gewundert daß eben der AM3+ so vernachlässigt wurde. Immerhin gibt es ja am AM3+ schon immer eine recht breite Abdeckung von günstigen FX-4 bis zu teuren FX-8 (9) CPUs. Bei Intel gab es ja eigentlich nur teure Modelle auf den Enthusiasten Sockeln (1366, 2011, 2011-3 ...)

100% sicher ist im Moment gar nichts. Im Moment schaut es lediglich so aus, dass Skylake nur ein kleines Update gegenüber Haswell/Broadwell wird. Ein 8-Kern Zen sollte genügend Potenzial haben, um auch im High-End Bereich wieder mitzuspielen.
Tja wie Du sagst SOLLTE Zen das haben. Bei Intel kann man ja recht gut spekulieren da hier die (Mainstream) Modelle ja relativ regelmäßg kommen und auch eine recht gleichbleibende Leistungssteigerung in den letzten Jahren erfahren haben (Tendenz eher abflachend).
Also kann man da recht realistisch abschätzen was Skylake in etwa leisten wird und eventuell auch Cannonlake.
Bei Zen ist alles offen und alles eigentlich eine komplette Raterei was diese Architektur leisten kann. Somit kann man eben nur sagen was Zen ungefähr leisten sollte um konkurrenzfähig zu sein. Als Maßstab kann man eben nur aktuelle Intel und AMD Modelle heranziehen.

Das will und braucht keiner. Wenn man es schon macht, dann richtig. Mit Hinblick auf HSA und Exascale Computing geht's auch nicht anders.
Naja HSA schließt separate CPUs und dGPUs nicht unbedingt aus, aber optimalerweise sind diese auf einem DIE vereint und haben dadurch eine optimale Verbindung miteinander. Das hat natürlich viele Vorteile, aber auch aktuell ein paar Nachteile wie eben die Erweiterbarkeit und die Kühlung bzw. Spannungsversorgung.
Ich könnte mir auch gut vorstellen daß falls HSA softwaremäßig einige Standards setzt AMD diese auch in Kombination mit einer z.B. reinen CPU und Radeon GPU nutzbar macht. Effizienter sind dann bestimmt APUs aber leistungsfähiger eher High End CPUs in Kombi mit einer (oder mehreren) High End GPUs.

Oktober.. 2016 noch so lange:confused::(
Gerüchte besagen daß sogar erst einmal Serverversionen von Zen auf den Markt kommen und erst später Desktop und Mobile Varianten. Vielleicht gibt es aber dann auch wieder Desktop Lösungen die auf die Serverhardware basieren (wie z.B. damals mit dem Sockel 940).
Aber ja ... Mitte/Ende nächstes Jahr ist noch eine lange Wartezeit.
 
AMD hat auf dem Analyst-Day kommuniziert, dass sie mit FX beginnen, nicht mit Serverchips. Aussage war auch Mitte 2016 iirc.

Excavator an sich dürfte schon erheblich besser sein, allein, da er 32kB L1D$ mitbringt.
 
Zuletzt bearbeitet:
Du siehst das irgendwie zu pauschal...
dGPUs bringen dir ganz andere Probleme in den Konsolen... Wie schon angesprochen, du hast bspw. keine shared Memorys mehr an der Stelle, wie sie die APU mitbringt. Du müsstest somit also wieder einen VRAM und einen RAM Pool bereit stellen.
Ich sehe das nicht als Problem an. Besonders wenn man die Vorteile die ich nannte berücksichtigt.

Gerade das AIO Konstrukt der APU, die ja so auch nicht direkt im Endkundengeschäft zu kaufen ist, macht es für die Konsolen doch interessant Zumal auch, wie gesagt, das Teil so in der Form nicht kaufbar ist im Endkundenmarkt.
Wie gesagt aus Technischer sicht wäre es auch so möglich gewesen wie ich es vorgeschlagen habe.
Wehn juckts ob etwas anders ist oder nichtkaufbar ist ? Mich nicht.
Total das belanglose Argument deinerseits wie ich finde. Verzeih mir wenn das zu Hart klingt und dich verletzt haben sollte.

Auch bringt es AMD nicht direkt weiter, gar keine APU Lösungen zu bringen.

Doch. Ging bis Phenom II Wunderbar, da jeder entwder eine dd Grafikkarte hatte, oder man die Onboard Grakas auf den Mainboards nutzte. APU,s sind ein 5nftes Rad am Wagen was Finanziell viel kostet. Intel kann sich das Leisten, aber AMD hätte das Geld und die Manpower und Zeit woanders gebraucht.

Würde man gar keine APUs haben, hätte man auf Chipsatzgrafik in dem Bereich gehen müssen.
Genau. Und dadurch hätte AMD sich Milliarden und Jahre und Manpower ohne ende Gespart. Wo ist jetzt das Problem ?

Auch wenn das hier viele vielleicht anders sehen oder nicht benötigen. Gerade im OEM Bereich kommt doch diese Intel GPU zum Einsatz, einfach weil sie drin/dran ist. Man darf halt nicht immer nur vom eigenen Bedarf aus schließen.
Dagegen spricht auch nichts. Nur können die OEMS genau so mit Mainboard Onboard GPU,s arbeiten.
AMD hat durch die APU,s wie sich herausgestellt hat, ja nicht gerade die OEM welt erobert.
Und so Milliarden und Jahre für einen sehr geringen Marktanteil verschwendet.
Das hätte ich AMD seit 2004 jedes Jahr sagen können das dass so endet.
Genau wie Mantle und HSA oder anderer Schnick Schnack.
Ich war von anfang an davon überzeugt, das AMD damit nicht in Schwarze zahlen kommt.
Die hätten die ganzen Gelder und Manpower einfach in die verbesserung der Architektur stecken sollen, und alle überschüssigen anderen mitarbeiter für diese ganzen nebenprojekte entlassen sollen. Aber in erster Linie, keinen APU Quatsch versuchen sollen.
Es hätten einfach so laufen sollen wie schon zu Athlon 64 Zeiten.
Purer Fokus auf die CPU Entwicklung. Ich will nicht wissen wie viel besser der Bulldozer heute wäre, ohne den ganzen Firlefanz mit APU, Mantle, HSA, etc was ja alles Gelder gekostet hat welches dann für die Forschung und umsetzung besserer CPU,s fehlte.
Von der Verlorenen Zeit garnicht erst zu sprechen.
Kann ja sein das APU,s in 10 Jahren Grafikkarten für die meisten Menschen Obselet machen, aber die haben einfach viel zu früh damit angefangen, und hätten es sich wirtschaftlich und in anbetrachtet des CPU Rückstandes und des Verlustes im Server Segment einfach nicht erlauben dürfen mit Schnick Schnack anzufangen.
Aber ich denke Lisa Su ist Weitsichtiger als die Vorgänger und wird AMD wieder auf Klare Linien bringen. Sie hat die Mammut aufgabe, AMD wieder aus dem Dreck zu ziehen, und dann den Schlamm abzuwaschen und den Karren wieder ins Rollen zu bringen.
Die E3 Vorstellung von ihr fand ich definitiv Sympathisch.

Und wie schon gesagt, das Konzept hinter den APUs war doch ursprünglich mal "Fusion", wie es AMD getauft hat. Ansich eine tolle Sache... Und wird früher oder später auch definitiv dort in die Richtung gehen. Die Frage ist halt, wann? -> .
Dazu hab ich gerade ja schon was geschrieben. AMD hätte es sich nicht erlauben dürfen, nicht im Jahr 2007 oder 2009 oder wann auch immer sie die ersten APU,s geplant haben.
Man sieht ja das wir trotz 14nnm bei Intel Broadwell, noch Ewigkeiten davon weg sind, Grafikkartenpower für Aktuelle Titel in Hoher Darstellung zu haben.

eine APU mit HBM Speicher und ohne Bandbreitenproblemen in einem anständigen Prozess wäre durchaus in der Lage gut zu performen. Vielleicht versucht man das ganze unter Gamingaspekten auch einfach bis DX12 auszusitzen? Möglich wäre es zumindest.
Nur wenn für dich "Gut" = Leage of Legends ist.
Es fehlt einfach die Rohpower in Form von mehr Shadereinheiten in den APU,s.
Daran wird auch DX12 nichts ändern.
Die APU,s bräuchten trotz HBM einfach mal eben 4-5x mehr Rohpower in Form von Shadern oder Takt damit man Moderne Titel in Hohen Details darstellen kann. Dadurch würde die CPU aber mal sowas von Überhitzen. Ist einfach noch ein Wunschdenken im Jahre 2015.
Wie gesagt in 10 Jahren evtl machbar, aber AMD hat schon vor über 5 Jahren damit angefangen wo Grafikkarten noch Übertrieben Heiß waren und alleine schon 200W Strom benötigten. Wie Dumm muss man sein, um zu denken, das man das einholen kann, ohne Massive Stromleistung ? Dazu müsste man ja erwarten, das die Hardware Anforderungen nicht weiter Steigen über die Jahre, und das wäre eine Dumme erwartung.
Die Spiele entwicklung geht weiter, die Grafik wird besser, die berechnungspower die benötigt wird steigt demnach auch ständig weiter. Ergo brauch man immer mehr Power.
Man kann bei einer APU also nur ewiges Low end sein, jedenfalls zu zeiten von 32nm und 22nm und 14nm und mit sicherheit auch noch bei 10nm.

Ebenso deine Ausführungen zum Bulldozer. Auch mit den Änderungen, die du benennst, hätte AMD immernoch wenig Chance ggü. Haswell/Broadwell und demnächst dann Skylake. Was soll es also bringen?
Ich weiß nicht was du meinst.
AMD hätte MK3 2013 auf AM3+ als FX8 mit L3 und 10-15% mehr Threadleistung bringen können. Letztes Jahr dann den Excavator von mir aus auch mit neuem Sockel, und wieder 10-15% mehr Leistung Pro Takt.
Dann wären wir schon locker auf Nehalem Niveau mit den 8 Kernen des 4 Modulers, und hätten gleichzeitig 3-5 ghz bei 65-140W TDP.
Dieses oder nächstes jahr wäre dann locker noch Platz für einen Shrink gewesen der die TDP wieder stark absenkt, und evtl wieder 3-5% mehr IPC.
Das wäre alle mal besser als der heutige "Ist zustand" von "Überteuerte Krüppel APU,s die keinen Marktanteil haben oder veralteten Visheras von 2012 auf veralteter AM3+ Plattform.
AMD hätte damit meiner meinung nach ohne zweifel mehr Marktanteil als heute, und dementsprechend weniger Verluste oder evtl auch mal Schwarze Zahlen weil sie viel weniger angestellte un andere Randkosten hätten wie vorher angeführt.

-> AMD hat, so schaut es zumindest aus, eher versucht sich einen Markt zu schaffen und dort mit einem Alleinstellungsmerkmal aufzutrumpfen. Dies ist zumindest bis zum Broadwell mit GT3e Einheit auch gelungen... Wie viele Jahre gibts nun schon die AMD APUs?
Und wie viel Marktanteil haben sie durch dadurch ?
Und wie viele Menschen haben sich die APU,s nur wegen der CPU Power gekauft und nutzen die iGPU garnicht ?
Und wie sehr hat sich das in Anbetracht der Investition und des Forschungs Aufwands Rentiert ?
Und wie viel mehr Geld hätten sie mit meinem Vorschlag verdient ?
Das sind Rhetorische fragen die dich zum Nachdenken bringen sollen.

Das macht man doch nicht, weil man so gut aufgestellt ist... Sondern das macht man doch gerade dann, wenn man erkennt, dass in den anderen Bereichen der Zug abzufahren droht. .
Ist das dein ernst ?
Weißt du woran mich das errinert ?
Sagen wir AMD ist Hitler und England ist Intel.
Als Hitler erfolgreich Frankreich und Polen und Südeuropa eingenommen hatte, und er noch keinen Krieg mit Amerika und Russland hatte, hatte er ja versucht England zu Schlagen.
Hitler war auf Wasser Stark unterlegen, und seine Luftangriffe gegen England brachten Massive verluste. Es war ein Kampf den er nicht durch einen Direkten Militärischen Schlag gewinnen konnte, und das wusste er auch.
Dann hat er Amerika und Russland den Krieg erklärt, und sich damit Ressourcen Technisch dadurch noch viel Ärmer gemacht, anstatt sich Stark genug zu machen, um es mit England eines tages aufnehmen zu können.
Genau den selben Fehler verteidigst du gerade bei Amd :d
Klar hatte AMD sich genau so wie Hitler erhofft, das sie dadurch neue Reichtümer erlangen, aber im Fall Krieg vs USA und im Fall APU war es doch für jeden Halbwegs Intelligenten Menschen mit ahnung von der Materie abzusehen, das man dadurch nicht den erhofften Reichtum erlangt.
Die idee mit den APU,s war keine Rettung, und es war von anfang an Logisch abzusehen das dies passiert. Die Gründe dazu habe ich zuvor schon genannt.
Kurz zusammengefasst: Aufgrund des zeitalters in dem wir uns befinden, war es einfach noch zu Früh, und es gab zu viele Gute Alternativen ohne diesen Massiven aufwant.

- - - Updated - - -

APUs werden noch ne Weile monolithisch sein, aber im Zuge der Interposerentwicklung werden sie sicherlich aus separaten Dies irgendwann bestehen.
Zudem ist die Aussage ja schlicht falsch, dass Excavator nur für Notebook entwickelt wurde, es wird ja ne FM3-Variante geben.

Der Excavaotor den es heute in Notebooks gibt, kannst du nicht mit den Vorteilen der Entwicklung auf 4,5 ghz betreiben.
Die ganze Effizienz geht flöten. Das ist so, weil AMD sie bewusst auf Low Takt für Notebooks ausgelegt hat.

- - - Updated - - -

@ Hot, Hab kurz mal für dich gegoogelt.


Auf der CES Anfang des Jahres zeigte man erste lauffähige "Carrizo"-Systeme und verkündete gleichzeitig, dass entsprechende Prozessoren ausschließlich für mobile Geräte vorgesehen sind.
Die Auslegung auf das mobile Segment wird durch die Optimierungen auf einen niedrigen Stromverbrauch der "Excavator"-Kerne deutlich.

Viel Glück hatte AMD im Notebook-Markt bislang nicht. Das soll sich mit der sechsten Generation der Serie-A-Prozessoren endlich ändern. Die neuen CPUs der Serien FX und A sollen deutlich sparsamer als ihre Vorgänger sein.
Um dieses Ziel zu erreichen, hat sich AMD bei der Entwicklung der Kombiprozessoren konsequent auf Mobilvarianten mit 12 bis 35 Watt beschränkt.
Der Chiphersteller verspricht im Vergleich zu den Vorgängern einen um 40 Prozent geringeren Energiebedarf und eine um 23 Prozent kleinere Chipfläche.
Die Performance pro Takt der Excavator-Kerne soll zwischen 4 und 15 Prozent besser sein als bei den Steamroller-Vorgängern.

Zusammenfassend erreicht AMD bei einer Reduzierung der Leistungsaufnahme von 40 Prozent ein Performance-Plus von fünf Prozent.
Doch eine Leistungssteigerung ist für AMD nicht das, was mit "Carrizo" vorgesehen ist.


- - - Updated - - -

Naja ich bin da eher fdsonnes Meinung daß ich auch glaube daß vielleicht aus der Architektur halt nicht mehr so viel rauszuholen gewesen wäre/ist. Immerhin wurde Bulldozer seit Mk1 ja ständig weiterentwickelt und optimiert und das hat von Generation zu Generation auch jeweils meist im einstelligen % Bereich was gebracht, aber ob da noch mehr drin gewesen wäre bezweifle ich jetzt mal.

Das unterschätzt du Stark mein Freund.

Zambezi auf Vishera war 8% mehr ST Performance, und 16% mehr MT performance.
Steamroller hat 10-20% mehr MT Performance gegen einen 2 Moduler auf Piledriver Basis.
Nur sieht man das bei den APU,s halt nicht wegen den nachteilen des nichtvorhandenen L3 und kleineren Chaches etc.
Es gab also immer Sprünge im 2 Stelligen berreich. Ab der 4rten Gen wurde halt nur auf Effizienz getrimmt, und nicht auf IPC, weil sie nur für Notebooks kommen sollten, von daher diesmal nur 5% mehr ST und 10-15% mehr MT Performance bei MK4.
 
@Bucho

Ja leider, wobei umso mehr freue ich mich, wenn sie dann verfügbar sind. Wird denke ich sicher was feines dabei rauskommen.

PS: Weis jmd warum man sich wieder die Haare gegenseitig ausreißen muss? Intel vs. AMD?:shake:
 
Zuletzt bearbeitet:
Dagegen spricht auch nichts. Nur können die OEMS genau so mit Mainboard Onboard GPU,s arbeiten.
AMD hat durch die APU,s wie sich herausgestellt hat, ja nicht gerade die OEM welt erobert.

Und so Milliarden und Jahre für einen sehr geringen Marktanteil verschwendet.
...
Genau wie Mantle und HSA oder anderer Schnick Schnack.
Naja die GPU in die CPU oder zumindest das CPU Package zu verfrachten ist aus technischer Sicht keine so schlechte Idee da man Platz und Leiterbahnen etc. am Mainboard spart und besser zu kühlen sind die auch als direkt am Mainboard. Onboard Grafikkarten waren immer schon lowest End (Ausnahme einige ältere Boards wo halbwegs reguläre Karten direkt am Board mit Speicher & Co verlötet waren wie damals einige 3DFX aber auch nVidia TNT2 Lösungen).
Erst seitdem die in der CPU sind (Sandy Bridge bzw. AMDs APUs) sind diese zumindest ansatzweise nutzbar um 3D brauchbar darzustellen.

Ich gebe Dir recht daß AMD nicht gerade einen riesen Marktanteil mit den APUs erobert hat, aber das liegt mMn nicht wirklich am Konzept APU denn Intel hat ja in den letzten Jahren ähnliches gemacht und ist damit nicht eingefahren.

Klar hat das alles (APUs, <- Fusion, HSA und Mantle) bestimmt einiges an Resourcen verschluckt aber immerhin waren das Entwicklungen und Versuche etwas Neues zu machen. Nachher ist man immer schlauer und vorher konnte man halt noch nicht wissen ob das alles so klappt und angenommen wird wie erwartet.

Nur wenn für dich "Gut" = Leage of Legends ist.
Es fehlt einfach die Rohpower in Form von mehr Shadereinheiten in den APU,s.
Daran wird auch DX12 nichts ändern.
Die APU,s bräuchten trotz HBM einfach mal eben 4-5x mehr Rohpower in Form von Shadern oder Takt damit man Moderne Titel in Hohen Details darstellen kann. Dadurch würde die CPU aber mal sowas von Überhitzen. Ist einfach noch ein Wunschdenken im Jahre 2015.
Wie gesagt in 10 Jahren evtl machbar, ...
Man kann bei einer APU also nur ewiges Low end sein, jedenfalls zu zeiten von 32nm und 22nm und 14nm und mit sicherheit auch noch bei 10nm.
Mit kleineren Prozessen kann man mehr Shader/Rohleistung in die APUs packen und mit HBM sollte die Speicheranbindung auch kein Thema mehr sein. Genau das schreibt er und ich glaube auch daran daß AMD mit 14nm Fertigung, HBM und aktualisierter CPU und GPU Architekturen durchaus beachtliche APUs bauen könnte.
Warten wir's ab! 10 Jahre wird das bestimmt nicht mehr dauern und Low End mit 14nm und 10nm kann ich nicht glauben. High End wird es bestimmt nicht so schnell geben, aber im guten Mid Range Bereich, warum nicht?
Eine aktuelle APU mit Zen und GCN 1.2 mit sagen wir mal der Leistung eines 4 Kern i5 (von mir aus Sandy) @ 3,5GHz und GPU a'la Radeon 260X oder GeForce 750Ti genügt bestimmt den allermeisten Casual Gamern da draussen.

Weißt du woran mich das errinert ?
Sagen wir AMD ist Hitler und England ist Intel. ...
Holy Shit daß ich sowas noch erlebe ... ein Hardwarevergleich mit dem WWII :eek:

Auf der CES Anfang des Jahres zeigte man erste lauffähige "Carrizo"-Systeme und verkündete gleichzeitig, dass entsprechende Prozessoren ausschließlich für mobile Geräte vorgesehen sind.
Die Auslegung auf das mobile Segment wird durch die Optimierungen auf einen niedrigen Stromverbrauch der "Excavator"-Kerne deutlich.

Ist trotzdem nicht unmöglich APUs mit Excavator Kernen auf dem Desktop zu bringen, heißen dann halt nicht mehr Carrizo sondern irgendwie anders und die Plattform heißt Stoney Ridge. Die aktuellen Desktop Broadwell CPUs sind ja auch für den Desktop zugeschnittene Mobile CPUs.

Das unterschätzt du Stark mein Freund.

Zambezi auf Vishera war 8% mehr ST Performance, und 16% mehr MT performance.
Steamroller hat 10-20% mehr MT Performance gegen einen 2 Moduler auf Piledriver Basis.
Nur sieht man das bei den APU,s halt nicht wegen den nachteilen des nichtvorhandenen L3 und kleineren Chaches etc.
Es gab also immer Sprünge im 2 Stelligen berreich. Ab der 4rten Gen wurde halt nur auf Effizienz getrimmt, und nicht auf IPC, weil sie nur für Notebooks kommen sollten, von daher diesmal nur 5% mehr ST und 10-15% mehr MT Performance bei MK4.
Wie FX CPUs mit Steamroller oder Excavator performen würden wissen wir nicht. Bei den APUs sieht man eine Steigerung, die jedoch sehr unterschiedlich ist. Teils ist Kaveri um über 20% schneller als Richland, teils nur ein paar % bzw. gleich schnell und das ein oder andere Mal sogar langsamer bei gleichen Takt.
Die werden schon optimiert haben was das Zeug hält, ob da mehr in FX Form drin gewesen wäre wie Du progrostizierst ist die Frage. Auch ob sie diese Optimierungen schneller geschafft hätten ist die Frage.

Und selbst wenn das alles so geklappt hätte ist die Frage ob AMD damit mehr Gewinn einfahren hätte können als mit den APUs und dessen Abkömlinge (Cat Serie).

Wie ich schon selbst oft geschrieben habe verstehe ich es auch nicht ganz daß AMD die FX Serie und den Sockel AM3+ nicht länger mit aktualisierten Modellen am Leben gehalten hat, aber ich schätze sie haben das schon als Einsparungsmaßnahme gemacht. Ob es die beste Entscheidung war weiß wohl AMD nur selbst.

@Bucho

Ja leider, wobei umso mehr freue ich mich, wenn sie dann verfügbar sind. Wird denke ich sicher was feines dabei rauskommen.

PS: Weis jmd warum man sich wieder die Haare gegenseitig ausreißen muss? Intel vs. AMD?:shake:
Ja eine offizielle Roadmap oder zumindest mal wirklich offizielle ordentliche Informationen von AMD seitens der CPU Zukunft wäre nett doch die halten sich da noch sehr bedeckt.
Bzgl. Intel vs AMD ist es doch hoffentlich eh schon wieder vorbei hier. Man kann das ja alles sachlich diskutieren aber es gibt immer wieder welche die irgendwie beleidigend werden oder es nicht verkraften wenn eventuell ein Argument oder eine Ansicht widerlegt oder einfach nur anders gesehen wird.
 
Zuletzt bearbeitet:
@Bucho

Somit heist es abwarten und Tee trinken, so gesehen vergeht die Zeit bis nächstes Jahr Oktober eigentlich eh ganz schnell. Bis dahin wird sich sicherlich einiges getan haben.
Jap das stimmt, solange alles sachlich geschrieben wird liest man auch gerne mit.
 
Ich vermute Zen wird keine Skylake Leistung Core vs Core beim gleichen Takt bieten, da bin ich mir 100% sicher.
Und was genau macht dich da so sicher? Hängt wohl letztendlich vor allem von den Taktraten ab. Die Architektur könnte sehr wohl ähnlich stark werden. Schau dir mal die Geekbench singlecore Werte von Carrizo und Skylake an. Bei Integer ist Skylake taktnormiert 30-35% schneller (das hardwarebeschleunigte AES mal aussen vor gelassen), bei FP ist es aufgrund der 256-bit FPU logischerweise mehr mit knapp 55%. Integer ist sicherlich aussagekräftiger für allgemeine Performance. Und da Zen sehr wahrscheinlich ebenfalls eine 256-bit FPU bekommt, könnte der da auch überproportional zulegen. Falls die auf dem FAD angegebenen +40% für Zen gegenüber Excavator sich bei allgemeiner Performance bestätigen, dann könnte man da Skylake (Refresh) Level erreichen. Bei >=4 GHz Turbo sollte man auch Kern vs Kern konkurrenzfähig sein.

WIe gesagt wurde Excavator auf Low Takt für Notebooks entwickelt.
Das ist trotzdem keine Begründung, dass man halbherzig weiterentwickelt hätte. Excavator wurde auch nicht für niedrigen Takt per se entwickelt. Der wurde mit HDL entwickelt für geringeren Flächen- und Energiebedarf. Mit HDL gewinnt man quasi einen Fertigungsnode, so dass sich der Fertigungsnachteil besser kompensieren lässt. Nur kann man dann eben nicht mehr so hohe Taktraten fahren. Und deshalb hat man sich erst mal auf mobile Ableger beschränkt. Aber vielleicht gibt's kommendes Jahr auch noch einen Desktop Ableger. Da sehen wir, was sich bei höheren TDPs noch an Takt rausholen lässt.

HSA bringt AMD gerade nicht wirklich Milliarden ein.
Das hat auch keiner gesagt. Es ist trotzdem der richtige Weg, CPU und GPU in einem SoC zu integrieren. Halbherzige Lösungen bringen langfristig gar nichts.

Exascale Computung ist auch nicht der Heilsbringer.
Weisst du überhaupt, was das ist? Exascale ist vielleicht für dich als Desktopuser wenig interessant. Es ist aber die Zukunft im Bereich von effizienten Hochleistungsrechnern. Da wird kein Weg dran vorbei führen.

Konsolendeals hätte man Technisch gesehen auch ohne APU,s machen können.
Ja, aber nicht für die angepeilten Kosten. Die Kostenfrage ist bei Konsolen wichtiger als maximale Performance.

Von daher hätte AMD einfach viel mehr Geld gemacht ohne den ganzen "Schnick Schnack"
Reine Spekulation und mMn recht zweifelhaft.

Du verstehst mich Falsch. AMD arbeitet mindestens seit 2013 an Zen, evtl schon seit 2012.
AMD hätte den Zen dieses Jahr schon bringen können
Halte ich nicht für realisierbar. Planungen für was neues gab es vermutlich schon seit 2011. Die Entwicklungsphase selbst begann vermutlich 2H 2012 mit dem Wechsel von Jim Keller zu AMD. Für eine komplett neue Architektur muss man mindestens 3-4 Jahre rechnen. 2 Jahre Konzept und Umsetzung, 1-2 Jahre Validierung und Fertigung. Vor 2016 wäre realistisch gesehen sowieso nichts zu erwarten gewesen. Es ist also besser, gleich auf 14nm zu setzen. Die Vorteile sind einfach zu gravierend. Mit einem unterlegenen 28nm Prozess hätte man womöglich einen schlechten Start hingelegt, der nicht gerade das Zen Image von Anfang an gefördert hätte.

Daher, Intel zeigt uns, das man sogar aus Bulldozer locker 80% mehr Leistung pro Takt
Aber nicht von einer zur nächsten Generation. Wie lange soll das denn dauern? 5 Jahre oder länger? Bis dahin ist die Konkurrenz eben auch schon entsprechend weiter. Wie gesagt, da halte ich es für sinnvoller, einen radikalen Schnitt zu machen und ans Reissbrett zurückzugehen. Da hat man vielleicht das eine oder andere Jahr Durststrecke, weil die Bulldozer Weiterentwicklungen nicht mehr ausgeschöpft werden können. Dafür hat man aber anschiessend wieder eine bessere Basis.

Bulldozer ist nicht wirklich Alt.
Ja, aber das Design wurde ursprünglich für einen anderen Anspruch entwickelt, nämlich für hohen Durchsatz. Für entsprechende Server super, für den Client Markt immer noch nachteilig. Mit Zen will man ja wieder mehr Richtung Kernperformance gehen und weniger Richtung maximaler Durchsatz. Gut möglich, dass ein weiterentwickelter Bulldozer in 2016 mehr multithreaded Performance hätte liefern können als es Zen tun wird. Aber die singlethreaded Nachteile hätte man immer noch gehabt.


Naja HSA schließt separate CPUs und dGPUs nicht unbedingt aus, aber optimalerweise sind diese auf einem DIE vereint und haben dadurch eine optimale Verbindung miteinander.
Eben. Eine separate CPU und GPU erschweren einiges. Ein monolithisches Design hat da einfach Vorteile, vor allem bei der Speicheranbindung. Wobei, wie [HOT] schon sagte, in Zukunft auch Lösungen via Interposer vorstellbar sind. Allerdings dann wohl nur für den High-End und Performance Markt, wo grössere CPU und GPU Designs notwendig sind und man mit einer monolithischen Umsetzung zu sehr limitiert wäre.
 
Ich will ja nichts sagen aber: Mal ehrlich könnt ihr euch nicht zusammen setzen und ein Bierchen trinken? Die Tatsache das man Hardware mit dem 2ten Weltkriegt vergleicht zeigt nicht sonderlich von hoher Intelligenz. Hardware mit dem 2ten Weltkrieg zu vergleichen ist ja mal die dümmste Aussage die ich je in einem Forum lesen durfte. Eigentlich traurig das ein Mann mehr als 70 Jahre nach dem Krieg noch immer prägend ist, vor allem das man das anscheinened auf alles übertragen kann:hmm:
 
vielleicht will da Intel mit einer Lösung a'la Laptop i7 HQ Serie mit Iris Pro und eDRAM mitmischen.
Mit der GT4e wäre das vielleicht sogar denkbar, aber ob die Konsolenhersteller und Intel sich dann auf einen Preis einigen können? Wirklich billig gibt Intel ja wohl nur die CPUs ab, mit denen sie versuchen ARM Marktanteile abzunehmen, sonst achtet Intel immer sehr auf die Margen. Es bleibt auch die Frage, wie weit man die ursprünglichen Entwicklungskosten bei so einer Zweitverwertung der Technologie mit einrechnet, übrigens auch bei den Geschäftszahlen von AMD, wo das Segment ja angeblich dicke Gewinne abgeworfen hat. Das ist natürlich einfacher, wenn man die Kosten für die Entwicklung der verwendeten Technologie dort nicht einrechnet.

Wenn Zen tatsächlich starke Kerne werden kann ich mir gut vorstellen daß sie damit sämtliche Bereiche abdecken wollen (ähnlich wie bei Intel) bis vielleicht auf Low Power SoCs o.Ä..
High-End Server CPUs mit vielen Kernen wird es als APU wohl kaum geben, dann wäre das Die zu groß und für Low Power braucht man meist eine andere Architektur und eine andere Fertigungstechnik, denn eine Architektur und auch eine Fertigungstechnik sind niemals für beide Extreme optimal. AMD hat damals nicht zum Spaß neben Bulldozer noch Bobcat entwickelt und Intel hat auch nicht zufällig neben Haswell und Broadwell für Heigh-Performance noch Bay Trail und Braswell für Low-Power.

Tja oder zu Früh da eben wie Du sagst die Software noch nicht dafür bereit / fertig ist.
Ohne die nötige HW kann auch keine SW entwickelt werden, schon gar nicht in der nötigen Breite des Marktes, wie es nötig ist um den Kunden wirklich Vorteile durch die HW zu bieten. Dazu brauchen die Entwickler der SW-Schmieden aber erstmal Unterstützung, also Anleitungen, Codebeispiele, Complier und Tools und dann vor allem auch Zeit. Zeit bestehende und funktionierende SW auf eine bestimmte, spezielle HW zu optimieren, bekommen sie aber nur, wenn die Verwantwortlichen dadurch auch einen Mehrwert sehen, die SW also massiv besser als auf anderes bestehender HW läuft oder neue Features bieten kann. Eben etwas, womit auch die SW Anbieter dann auch Kunden überzeugen können um selbst wieder Geld zu verdienen.

Sonst bleibt man auf die OpenSource SW angewiesen, aber da muss entweder einer die Entwicklung sponsern, oder die Technik weit genug verbreitet und interessant sein.
Intel beschreitet diesen Weg ja nicht denn aktuell gibt es ja nur mit QuickSync einen winzigen speziellen Teil (abgesehen von der 3D Berechnung der GPUs) was die iGPU der CPU abnehmen kann. Im spezialisierten High End Server Bereich ist man mit den Xeon Phi auch auf anderen Wegen als HSA das vorsieht.
Intel hat eben keine Tradition bei GPUs und daher auch eine ganz andere Technologie dafür gewählt. Das Thema hatte ich ja schon kommentiert.

Wobei der Ansatz bei Xeon Phi x86er Kerne zu verwenden durchaus einen eigenen Scharm hat, da er verspricht die SW-Entwicklung zu verweinfachen, auch wenn es nicht wirklich HSA ist, so entscheidet im noch, was am Ende hinten rauskommt. Aber bisher scheint der Xeon Phi auch noch kein Renner zu sein.
Den Satz aus dem Zusammenhang "zwei Vorwürfe die sich immer halten werden" zu reißen in dem er steht, ist absolut sinnentstellend bis trollig. Da erübrigt sich also jeder weitere Kommentar von selbst.
Ich hatte die FM Sockel immer als komplett separate Schiene gesehen
Ja logisch, das ist wohl allen Kunden so ergangen, nur eben als eine Schiene unterhalb der bisherigen AM Einheitssockel, während Intel damals mit dem Sockel 1356 die neue Schiene oberhalb des Mainstream Sockel 1156 und damit Nachfolgers des vorherigen Einheitssockels etabliert hat.
eine recht gleichbleibende Leistungssteigerung in den letzten Jahren erfahren haben (Tendenz eher abflachend).
Wenn man schon auf einem so hohen Niveau ist, wird es eben immer schwerer weitere Steigerungen zu realisieren.
Also kann man da recht realistisch abschätzen was Skylake in etwa leisten wird und eventuell auch Cannonlake.
Was aber trotzdem mit Unsicherheiten behaftet ist, denn man weiß ich welchje geniale Idee den Entwicklern vielleicht doch noch einfällt oder eingefallen ist. Es gibt zwar erste Performancewerte zu Skylake im Netz, aber wie real sind die? Zwar glaube ich auch nicht an eine revolutionäre Leistungssteigerung, aber so etwas für alle Ewigkeit zu 100% ausschliessen, sollte man nun auch wieder nicht.
Bei Zen ist alles offen und alles eigentlich eine komplette Raterei was diese Architektur leisten kann.
So ist es und vom Ausgangsniveau aus gesehen, ist das mögliche Potential natürlich hoch, Erwartungen und die Messlatte sind es aber eben auch.
Effizienter sind dann bestimmt APUs aber leistungsfähiger eher High End CPUs in Kombi mit einer (oder mehreren) High End GPUs.
Effizenter womöglich, aber leistungsfähiger wohl kaum und damit wäre man wieder in einem Marktsegment, wo man nicht die höchsten Margen erzielen kann, da ist AMD aber heute schon. Enthusiasten wollen die leistungsstärkste HW und sind auch bereit für die letzten Prozent an Performance einen weit überproportionalen Aufpreis zu zahlen. Im Serversegment ist zwar Effizienz gefragt, aber auch da muss die CPU dann schon eine bestimmte Leistung bringen und eine sehr leistungstarke CPU kann am Ende oft sinnvoller sein, auch wenn sie sehr teuer ist, weil ja nicht nur die CPU Leistung aufnimmt und Kosten verursacht. Ist die schnellst CPU doppelt so leistungsstark wie die effizienteste CPU, dann braucht man nur halb so viele Server / Blades, Switches, etc. halb so viele Racks also halb so viel Platz und am Ende spart man damit Geld und womöglich sogar Energie.
 
...
Wobei, wie [HOT] schon sagte, in Zukunft auch Lösungen via Interposer vorstellbar sind. Allerdings dann wohl nur für den High-End und Performance Markt, wo grössere CPU und GPU Designs notwendig sind und man mit einer monolithischen Umsetzung zu sehr limitiert wäre.

Wäre auch für kommende Konsolen durchaus denkbar. HBM wird hier auf jeden Fall genutzt da ja doch eine enorme Platzersparnis. Und wenn die Leistung benötigt wird könnte CPU und GPU getrennt auf einem Interposer liegen.
Wenn die APU leistungsfähig genug ist wäre natürlich auch weiterhin gemeinsam auf einem DIE möglich.

Bei den Gerüchten der letzten Zeit gab' es ja auch schon wo Pläne für eine Server APU, was ja wenn HSA endlich mal ordentlich genutzt und unterstützt wird durchaus denkbar wäre z.B. eben für Heterogeneous Computing. Je nachdem wie die Anforderungen an diese sind kann ich mir geteiltes Silizium/DIEs auch durchaus vorstellen.


Mit der GT4e wäre das vielleicht sogar denkbar, aber ob die Konsolenhersteller und Intel sich dann auf einen Preis einigen können? Wirklich billig gibt Intel ja wohl nur die CPUs ab ...
Ja der Preis spielt hier bestimmt eine Rolle und aktuell sind die CPUs mit Iris Pro teuer. Intel war selten billig, vor allem wenn sie die zum jeweiligen Zeitpunkt schnelleren CPUs hatten. Ich erinnere immer gerne an die Preise der Sandy Bridge CPUs die ja kurz nach Release "saugünstig" waren und als dann Bulldozer raus war gestiegen sind. Und die Nachfolgemodelle und Architekturen haben sich immer an den letzten Preisen bzw. darüber orientiert. Den i5-2500K gab's kurz nach Release und dann für längere Zeit für 170 EUR und teils günstiger! Der i5-3570K und später i5-4670K lagen meist bei 190-200 EUR und von aktuell wo der USD den EUR "von hinten nimmt" sieht es natürlich noch schlechter aus.
Bis jedoch die neuen Konsolen kommen vergeht bestimmt noch einiges an Zeit und bis dahin sind AMD und Intel schon wieder einiges weiter.

High-End Server CPUs mit vielen Kernen wird es als APU wohl kaum geben, ...
Wieso nicht? Dann gibt es halt verschiedene Masken. Sieh Dir Sandy und Ivy Bridge sowie Haswell an. Da gibt es kleinste Dual Core Varianten (Celeron, Pentium) mit schwachen iGPUs rauf bis dicke Server CPUs (-E, -EP, -EN, -EX) komplett ohne iGPUs und dazwischen jede Menge Mischformen mit teils starken (Iris Pro) iGPUs.
Wie schon vorher erwähnt gibt es Gerüchte daß auch AMD Server APUs kommen. Wie diese aussehen weiß man noch nicht, könnte mir aber auch viele Kerne mit einer schwachen GPU vorstellen oder eine stärkeren GPU falls auf HSA ausgelegt, dann vielleicht aber eher mit weniger Kernen.
Ich kann mir auch spezialisierte Server für z.B. Streaming etc. vorstellen die kleine APUs haben die eben speziell auf Echtzeitcodierung durch die GPU ausgelegt sind.


dann wäre das Die zu groß und für Low Power braucht man meist eine andere Architektur und eine andere Fertigungstechnik, denn eine Architektur und auch eine Fertigungstechnik sind niemals für beide Extreme optimal. AMD hat damals nicht zum Spaß neben Bulldozer noch Bobcat entwickelt und Intel hat auch nicht zufällig neben Haswell und Broadwell für Heigh-Performance noch Bay Trail und Braswell für Low-Power.
Ja das hatte ich ja auch extra erwähnt daß die Low Power / SoC da vielleicht nicht mit rein fällt da hier ja aktuell auch andere Architekturen genutzt werden.

Ohne die nötige HW kann auch keine SW entwickelt werden, ...
HW gibt es ja schon länger von AMD auch wenn diese HSA nur teilweise beherrscht. Der Schritt Richtung APU war der Erste für den HSA (damals Fusion) Ansatz. Klar kommt die Software üblicherweise nach der Hardware da diese ja sonst nicht nutzbar wäre.
HSA steckt halt noch immer etwas in den Kinderschuhen und Softwaresupport kommt sehr schleppend aber immerhin wurde lt. Wiki bereits ein kleiner Support dafür im Feb. 2015 in den Linux Kernel 3.19 implementiert.

Intel hat eben keine Tradition bei GPUs und daher auch eine ganz andere Technologie dafür gewählt.
Naja keine Tradition ist realtiv ... Intel hatte damals Mitte der 90er ja eine Grafik-Kooperation (Intel 740) mit Real3D/Lockheed und hat später dessen Technologien und Resourcen aufgekauft. Diese Technologien wurden in den ersten Intel onboard Grafiklösungen weitergenutzt und später kamen auch noch PowerVR Technologien dazu. Aber ja, großartig viel Aufwand hat Intel da anscheinend nie in die GPU Sparte gesteckt. In den letzten Jahren hat sich dafür aber einiges getan und wer weiß wohin Intel noch will. Larrabee war ja ursprünglich auch ein Grafikansatz welcher letztendlich dann aber nur als Computing Architektur genutzt wurde (Xeon Phi).
Warum Intel eigentlich nie mehr dGPU abseits der i740 und einige wenige i752 Karten gebracht hat weiß ich jedoch auch nicht. Um 2010 mit Infos zu Larrabee wurde ja wild spekuliert ob Intel eine dGPU bringt und was die leisten könnte.
Wie auch immer kann ich mir gut vorstellen daß Intel da weiter in Sachen iGPU (ist ja im Prinzip eine APU) entwickelt. dGPUs werden wir von Intel vielleicht nie wieder sehen, aber wer weiß das schon.

Wobei der Ansatz bei Xeon Phi x86er Kerne zu verwenden durchaus einen eigenen Scharm hat, da er verspricht die SW-Entwicklung zu verweinfachen, auch wenn es nicht wirklich HSA ist, so entscheidet im noch, was am Ende hinten rauskommt. Aber bisher scheint der Xeon Phi auch noch kein Renner zu sein.
Ja das geht ganz andere Wege als HSA da die Xeon Phi ja eigenständige Beschleuniger sind. "Renner" kann man so nicht sagen da diese eben sehr spezielle Lösungen sind für die explizit programmiert werden muß. Leistungsfähig dürften sie schon sein, aber anscheinend auch nur ähnlich effizient wie GPU Computing oder teils PowerPC/Sparc (ehemalig als RISC/non x86 bekannte) Lösungen.

Den Satz aus dem Zusammenhang "zwei Vorwürfe die sich immer halten werden" zu reißen in dem er steht, ist absolut sinnentstellend bis trollig. Da erübrigt sich also jeder weitere Kommentar von selbst.
Weiß zwar nicht wirklich was Du mit trollig meinst aber ich wollte damit einfach nur ausdrücken daß ich eher der Meinung des 2. Vorwurf bin. Ich habe es ja auch gleich entkräftet weil ich meinte daß eben CPUs, APUs, GPUs etc. ja funktionieren müssen und man hier den Kunden ja nicht direkt als Betatester nutzen kann da man mit nicht funktionierenden Prozessoren große Probleme bekommen könnte.
Aber generell könnte ich Dir jede Menge Beispiele von Soft und Hardware (<- eher im Sinne von Unterhaltungsmedien/HiFi/TV etc.) nennen wo ich persönlich Erfahrungen gemacht habe wo sich einem die Zehennägel aufrollen. In den seltensten Fällen war es die Hardware, aber auch die war ab und zu ein Fail.
Vielleicht habe ich Dich aber auch nur falsch verstanden.

Wenn man schon auf einem so hohen Niveau ist, wird es eben immer schwerer weitere Steigerungen zu realisieren.

Was aber trotzdem mit Unsicherheiten behaftet ist, denn man weiß ich welchje geniale Idee den Entwicklern vielleicht doch noch einfällt oder eingefallen ist. Es gibt zwar erste Performancewerte zu Skylake im Netz, aber wie real sind die? Zwar glaube ich auch nicht an eine revolutionäre Leistungssteigerung, aber so etwas für alle Ewigkeit zu 100% ausschliessen, sollte man nun auch wieder nicht.
Klar wird es immer schwerer Steigerungen in Sachen Leistung, Funktionen und Effizienz zu schaffen, vor allem wenn man sich mal vorstellt wie kompliziert und komplex das Thema Chipentwicklung ist.
Ich gebe Dir recht daß man auch bei Intel eine revolutionäre Leistungssteigerung nicht ausschließen kann, allerdings sieht es aktuell noch nicht danach aus. Ich glaube daß das auch noch dauert bis vielleicht die ersten Ansätze von VISC oder MorphCore o.Ä. UND/ODER komplett neue Architekturen auf den Markt kommen. Was bis jetzt von Skylake bekannt ist deutet jetzt noch nicht auf so etwas hin sondern eher auf den üblichen "kleinen" Performancezuwachs von ~ 10-15% ggü. Haswell/Broadwell.

Ausrutscher neuer Architekturen nach unten sind heutzutage auch eher selten da die Taktraten nicht mehr sooo stark schwanken. Damit meine ich so etwas wie z.B. die allerersten Pentium 1 CPUs mit 60/66 MHz die ja durch den niedrigen Takt in einigen Bereichen langsamer als z.B. 486er oder AMD 5x86 (486er) mit 100+ MHz waren, oder eben dann die bekannten Netburst Probleme wo die ersten Willamette P4 um ~ 1500MHz es teils schwer gegen schnelle (1+GHz) P3 und Athlons hatte.
Wie es richtig ging zeigt z.B. der Pentium M bzw. der später daraus resultierende Core Duo und Core 2. Auch der Athlon 64 hatte weniger bzw. ähnliche Taktraten wie dessen Vorgänger, der Athlon XP aber trotzdem deutlich mehr Leistung.
Bulldozer hat dagegen wieder trotz hoher Taktraten zumindest Single Threaded weniger Leistung als ein Phenom II gehabt, was jedoch durch die CMT Technik generell schwer zu vergleichen ist.

So ist es und vom Ausgangsniveau aus gesehen, ist das mögliche Potential natürlich hoch, Erwartungen und die Messlatte sind es aber eben auch.
Ja die Messlatte für Zen ist bestimmt recht hoch aber ich hoffe Zen kann die Erwartungen zumindest einigermaßen erfüllen und mit etwas mehr guter Hoffnung sogar übertreffen.

Effizenter womöglich, aber leistungsfähiger wohl kaum und damit wäre man wieder in einem Marktsegment, wo man nicht die höchsten Margen erzielen kann, da ist AMD aber heute schon. Enthusiasten wollen die leistungsstärkste HW und sind auch bereit für die letzten Prozent an Performance einen weit überproportionalen Aufpreis zu zahlen. Im Serversegment ist zwar Effizienz gefragt, aber auch da muss die CPU dann schon eine bestimmte Leistung bringen und eine sehr leistungstarke CPU kann am Ende oft sinnvoller sein, auch wenn sie sehr teuer ist, weil ja nicht nur die CPU Leistung aufnimmt und Kosten verursacht. Ist die schnellst CPU doppelt so leistungsstark wie die effizienteste CPU, dann braucht man nur halb so viele Server / Blades, Switches, etc. halb so viele Racks also halb so viel Platz und am Ende spart man damit Geld und womöglich sogar Energie.
Wenn die Palette breit ist kann ich mir das bei Servern durchaus vorstellen daß auch dort APUs verbaut werden können. Auch für Server gibt es verschiedenste Einsatzgebiete, wie man bei Intel ja auch sieht. Da gibt es bei den aktuellen Xeons ja auch 2 bis 18 Kerner und diverse Low Power Varianten die nicht gerade die allerschnellsten sind. Wie gesagt ist da die Palette sehr breit.
Ich glaube es würden auch weniger über AMD nörgeln wenn es am Sockel FM2+ auch 4 Moduler FX und/oder X8/APUs gäbe eben als "High End" (was AMD halt aktuell kann) mit aktuelleren Kernen.
 
Zuletzt bearbeitet:
Intel war selten billig, vor allem wenn sie die zum jeweiligen Zeitpunkt schnelleren CPUs hatten.
Als AMDs CPUs mal von der Leistung her führend waren, hat damals auch AMD kräftig zuheschlagen, aber wenn die Leistung nicht stimmt, kann man keine höheren Preise am Markt durchsetzen. Die Hersteller sind ja auch Wirtschaftunternehmen und keine gemeinnützigen Wohlfahrtsorganisationen und bei den Investitionen die für neue Technologien immer wieder nötig sind, ist das ja auch nötig. Außerdem wollen die Kapitalgeber auch Renditen sehen, wenn sie in eine Firma investieren, denn damit ist ja auch immer ein Risiko verbunden.
Dann gibt es halt verschiedene Masken.
Nur sind die dann eben groß und damit teuer zu fertigen. Dann muss man eben weniger CPU Kerne mit mehr GPU Kernen oder mehr CPU Kerne mit weniger GPU Kerne verbinden, was immer ein fauler Komprimiss bleibt.
Klar kommt die Software üblicherweise nach der Hardware da diese ja sonst nicht nutzbar wäre.
Nicht nur nicht nutzbar, es ist auch verdammt schwer SW zu entwickeln, wenn man die HW nicht hat. NVidia hat z.B. eine Lösung um mit CUDA zu entwickeln ohne eine passende Graka, die wird dann von der CPU emuliert. Wo war so eine Lösung von AMD für HSA?
HSA steckt halt noch immer etwas in den Kinderschuhen und Softwaresupport kommt sehr schleppend
Eben und daher sollte man sich auch nicht wundern, wenn es so lang ebei der SW-Unterstützung mangelt und damit die HAS-Fähigkeiten von den Kunden nicht honoriert werden und man dafür also auch nicht mehr Geld verlangen kann.
Intel hatte damals Mitte der 90er ja eine Grafik-Kooperation
Das ist ewig her und die damalige Technologie ist schon lange nur noch für Museum gut. Hätte man damit noch etwas anfangen könne, hätte Larrabee wohl ein Erfolg werden müssen.

Ja das geht ganz andere Wege als HSA da die Xeon Phi ja eigenständige Beschleuniger sind. "Renner" kann man so nicht sagen
Beim Xeon Phi wird sich wohl bzgl. der Architektur einiges tun:
GPUs haben gewöhnlich sehr einfache Kerne, aber davon eben sehr viele und Intel scheint beim Xeon Phi auf sehr viel komplexere und leistungsstärkere Kerne zu setzen, was am Ende die bessere Lösung ist bzw. welche sich dann ggf. durchsetzt, wird sich zeigen müssen.
Ich glaube daß das auch noch dauert bis vielleicht die ersten Ansätze von VISC oder MorphCore o.Ä. UND/ODER komplett neue Architekturen auf den Markt kommen. Was bis jetzt von Skylake bekannt ist deutet jetzt noch nicht auf so etwas hin sondern eher auf den üblichen "kleinen" Performancezuwachs von ~ 10-15% ggü. Haswell/Broadwell.
Ja, so sieht es aus.
 
Nicht nur nicht nutzbar, es ist auch verdammt schwer SW zu entwickeln, wenn man die HW nicht hat. NVidia hat z.B. eine Lösung um mit CUDA zu entwickeln ohne eine passende Graka, die wird dann von der CPU emuliert. Wo war so eine Lösung von AMD für HSA?

AMD bietet mit Bolt schon die ganze Zeit eine library an, die sowohl opencl code für dir GPU erstellt als auch einen codepath für die CPU erstellt. Also könnte ich den code testen auch ohne opencl fähiger GPU.

Will ich GPGPU testen, braucht es auch nicht zwingend ein hsa fähiges system.

HuMA emulieren ist irgendwie sinnlos, denn entweder die Hardware kanns oder es wird noch langsamer als "normales" GPGPU auf der Hardware.
 
Naja die GPU in die CPU oder zumindest das CPU Package zu verfrachten ist aus technischer Sicht keine so schlechte Idee da man Platz und Leiterbahnen etc. am Mainboard spart und besser zu kühlen sind die auch als direkt am Mainboard. Onboard Grafikkarten waren immer schon lowest End
Erst seitdem die in der CPU sind (Sandy Bridge bzw. AMDs APUs) sind diese zumindest ansatzweise nutzbar um 3D brauchbar darzustellen.

1. Zum Lila Markierten. Schau dir Notebooks an. Das sind auch nur Aufgelötete GPU,s auf Mainboards. Sowas kann es auch für Mainboards geben. Und die sind oft viel schneller als AMD,s oder Intels APU,s.
2. Zum Orangenen. Ja alles richtig, kostet aber alles Geld und war eigentlich erstmal unnötig wenn man Geld Probleme hat so wie AMD.

Mit kleineren Prozessen kann man mehr Shader/Rohleistung in die APUs packen und mit HBM sollte die Speicheranbindung auch kein Thema mehr sein. Genau das schreibt er und ich glaube auch daran daß AMD mit 14nm Fertigung, HBM und aktualisierter CPU und GPU Architekturen durchaus beachtliche APUs bauen könnte.
Warten wir's ab! 10 Jahre wird das bestimmt nicht mehr dauern und Low End mit 14nm und 10nm kann ich nicht glauben. High End wird es bestimmt nicht so schnell geben, aber im guten Mid Range Bereich, warum nicht?
Eine aktuelle APU mit Zen und GCN 1.2 mit sagen wir mal der Leistung eines 4 Kern i5 (von mir aus Sandy) @ 3,5GHz und GPU a'la Radeon 260X oder GeForce 750Ti genügt bestimmt den allermeisten Casual Gamern da draussen.

Bin ich nicht so von überzeugt. Aber mal gucken was kommt. Mir wäre eine 260X oder 750Ti deutlich zu Langsam. Eine APU mit der GPU power einer GTX960 oder halt dem AMD Pendanten R9 380 fänd ich erst interessant.

Ist trotzdem nicht unmöglich APUs mit Excavator Kernen auf dem Desktop zu bringen, heißen dann halt nicht mehr Carrizo sondern irgendwie anders und die Plattform heißt Stoney Ridge.

Fragt sich nur ob sie dann noch ihre +40% Effizienz haben, weil sie ja Speziell dafür entworfen wurden. Wenn man etwas als Lowtakt Design entwirft, macht es meistens keinen Sinn es als Hochtakt Design zu verwenden. Mit keinen Sinn meine ich, das es nicht so Leistungsfähig/Effizient sein wird wie ein von vornherein auf Höheren Taktraten ausgelegtes Design.

Und selbst wenn das alles so geklappt hätte ist die Frage ob AMD damit mehr Gewinn einfahren hätte können als mit den APUs und dessen Abkömlinge (Cat Serie).

Ich denke auf jedenfall.

Intel vs AMD ist es doch hoffentlich eh schon wieder vorbei hier. Man kann das ja alles sachlich diskutieren aber es gibt immer wieder welche die irgendwie beleidigend werden oder es nicht verkraften wenn eventuell ein Argument oder eine Ansicht widerlegt oder einfach nur anders gesehen wird.

Ich hab die Intel vs AMD Diskussion garnicht mitbekommen. Weder den anfang, noch das Ende :fresse:

-----------------------------------------

Und was genau macht dich da so sicher? Hängt wohl letztendlich vor allem von den Taktraten ab. Die Architektur könnte sehr wohl ähnlich stark werden. Schau dir mal die Geekbench singlecore Werte von Carrizo und Skylake an. Bei Integer ist Skylake taktnormiert 30-35% schneller (das hardwarebeschleunigte AES mal aussen vor gelassen), bei FP ist es aufgrund der 256-bit FPU logischerweise mehr mit knapp 55%. Integer ist sicherlich aussagekräftiger für allgemeine Performance. Und da Zen sehr wahrscheinlich ebenfalls eine 256-bit FPU bekommt, könnte der da auch überproportional zulegen. Falls die auf dem FAD angegebenen +40% für Zen gegenüber Excavator sich bei allgemeiner Performance bestätigen, dann könnte man da Skylake (Refresh) Level erreichen. Bei >=4 GHz Turbo sollte man auch Kern vs Kern konkurrenzfähig sein.

Weil Intel Jahre für diese IPC gebraucht hat, und AMD noch nie auf Nehalem Niveau war.
Ich weiß das sagt nicht unbedingt was aus, aber ich wäre doch sehr überrascht wenn AMD auf einmal von Core 2 IPC zu Skylake IPC springt und mal eben Nehalem, Sandy, Haswell IPC überspringt.

Es ist trotzdem der richtige Weg, CPU und GPU in einem SoC zu integrieren.

Im Jahre 2025 vielleicht, aber Warum im Jahr 2012 oder 2015 oder 2018 ?

Für einen Zocker macht das Absolut keinen Sinn.
Mal abgesehen davon das es selbst in 14nm aus Hitzegründen noch nicht möglich ist, die GPU Power einer 290X mit einem Anständigen 4 ghz 6 Kerner zu verschmelzen.
Warum sage ich 6 Kerner und nicht 4 Kerner fragst du dich evtl.
6 Kerner und 8 Kerner werden durch Star Citicen im Jahr 2018 Extrem Gepusht werden.
Von daher könnte es gut sein das 4 Kerner in Zukunft immer uninteressanter werden, und AMD aus 6 oder 8 Kernern APU,s basteln müssen wenn sie weiterhin APU,s machen wollen.
Wir sehen ja heute schon das eine 2 Modul 4 Kern APU gut von einem Modul mehr Profitiert hätte bei zb BF4 oder Crysis 3 etc.
Das mit einer Power einer 290X zu kombinieren (welche die Power einer GTX970 hat), wird eine Heiße Sache für AMD.
Aber selbst die GTX970 bzw 290X wird Star Citizen gerademal auf Low Details befeuern können bei Multyplayer Schlachten.

Aber bis Star Citizen raus kommt, vergehen ja noch 2-3 Jahre und die R9 290X wird bis dahin Low End sein.

Aber nicht von einer zur nächsten Generation. Wie lange soll das denn dauern? 5 Jahre oder länger? Bis dahin ist die Konkurrenz eben auch schon entsprechend weiter. Wie gesagt, da halte ich es für sinnvoller, einen radikalen Schnitt zu machen und ans Reissbrett zurückzugehen. Da hat man vielleicht das eine oder andere Jahr Durststrecke, weil die Bulldozer Weiterentwicklungen nicht mehr ausgeschöpft werden können. Dafür hat man aber anschiessend wieder eine bessere Basis.

Meine aussage bezog sich auf MK1, also Zambezi. Und die 80% wären leicht zu erreichen gewesen. Schließlich hatte AMD ja schon mit dem Piledriver 15% im schnitt, und mit dem Steamroller nochmal 15% im schnitt, und mit dem Excavator nochmal 5% im schnitt. Wären wir bei 35%. Wäre die Zen Geschichte nicht, und die APU Geschichte nicht, und die FM2+ geschichte nicht, und die HSA Geschichte nicht, hätten wir garantiert 2015 schon einen Bulldozer MK5 mit nochmal 5-10% und wären mindestens bei 40% Steigerung in 4 Jahren.

Das entspricht auch in etwa Intels Fortschritte seit Core 2 bis Sandy. Zambezi Startete auf K8 Niveau und überflügelte mit Steamroller das Core 2 & Phenom II niveau (Fiktiv mit einem FX+L3), und hätte mit Excavator das Nehalem Niveau. Mit dem MK5 wäre man in Richtung Sandy unterwegs, und hätte gute 4 Moduler die man aufgrund der Erfahrung schneller auf 28nm und 14nm Shrinken lassen könnte als eine komplett neue Architektur oder neuen APU Gedöns.

Ja, aber das Design wurde ursprünglich für einen anderen Anspruch entwickelt, nämlich für hohen Durchsatz. Für entsprechende Server super, für den Client Markt immer noch nachteilig. Mit Zen will man ja wieder mehr Richtung Kernperformance gehen und weniger Richtung maximaler Durchsatz. Gut möglich, dass ein weiterentwickelter Bulldozer in 2016 mehr multithreaded Performance hätte liefern können als es Zen tun wird. Aber die singlethreaded Nachteile hätte man immer noch gehabt.

Die ST power eines Steamroller + 10% durch L3 + 5% vom Excavator hätte ein Niveau erreicht, das selbst für Hardcore Singlecore Games aka World of Tanks ausgereicht hätte.

Jeder Gamer hätte mit dieser CPU die Möglichkeit jedes Game auf Ultra zu Zocken.
Und mit einem MK5 welcher wieder 10% nachlegt hätte man noch mehr Reserven.

Ein Skylake hat ja auch locker 30% mehr IPC als ein Sandy Bridge, und dennoch langen die Sandys für alle Games.

Ab einem Gewissen IPC niveau, machen mehr Kerne wieder mehr Sinn.
Wie viele Leute würden sich selbst heute noch einen Sandy Bridge 8 Kerner kaufen, wenn es ihn zu Preisen von AMD,s FX8 (130€) für normale Desktop Boards geben würde ?
Ich vermute sogar für viele Haswell Quad Core Besitzer wäre das verlockend.

Eben. Eine separate CPU und GPU erschweren einiges.

Gab bei Lap Tops nie probleme. Auch nicht bei Gaming Lap Tops.
 
Zuletzt bearbeitet:
Weil Intel Jahre für diese IPC gebraucht hat, und AMD noch nie auf Nehalem Niveau war.
Das war Apple auch nicht, bis sie dann mit Cyclone einen rausgehauen haben. Was sagt uns das also? Mit einer von Grund auf neu entwickelten Architektur ist vieles möglich. Wie lange Intel bisher ihre Architektur inkrementell weiterentwickelt hat, hat dafür doch keine Relevanz. Also nochmal, was macht dich da so sicher? Und damit meine ich greifbare Fakten/Infos, wie die von mir zuvor geposteten Zahlen, und keine subjektiven Spekulationen.

Im Jahre 2025 vielleicht
Das gilt schon heute.

Für einen Zocker macht das Absolut keinen Sinn.
Es wird dich vielleicht schockieren, aber Prozessoren werden nicht primär für Zocker entwickelt. Schon gar nicht für Gaming Enthusiasten. Die meisten Spieler sind auch keine Enthusiasten. Wir sehen heute schon, dass APUs für FHD meist recht brauchbar sind. Mit 14nm und HBM wird es nochmal einen ordentlichen Schub geben. Die Notwendigkeit für eine dGPU wird damit weiter sinken. Und 4K ist und bleibt für die Masse noch länger eine Randerscheinung.


Mal abgesehen davon das es selbst in 14nm aus Hitzegründen noch nicht möglich ist, die GPU Power einer 290X mit einem Anständigen 4 ghz 6 Kerner zu verschmelzen.
Warum sage ich 6 Kerner und nicht 4 Kerner fragst du dich evtl.
6 Kerner und 8 Kerner werden durch Star Citicen im Jahr 2018 Extrem Gepusht werden.
Von daher könnte es gut sein das 4 Kerner in Zukunft immer uninteressanter werden, und AMD aus 6 oder 8 Kernern APU,s basteln müssen wenn sie weiterhin APU,s machen wollen.
Wieso das? Nur wegen SC? :rolleyes: Die Zen APU wird 4 Kerne und 8 Threads bieten. Das ist doppelt so viel wie bei den aktuellen APUs. Das wird mittelfristig völlig ausreichen, unabhängig von SC. Eine HPC APU könnte auch mehr bieten. Da wären auch 8+ Zen Kerne verstellbar. Hitzeprobleme sehe ich da auch nicht. Erstens ist das über die Taktraten regulierbar. Und zweitens je grösser der Chip wird, umso besser kann man auch die Hotspots verteilen. Die Fury Nano wird voraussichtlich deutlich unter 200W liegen bei Gaming. 4 Excavator Module wären problemlos mit 65W machbar. Insgesamt würde eine solche CPU/GPU Kombo also nicht mehr als 250W bei Gaming brauchen. Und das alles noch in 28nm. Stell dir mal vor, was in 14nm machbar wäre, wo man voraussichtlich 50-75% an Einsparungen erzielt. So eine 14nm HPC APU mit HBM könnte jeder aktuellen Single dGPU das Fürchten lehren.

Meine aussage bezog sich auf MK1, also Zambezi. Und die 80% wären leicht zu erreichen gewesen. Schließlich hatte AMD ja schon mit dem Piledriver 15% im schnitt, und mit dem Steamroller nochmal 15% im schnitt, und mit dem Excavator nochmal 5% im schnitt.
Bei Piledriver war es nur so viel, weil da auch die Taktraten stiegen. Rein architektonisch waren es eher 5-10%. Bei Steamroller verlor man diesen Taktvorteil zu einem grossen Teil wieder. Rein architektonisch waren es da ~10% singlethreaded. Multithreaded war es aufgrund des aufgebohrten Frontends etwas mehr mit 15-20%. Excavator war mit 5% angekündigt. Bisherige Tests deuten aber eher auf ~10% hin. Beschränken wir uns mal rein auf singlethreaded Performance, so wurde die Architektur in 4 Jahren um gut 30% verbessert. Selbst wenn noch 10-20% mehr drin gewesen wäre bei mehr Investitionen, so sind wir trotzdem noch ein gutes Stück von 80% entfernt. Für diesen Wert kannst du ruhig noch mindestens zwei Jahre an Entwicklung hinzurechnen. Frühestens ein Jahr nachdem Zen gelaunched werden soll und der eben auch vermutlich ~80% gegenüber bdver1 zulegt.

Wäre die Zen Geschichte nicht, und die APU Geschichte nicht, und die FM2+ geschichte nicht, und die HSA Geschichte nicht, hätten wir garantiert 2015 schon einen Bulldozer MK5 mit nochmal 5-10% und wären mindestens bei 40% Steigerung in 4 Jahren.

Das entspricht auch in etwa Intels Fortschritte seit Core 2 bis Sandy. Zambezi Startete auf K8 Niveau und überflügelte mit Steamroller das Core 2 & Phenom II niveau (Fiktiv mit einem FX+L3), und hätte mit Excavator das Nehalem Niveau. Mit dem MK5 wäre man in Richtung Sandy unterwegs, und hätte gute 4 Moduler die man aufgrund der Erfahrung schneller auf 28nm und 14nm Shrinken lassen könnte als eine komplett neue Architektur oder neuen APU Gedöns.
Eine 4M bdver5 CPU mit Sandy Bridge Kernperformance in 2015/16 wäre dir also lieber als eine 8C Zen CPU mit vielleicht Broadwell/Skylake Kernperformance in 2016? Diese Logik verstehe ich nicht.

Gab bei Lap Tops nie probleme. Auch nicht bei Gaming Lap Tops.
Das war damit auch nicht gemeint. Es ging um Funktionalität und deren Implementierung.
 
mr.dude schrieb:
Das gilt schon heute.

Die Fertigung von Shadern und CPU Cores mit einem Fertigungsprozess ist eine Sackgasse, genau deswegen wird AMD auf untersch. Fertigungen und Interposer wieder umsteigen.

Es wird dich vielleicht schockieren, aber Prozessoren werden nicht primär für Zocker entwickelt.

Es wird dich vielleicht schockieren, aber CPU´s werden beim Heimanwender zu einem großen Teil zum Zocken genutzt.

Wir sehen heute schon, dass APUs für FHD meist recht brauchbar sind.

Nein, die sind viel zu langsam. Die APU Gamingleistung ist seit 2011 kaum angestiegen.
Ein heutiger Kaveri ist vll 40% vor einem llano, was die IGP angeht.
Und wenn man das Speicherbereinigt sieht, also llano auf mit 2400mhz bencht, dann sinds wohl 30 bis 40%.

Die Notwendigkeit für eine dGPU wird damit weiter sinken.

Quatsch keinen Müll. Die Leistung von dedizierten Grafikkarten rennt den integrierten davon.
Wir haben heute bei 165 Watt TDP in Form der GTX 980, eine ca 10x so hohe Leistung wie ne integrierte IGP.
Bei Llano Launch war es etwa noch 7x bis 8x so hohe Leistung.
Die Leistung stagniert bei AMD seit Jahren im IGP Bereich, während Intel schon überholt hat und vermutlich auch nicht mehr eingeholt werden kann.
Die aktuelle Broadwell IGP liegt 20 bis 30% vor der eines A10 7870k und Skylake wird da sicherlich nochmal 20% drauflegen, insofern denke ich kaum, dass AMD da noch kontern kann.
 
Zuletzt bearbeitet:
Danke Schaffe.

Wenn man sieht wie eine GTX960 in 1080p in vielen neuen games auf High gerademal 20-30fps packt, dann kann man echt nicht sagen das man mit APU,s gut in 1080p zocken kann, es sei denn man meint Details unter High. Also eher so Low bis Medium jeh nach Game.

Zum Fiktiven BD.
Wir hätten heute schon einen FX8 Bulldozer mit Nehalem IPC in 28nm der mit 4,5ghz auf allen Kernen bei 140W TDP laufen würde.
Ende des Jahres oder spätestens Anfang 2016 wär der Locker Shrinkbar gewesen weil man sich mit der CPU besser auskennen würde und es nichts neues wäre. (Würde ja Fiktiv schon seit 2013 in 28nm laufen)

Damit hätten wir Anfang 2016 einen 14nm oder 16nm FX8 4,5 ghz mit Nehalem IPC welcher evtl nur 90W schluckt und evtl wieder 5-10% mehr IPC durch DDR4 oder andere kleine Updates.

AMD wäre damit Technologisch auf Jedenfall Gefährlich.

Achja und Zen kommt erst ende 2016 wenn es keine Probleme mit der Fertigung gibt. Könnte auch 2017 werden.
Bis dahin hätte man mit dem Fiktiven Bulldozer locker Sandy IPC erreichen können.
Und in 32nm gabs schon 8 Moduler, also 16 Kerner. In 14nm könnte man dann sicher 16 Moduler bauen. Also Quasi 32 Sandy Kerne in einer CPU im Jahr 2016 mit diesem Fiktiven Bulldozer. Wäre sicherlich interessant für Server gewesen.

Aber ok Zen geht auch, nur haben wir halt bis ende 2016 anfang 2017 keine Konkurenz gegen Ivy, Haswell, Broadwell, Skylake und co.
 
AMD hat in keiner Form noch irgendeine Konkurrenz aufzubieten.
Wenn die Skylake CPU´s kommen, wird wohl ein FX-8350 gegen einen Pentium zu kämpfen haben, zumindest was Spiele angeht.
 
AMD hat bisher seine Marktlücke im Budgetsegment, also wenn das Geld knapp ist aber wenig anspruchvolle Titel gespielt werden sollen. Entsprechend müssen die Preise ausfallen, denn nur darüber lassen die sich verkaufen und die Margen sind halt gering, was man auch an den Geschäftszahlen von AMD ablesen kann.

Viele legen große Hoffnungen in Zen, das wird sich auch von AMD massiv unterstützt, aber auch mit Fiji kann AMDs Radeon R9 Fury X auch nicht die Leistungskrone an sich ziehen, bei 4k schneidet sie noch gut ab, bei kleineren Auflösungen nicht mehr so sehr und die Leistungsaufnahme ist gut aber nicht besser als bei NVida, von Sonderfällen wie dem Betrieb mit 3 Monitoren abgesehen. Die Ankündigungen klingen also bei AMD noch immer größer als das was am Ende wirklich kommt. Bei den GPUs kann AMD aber immerhin schon wieder in der 700€ Liga mitspielen, wenn es Zen gelingt mit den High-End S. 1151 CPUs wie der 6700k mitzuhalten, wäre es also schon ein großer und wichtiger Schritt.
 
Zuletzt bearbeitet:
AMD macht halt den Fehler, dass sie soviel Kohle in neue Projekte buttern und dabei die aktuellen Entwicklungen vernachlässigen.
Hätte man halt wenigstens Komodo gebracht, dann würde man zumindest bei Anwendungen noch oben mitspielen, aber so gibt es gar keinen Marketingeffekt.
Aber es wird ja seit ende 2012 im FX Bereich rein gar nichts getan, ein riesen Fehler von AMD.

Ich denke mittlerweile dass diese ganze Ausrichtung auf APU´s rein gar nix gebracht hat.
Die IP hätte man für die Low Budget Segmente von ATI lizensieren können und mittlerweile stünde wohl ATI selbst besser da, wenn AMD die nicht aufgekauft hätte.
 
Ich denke mittlerweile dass diese ganze Ausrichtung auf APU´s rein gar nix gebracht hat.

Was soll das auch bringen. Zum Zocken zu langsam und nur in Verbindung mit lahmen CPU,s. Also quasi überteuerte Büro CPU,s.
Da kann man auch gleich für 40€ ne CPU Kaufen und Onboard Graka vom Mainboard nutzen.
 
[...]

Ich denke mittlerweile dass diese ganze Ausrichtung auf APU´s rein gar nix gebracht hat.
Die IP hätte man für die Low Budget Segmente von ATI lizensieren können und mittlerweile stünde wohl ATI selbst besser da, wenn AMD die nicht aufgekauft hätte.

Da stimme ich z.T. zu, in dem Punkt hatte Meyer damals recht. CPUs sind die Produkte. Die Fokussierung auf die APUs war ne fixe Idee, die erst seit Carrizo eigentlich fertig entwickelt ist. ABER die ganze Sache hat einen gewaltigen Haken: Hätte AMD jetzt keine APUs würde man gar nichts mehr gegen Intel aufbieten, denn Intel bietet APUs. Für OEMs wär ohne APU-Strategie bei AMD wirklich schicht-im-Schacht gewesen. Und nicht vergessen, auch die Konsolen-SoCs sind APUs. Letztendlich muss man konstatieren, dass ein Komodo + Nachfolger zwar nett gewesen wären aus Kundensicht aber aus AMDs Sicht finanziell ne Katastrophe. Von daher haben die das eigentlich Goldrichtig gemacht; CPUs canceln, Ressourcen freimachen, GPUs auf Sparflamme entwickeln bis ein neuer Prozess verfügbar ist, APUs als Testfeld für HDL bei CPUs nutzen und Semi-Custom-Projekte anbieten um die eigene Technologie soweit wie möglich zu verwerten.
Mit der Ausgangslage 2011 hätte das eigentlich nicht besser laufen können mAn.
In 14nm kann AMD dann wieder aus dem Vollen schöpfen, da Intel diesen Prozess ja auch lange nutzen wird und technologisch der Samsung-LPP-Prozess keinen Nachteil ggü. Intels Prozess hat.
 
Als AMDs CPUs mal von der Leistung her führend waren, hat damals auch AMD kräftig zuheschlagen, aber wenn die Leistung nicht stimmt, kann man keine höheren Preise am Markt durchsetzen. Die Hersteller sind ja auch Wirtschaftunternehmen und keine gemeinnützigen Wohlfahrtsorganisationen ...
Ja bei den Athlon 64 und darauf basierende FX hat AMD auch ordentlich Preise verlangt, aber wie Du sagst war das ja auch gerechtfertigt. Für die Bulldozer/Piledriver FX hatte AMD wohl auch höhere Preise angesetzt, musste aber bald in niedrige Regionen fallen.
Auch jetzt an der Fury X und durchaus auch den R9 300er Modellen sieht man auch daß AMD wenn die Leistung passt höhere Preise fahren kann bzw. ja sogar muß. In der Fury steckt ja auch einiges an Entwicklung und bestimmt aktuell (noch?) nicht sonderlich günstiger HBM Speicher sowie die AIO Wakü. Und die R9 390er Karten sind ja auch nicht "einfacher" geworden als die 290er Modelle und 8GB GDDR5 bekommt man auch nicht für lau.
Allerdings befürchte bzw. vermute ich daß AMD auch hier die Preise nach unten regulieren muß denn wie man in der Vergangenheit gesehen hat war AMD trotz etwa gleicher Leistung so gut wie immer billiger als nV, hatte aber trotzdem nicht die riesen Marktanteile.

[Intel GPU]
Das ist ewig her und die damalige Technologie ist schon lange nur noch für Museum gut. Hätte man damit noch etwas anfangen könne, hätte Larrabee wohl ein Erfolg werden müssen.
Klar ist es ewig her, aber damit wollte ich auch nur sagen daß Intel hier sehr wohl auch schon ein Feld hatte und bedienen hätte können. Warum auch immer die das nicht gemacht haben wissen wohl nur Intel selbst.
Larrabee kam ja doch erst viel später und war ja eine komplette Neuentwicklung.

1. Zum Lila Markierten. Schau dir Notebooks an. Das sind auch nur Aufgelötete GPU,s auf Mainboards. Sowas kann es auch für Mainboards geben. Und die sind oft viel schneller als AMD,s oder Intels APU,s.
2. Zum Orangenen. Ja alles richtig, kostet aber alles Geld und war eigentlich erstmal unnötig wenn man Geld Probleme hat so wie AMD.
Zu 1.
Naja bei Notebooks hat man das gemacht weil halt nicht wirklich Platz da ist und Notebooks aufgrund des Aufbaus auch meist kaum zum Auf-/Umrüsten geeignet sind. Meist bedingt durch Platz, Kühlung und Versorgungsauslegung. Es gibt zwar auch ein paar exotische Slots bei Notebooks um die GPU umzurüsten aber die sind meist nur zu ganz wenigen Optionen kompatibel.
Bei Desktop Mainboards macht es nicht so viel Sinn vollständige dGPUs aufzulöten weil man dadurch Platz auf der Platine braucht und auch eine eigene Kühlung und man ja meist sowieso Steckplätze hat und das eben damit auf- und umrüstfähig ist. Als es damals technisch machbar war wurden diese in den Chipsatz integriert da man diesen ja sowieso schon hatte und um Flaschenhälse zu minimieren und eine bessere Kühlung und wohl auch Spannungsversorgung zu gewährleisten wurden diese dann in die CPUs verfrachtet.
Zu 2.
Tja es war halt ein Schritt den AMD gemacht hat und sich wohl mehr davon versprochen hat. Vielleicht klappt es bei der nächsten APU Generation (mit Zen und kleinerer Fertigung) besser bzw. so wie sich AMD das vorgestellt hat.

Bin ich nicht so von überzeugt. Aber mal gucken was kommt. Mir wäre eine 260X oder 750Ti deutlich zu Langsam. Eine APU mit der GPU power einer GTX960 oder halt dem AMD Pendanten R9 380 fänd ich erst interessant.
Es wäre bestimmt einigen zu langsam, ja, aber der Großteil der Casual Gamer wären damit wohl glücklich. Du glaubst gar nicht mit was für GPUs die Leute oft Zocken. Ich kenne jede Menge die sich einen 08/15 Laptop kaufen die oft sogar nur iGPUs (Intel) haben und damit dann diverse Spielchen wie WoW, Minecraft, CS, LoL, DotA etc. zocken. Klar - oft nur in niedrigsten Details und (schlimmer) oft mit niedriger als nativer Auflösung.

[Excavator/Carrizo]
Fragt sich nur ob sie dann noch ihre +40% Effizienz haben...
Nein bestimmt nicht, aber wenigstens vielleicht immer noch besser als Steamroller und vielleicht gäbe es trotzdem die Möglichkeit diese hoch takten zu können. Na mal sehen wie Stoney Ridge aussehen wird, ich gehe aber eher von Low Budget aus.

[CPUs und GPUs -> SoCs]
Im Jahre 2025 vielleicht, aber Warum im Jahr 2012 oder 2015 oder 2018 ?

Für einen Zocker macht das Absolut keinen Sinn.
Ihr müsst da schon noch etwas unterscheiden, SoCs machen bei mobilen und kleinen Geräten durchaus Sinn. Diese wurden aber auch nicht primär für Zocker (im Sinne von grafisch anspruchsvollen Titeln) ausgelegt. Und das sind die APUs auch nicht wirklich.
Performance und High End Klasse machen aktuell bestimmt noch keinen Sinn als SoC / APU, im Low Budget bis Mid Range kann das allerdings interessant sein. Performance/High End CPUs und GPUs hat man ja doch oft unterschiedlich lange und bei einer APU bzw. einem SoC Design müsste man dann beides wechseln. Bei einer günstigeren APU bzw. SoC Chip will man das ja oft auch auf einmal wechseln da wenn eines zu schwach ist das andere es wohl auch schon ist.

Meine aussage bezog sich auf MK1, also Zambezi. Und die 80% wären leicht zu erreichen gewesen. ....
Ich bin trotzdem nicht so sicher ob das überhaupt aus der Architektur zu holen wäre. Vergleich das mal mit Intel, die feilen auch an der Core i Architektur seit Ende 2008 (Nehalem / Bloomfield) bis Ende 2009 (Lynnfield) herum und sind aktuell mit Haswell bzw. Broadwell auch noch weit von einer 80% Steigerung entfernt. Gut die Latte war vielleicht schon etwas höher da Nehalem ja schon eine gute Leistung hatte, aber 80% sind vielleicht etwas zu optimistisch gesehen.

Wie viele Leute würden sich selbst heute noch einen Sandy Bridge 8 Kerner kaufen, wenn es ihn zu Preisen von AMD,s FX8 (130€) für normale Desktop Boards geben würde ?
Ich vermute sogar für viele Haswell Quad Core Besitzer wäre das verlockend.
Bestimmt einige, allerdings hätte man dann wieder das Dilemma daß die Software erst mal mit so vielen Threads umgehen können muß. Aktuell sind die meisten Leute ja mit einem 4 Kerner [i5] (oder Threader [i3]) ganz gut bedient weil eben CPUs mit mehr als 4 Threads in wenigen Fällen tatsächlich deutlich mehr Leistung liefert. Klar - Tendenz steigend, aber bis es mal soweit ist daß man z.B. mit einer 4 Kern CPU wirklich in den meisten Bereichen spürbar weniger Leistung hat vergehen bestimmt noch einige Jahre. Nicht umsonst kommt Skylake am Sockel 1151 anscheinend auch nur max. als 4 Kerner (+ HT um die Enthusiasten etwas zu frieden zu stellen).

Gab bei Lap Tops nie probleme. Auch nicht bei Gaming Lap Tops.
Wie mr.dude auch schon geschrieben hat ging es da eher um das Thema HSA. Da hat man wieder Nachteile wenn CPUs und GPUs getrennt voneinander agieren und sich vielleicht nicht einmal den Speicher(controller) teilen.


Die Fertigung von Shadern und CPU Cores mit einem Fertigungsprozess ist eine Sackgasse, genau deswegen wird AMD auf untersch. Fertigungen und Interposer wieder umsteigen.
Falls die Fertigung tatsächlich ein Hindernis ist dann ist ja so eine Lösung auf einem Interposer kaum ein Nachteil. Gibt's da wo Infos bzgl. daß AMD das so machen will bzw. es Probleme mit den unterschiedlichen Fertigungen gibt? Hab da diesbezüglich noch nichts gehört.

Nein, die sind viel zu langsam. Die APU Gamingleistung ist seit 2011 kaum angestiegen.
Ein heutiger Kaveri ist vll 40% vor einem llano, was die IGP angeht.
Und wenn man das Speicherbereinigt sieht, also llano auf mit 2400mhz bencht, dann sinds wohl 30 bis 40%.
Ja leider ist die APU Gamingleistung nicht so stark gestiegen. Liegt wohl wirklich an der Fertigung und Architektur.
Bei Intel hat sich in der Zeit (also seit Sandy) in Sachen iGPU deutlich mehr bewegt.
Deswegen glaube ich ja auch daß AMD da endlich einen großen Satz vorwärts machen wird mit kleinerer Fertigung, neuer CPU Architektur und stärkeren GPUs mit eventuell HBM oder zumindest etwas höher getakteten DDR4.

Quatsch keinen Müll. Die Leistung von dedizierten Grafikkarten rennt den integrierten davon.
...
Das stimmt, allerdings glaube ich meinte er mit Notwendigkeit einer dGPU im Low Budget / Mid Range Bereich
Früher war es ja viel schlimmer, die Onboard (Chipsatz!) Lösungen egal ob von Intel, AMD/ATI, SiS, Via etc. waren ja meist gerade mal so für 2D zu gebrauchen. Da konnte man schon froh sein wenn die eine halbwegs brauchbare Videobeschleunigung hatte. Und wenn die Dinger 3D fähig waren lief trotzdem vieles nicht (mangels DX / Shader Support z.B. bei Intel oder einfach nur weil es viel zu langsam war).
Mit aktuellen Intel iGPUs und APUs kann man ja 2D technisch alles bewältigen inkl. HD Videos, Multimonitor etc. und es ist so ziemlich alles 3D technische zumindest zum Laufen zu bekommen und in Low bis Medium sogar teilweise ganz brauchbar (1080p aber meist eher niedriger). Im Vergleich zu damals hat sich da schon ordentlich was getan denn die Onboard Lösungen waren so gut wie immer den Low Budget dGPUs weit unterlegen - das ist heute nicht mehr so.


...
Viele legen große Hoffnungen in Zen, das wird sich auch von AMD massiv unterstützt, aber auch mit Fiji kann AMDs Radeon R9 Fury X auch nicht die Leistungskrone an sich ziehen, ...
Die Ankündigungen klingen also bei AMD noch immer größer als das was am Ende wirklich kommt. Bei den GPUs kann AMD aber immerhin schon wieder in der 700€ Liga mitspielen, wenn es Zen gelingt mit den High-End S. 1151 CPUs wie der 6700k mitzuhalten, wäre es also schon ein großer und wichtiger Schritt.
Das stimmt, zuuuu viel sollte man sich jetzt nicht von Zen erhoffen. Zaubern kann AMD nicht, aber wie Du sagst wenn die CPUs zumindest im Performance Bereich mitmischen können (was sie wie Du auch andeutest auf jeden Fall sollten) dann ist das schon mal in Ordnung.
Vielleicht gibt es dann auch dicke Servermodelle und neue Architekturen kann man ja bekanntlich immer noch optimieren und dann bessere nachschieben. Phenom I war auch nicht so der Brüller, Phenom II hat es dann deutlich besser gemacht und die Vishera FXs haben es auch besser gemacht.

Was soll das auch bringen. Zum Zocken zu langsam und nur in Verbindung mit lahmen CPU,s. Also quasi überteuerte Büro CPU,s.
Da kann man auch gleich für 40€ ne CPU Kaufen und Onboard Graka vom Mainboard nutzen.
Das ist der ewige Knackpunkt bei den APUs. Die kleinen/günstigen Modelle sehe ich auch noch ein, und ~ 70 EUR für einen X4 auch noch akzeptabel, aber ~ 135 EUR für eine Top A-10 APU ist zu teuer. Sind ja wenn man das mit dem X4 vergleicht dann alleine 65 EUR für die ~ Low Budget GPU und das ist etwas zu viel. Bei den Preisen einer A-8 APU (A8-7650K Black Edition ~ 94 EUR) ist das schon eher zu verkraften, auch wenn die GPU nochmals schwächer ist.

Meine Empfehlungen für Lowest Budget oder kleinen Office / Surf PCs sind deshalb nach wie vor die Haswell Celerons. Um 34 EUR einen G1840 mit iGPU - da kann man nicht viel falsch machen. Wenn doch etwas mehr gemacht werden soll oder die ein oder anderen doch etwas anspruchsvolleren Spiele gespielt werden sollen springe ich dann entweder auf einen X4 mit dGPU oder kleinsten i3 (die leider wg. dem drecks EUR Kurs angezogen haben, i3-4150 war ja schon auf 90 EUR) + dGPU, je nach Anforderung bzw. Vorliebe.
Und wenn tatsächlich mehr Leistung gefordert wird ann wird's halt ein i5, oder gar Xeon je nach Budget.
Die Pentiums sind zwar preislich ganz okay, bringen aber zu den Celerons keine spürbaren Unterschiede.
 
Hätte AMD jetzt keine APUs würde man gar nichts mehr gegen Intel aufbieten, denn Intel bietet APUs. Für OEMs wär ohne APU-Strategie bei AMD wirklich schicht-im-Schacht gewesen.

Wieso ? Gibt doch seit 15 (oder noch mehr) Jahren Intigrierte GPU,s auf Mainboards.

- - - Updated - - -

Zu 1.
Naja bei Notebooks hat man das gemacht weil halt nicht wirklich Platz da ist und Notebooks aufgrund des Aufbaus auch meist kaum zum Auf-/Umrüsten geeignet sind. Meist bedingt durch Platz, Kühlung und Versorgungsauslegung. Es gibt zwar auch ein paar exotische Slots bei Notebooks um die GPU umzurüsten aber die sind meist nur zu ganz wenigen Optionen kompatibel.
Bei Desktop Mainboards macht es nicht so viel Sinn vollständige dGPUs aufzulöten weil man dadurch Platz auf der Platine braucht und auch eine eigene Kühlung und man ja meist sowieso Steckplätze hat und das eben damit auf


Das man steckplätze hat ist doch kein Antigrund. Sonnst wäre das auch ein Antigrund gegen APU,s

Die Teile waren bisher immer Passiv gekühlt, und das obwohl die in 110nm und 90nm oder 64nm oder 45nm waren. Sollte also heutzutage noch weniger ein problem darstellen die passiv zu kühlen.

Und Platz auf dem Mainboard ? Ich bitte dich. Selbst micro ATX Platinen hatten diese mainboard GPU,s.
Ergo: Es gab immer genug platz.
Und es sind die letzten jahre immer mehr Funktionen von den Platinen in die CPU,s gewandert.
Ergo: Die Platinen sind garnicht mehr richtig voll und haben nochmals mehr als genug Platz.
Und komm mir jetzt nicht mit materialkosten. Solche boards gabs von 25-35€ Neu und unterschieden sich nicht im geringsten vom Preis.
Mal abgesehen davon das man die materialien auch in der APU hat.

- - - Updated - - -

Als es damals technisch machbar war wurden diese in den Chipsatz integriert da man diesen ja sowieso schon hatte und um Flaschenhälse zu minimieren und eine bessere Kühlung und wohl auch Spannungsversorgung zu gewährleisten wurden diese dann in die CPUs verfrachtet.

Von Flaschenhals kann keine rede sein wenn gewisse Grakas auf Mainboards mehr leistung bieten als jede APU.

- - - Updated - - -

Ihr müsst da schon noch etwas unterscheiden, SoCs machen bei mobilen und kleinen Geräten durchaus Sinn.
Diese wurden aber auch nicht primär für Zocker (im Sinne von grafisch anspruchsvollen Titeln) ausgelegt. Und das sind die APUs auch nicht wirklich.

Wofür dann wenn nicht zum Zocken ? Zum Filme in HD gucken ? Dafür hätte es auch eine Onboard graka getan.

Wozu gibts denn wohl noch so viele Laptops mit Onboard Graka auf dem Mainboard ? APU,s sind doppelt gemoppelt.

Ich bin trotzdem nicht so sicher ob das überhaupt aus der Architektur zu holen wäre. Vergleich das mal mit Intel, die feilen auch an der Core i Architektur seit Ende 2008 (Nehalem / Bloomfield) bis Ende 2009 (Lynnfield) herum und sind aktuell mit Haswell bzw. Broadwell auch noch weit von einer 80% Steigerung entfernt. Gut die Latte war vielleicht schon etwas höher da Nehalem ja schon eine gute Leistung hatte, aber 80% sind vielleicht etwas zu optimistisch gesehen.

Ich sprach nicht von einer 80% steigerung im bezug zu Intel CPU,s. Sondern im bezug zur Bulldozer IPC.
Und Skylake hat locker schon diese 80% mehr IPC als Zambezi.

- - - Updated - - -

Wie mr.dude auch schon geschrieben hat ging es da eher um das Thema HSA.

Also AMD hat Milliarden in die APU entwicklung und umsetzung gesteckt, nur für einen nutzen den sie von Onboard GPU,s unterscheidet.. HSA.
Und wie viele leute nutzen HSA ? Haben sich diese Jahre und Millionen für HSA Wirtschaftlich gelohnt ? Gewiss nicht.
 
Zuletzt bearbeitet:
Es ist leider so das AMD oft neue Entwicklungen bringt die die Technik vorranbringen.. aber leider haben sie meist nich wirklich gewinn davon. DAs machen dann nur diejenigen die das später kopieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh