AMD Zen-Prozessoren sollen im Oktober 2016 starten

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie willst du einen FX-8370 auf einem FM2+ Board anständig mit Strom versorgen?
Die Boards sind definitiv nicht darauf ausgelegt. Selbst mit den grössten APUs gibt es teilweise Probleme. An Overclocking kann man da gar nicht denken.

FM2+ ist ideal in ITX für kleine HTPC und BD Untouched / 3D Wiedergabe. Da braucht man aber auch nicht die grösste APU und hat trotzdem genügend Leistung.
 
Wie willst du einen FX-8370 auf einem FM2+ Board anständig mit Strom versorgen?
Die Boards sind definitiv nicht darauf ausgelegt. Selbst mit den grössten APUs gibt es teilweise Probleme. An Overclocking kann man da gar nicht denken.

FM2+ ist ideal in ITX für kleine HTPC und BD Untouched / 3D Wiedergabe. Da braucht man aber auch nicht die grösste APU und hat trotzdem genügend Leistung.


Das kommt aber aufs Board an. Ich habe meinen 860K auf 4,6Ghz laufen und das ohne irgendwelche Probleme. Die Boards für FM2+ sind absolut super und ich würde es auch sehr begrüßen wenn ein Aktueller Prozzessor für diesen Sockel kommen würde.
 
Ich will bis Zen kommt einen FX-8370e in FM2+ Package. Wann ich ihn will? JETZT!
Immer langsam mit den jungen Pferden!
Bis 10 Threads skaliert mein FX-8350 auch mit mehr Leistung, oder Gummipunkte... :fresse:
Moderne Diagnose Software mit Windows 7 64Bit Professional zeigt mir bis zu 31 Threads für eine .exe Datei an.

AM4 wird die grätsche zwischen Leistung und Effizienz! :asthanos:
 
Wenn Zen wirklich erst so spät 2016 kommt, will ich mir nicht vorstellen, dass da nichts neues kommen kann. Am3+ ist als Plattform uralt und Fm2+ kriegt nur 2Moduler...Bis 95W sind sie doch locker ausgelegt. Warum also keinen 8Kerner wie den Fx8320? Von mir aus einen Fx-6xxxx. Aber etwas sollte unbedingt kommen....vor allem auf Hinblick von Directx12. Ein kleines Plattform Refresh und ab geht die Post
 
schade das Carizzo nicht als FM2+ CPU kommt. Ich denke 20% mehr Leistung zum momentanen 860K hätten sie noch reißen können. Hätte ich mir sofort gekauft.
 
Wenn Zen wirklich erst so spät 2016 kommt, will ich mir nicht vorstellen, dass da nichts neues kommen kann. Am3+ ist als Plattform uralt und Fm2+ kriegt nur 2Moduler...Bis 95W sind sie doch locker ausgelegt. Warum also keinen 8Kerner wie den Fx8320? Von mir aus einen Fx-6xxxx. Aber etwas sollte unbedingt kommen....vor allem auf Hinblick von Directx12. Ein kleines Plattform Refresh und ab geht die Post
Zen ist doch eine ganze Europalette, nicht nur eine "Quad Family".
DX12 ist "nice to have" aber Vulkan würde mich mehr interessieren, ein paar Linux Guru´s kenne ich schon! ;)
 
Und die Roadmap ist eh total veraltet und für die Tonne.
Das dort dort Widersprüche sind, hatte ich doch schon geschrieben. So fehlt in der zweiten Spalte von oben zwischen Haswell / Hasswell Refresh und Skylake auch der Broadwell, der ja nun bekanntlich z.B. als i7 5775C doch noch für den S. 1150 erschienen ist.

Interessant an der Roadmap ist die Information, dass Broadwell-E gecancelt wurde.
Genau das widerspricht auch allen bisherigen Angaben, wonach der noch kommen wird. Wenn die 10nm CPUs wirklich auf 2017 verschoben werden, was dann immer noch der Vorgaben von 18 Monaten für ein Tick und nochmal 18 Monaten für ein Tock entsprechen würde, dann wäre es auch ungewöhnlich, wenn der Broadwell-E wegfallen täte, die Enthusiasten und Server CPU kommen ja immer deutlich später als der Mainstream und wäre Broadwell nicht verspätet, hatte es den Haswell-E auch erst gegeben, wenn Braodwell den Haswell im Mainstraam schon komplett abgelöst hätte. Mit wäre es aber recht, wenn man Skylake-E vorziehen würde.

Ich will bis Zen kommt einen FX-8370e in FM2+ Package. Wann ich ihn will? JETZT!
Wollen kann man viel, bekommen tut man es deswegen noch lange nicht. Es reicht auch nicht mehr nur die CPU zu betrachten, man muss schon die ganze Plattform in die Erwägungen mit einbeziehen und da ist der AM3+ eben uralt, die 900er Chips sind umgelabelte 800er die Anfang 2010 erschienen sind. FM2+ ist deutlich aktueller, aber eben nur für CPUs bis 2 Module / 4 Kerne.

Bis 10 Threads skaliert mein FX-8350 auch mit mehr Leistung, oder Gummipunkte..
Klar, eine CPU mit 8 Kernen skaliert bei bis zu 10 Threads :fresse: Auch ein Einkerner skaliert sogar bei bis zu 100 Thread, wenn jeder davon nur 1% der verfügbaren Leistung braucht.

Moderne Diagnose Software mit Windows 7 64Bit Professional zeigt mir bis zu 31 Threads für eine .exe Datei an.
Was willst Du uns damit sagen? Ich kann jederzeit ein Progamm schreiben welches noch mehr viel mehr Thread als nur 31 öffnet und das läuft sogar auf einem Einkerner, was soll das also bitte aussagen?

Schaffe89, demnach würde der mr. dude das auch noch nicht nur umsonst sondern auch kostenlos abziehen. Bei mir ist er jetzt in der Ignoreliste, das ist Zeitverschwendung sich mit dem auseinander zu setzen.
 
Zuletzt bearbeitet:
Es ist Tatsache das Intel im Moment klar vorne liegt. Leider wird dies von vielen Leuten hier genutzt um andere CPU Hersteller einfach nur schlecht zu reden und dies bei jeder Gelegenheit die sich bietet und dies überwiegend aus dem Intel Lager.
Falls nur auch ein Hauch einer Frage nach einer AMD CPU aufkommt, wird derjenige sofort an Intel verwiesen ohne wenn und aber. Muss das sein? Auch wenn gerjenige eine AMD Plattform will?
Ich finde gegenseitige Rücksichtnahme, etwas Toleranz und auch die Gegenseite zu akzeptieren wäre für uns alle von Vorteil. Wenn ich allerdings Beiträge wie von User Holt lese habe ich da meine Zweifel.
Trotzdem man sollte dies Forum nicht durch Grabenkriege kaputt machen, das Forum sollte helfen und unterstützen und nicht zum gegenseitigen Zerfleischen aufrufen.
 
@BlackFlag
Man sollte den Leuten schlicht das empfehlen was für sie am besten ist. Und wenn jemand nach Gaming fragt (das tun ja ~80% aller User in diesem Forum), dann kommt man ganz sicher nicht mit nem Passmark Score, um damit die CPU auszuwählen :hmm:
 
Zuletzt bearbeitet:
@BlackFlag
Man sollte den Leutens chlicht das empfehlen was für sie am besten ist. Und wenn jemand nach Gaming fragt (das tun ja ~80% aller User in diesem Forum), dann kommt man ganz sicher nicht mit nem Passmark Score, um damit die CPU auszuwählen :hmm:

Hast völlig recht, trotzdem passiert das immer mit einem Seitenhieb bestimmter User hier.
 
Klar, eine CPU mit 8 Kernen skaliert bei bis zu 10 Threads :fresse: Auch ein Einkerner skaliert sogar bei bis zu 100 Thread, wenn jeder davon nur 1% der verfügbaren Leistung braucht.

Was willst Du uns damit sagen? Ich kann jederzeit ein Progamm schreiben welches noch mehr viel mehr Thread als nur 31 öffnet und das läuft sogar auf einem Einkerner, was soll das also bitte aussagen?
Naja, die Summe der OS-Threads ist nicht gerade klein: http://abload.de/img/dvdfab9_bd_mp4_fx-959ivx6y.png
Bei 10GByte I/O lässt sich das System noch normal bedienen, während ich hier schreibe... :)

€dit:
Quell Dateigröße: 15GByte
Ergebnis Dateigr.: 5.44GByte
 
Zuletzt bearbeitet:
Bei 10GByte I/O lässt sich das System noch normal bedienen, während ich hier schreibe... :)
Die kerne sind ja auch nicht alle ausgelastet, damit bleibt ja noch genug für den Brower übrig. Und 10GByte I/O sagt nichts aus, 10GB/s sind es nicht und damit ist es egal, wie viele GB bewegt werder / wurden, wenn die Zeit nicht mit angegeben ist.

Powerplay, die Zahlen von AMD sind schon länger mies, aber eine Abspaltung der Grafiksparte wäre nun wo AMD fast schon komplett von CPUs auf APUs umgeschwenkt ist, totaler Blödsinn. Damit hätte man dann nicht nur schwache CPU Kerne, sondern auch keine Zugriff mehr auf die sich noch immer schneller als CPU entwickelnden GPU Technologie. Was das für künftige APUs bedeuten würde, sollte klar und nicht positiv sein. Außerdem muss man wohl davon ausgehen, dass die GPUs derzeit eher die CPUs subventionieren als umgekehrt, auch wenn AMD keine konkreten Zahlen für beide Sparten veröffentlicht, so verkauft AMD seine CPU/APUs doch vor allem im margenarmen Marktsegmenten. So recht kann ich mir das also nicht vorstellen, aber Gerüchte die offenbar vor allem dafür dienen den Aktienkurs zu pushen, wie vor allem über mögliche Übernahmen durch Apple oder Samsung, gibt es bei AMD ja regelmäßig.

Möglich wäre natürlich auch, dass die Abspaltung wirklich als Vorbereitung einer Übernahme der Grafiksparte passieren könnte, bevor man konkretes zu Zen weiß um so den Wert der CPU Sparte auf Basis der Hoffnung auf den Erfolg von Zen aufrecht zu erhalten. Denn soviel sollte klar sein, wenn Zen floppt und AMD bei CPUs weiterhin auf die margenarmen Budgetsegmente beschränkt bleibt in denen AMD schon heute Verluste macht, dürfte es um die Zukunft von AMDs CPUs/APUs schlecht gestellt sein und es wird sich auch kein Käufer für die Sparte finden. Spätestens dann wäre von AMD wohl wirklich nur noch die Grafiksparte etwas wert.

Als Ganzes ist AMD an der Börse nur noch mit 2 Milliarden USD bewertet (wegen als die ausstehenden Bonds von AMD), Intel mit über 152 Milliarden und NVidia mit 11,7 Milliarden, AMDs Grafiksparte wäre alleine wohl mehr wert als AMD heute.
 
Jedes Mal das gleiche hier haltet Euch an einen normalen Umgangston und es sind immer wieder die selben involviert. Lasst es einfach sein sonnst sind News nur noch zum lesen da und nicht mehr zum sachlich Diskutieren.
 
Erstens ist das kein Thread für Empfehlungen. Und es ist auch kein Thread explizit für Gaming. Wann kapiert auch der letzte mal, dass es hier um Zen geht (gehen soll). Es wurde eine pauschale Aussage gemacht. Und die ist eben falsch gewesen, wie klar belegt wurde. Punkt und aus. Da braucht man jetzt nicht versuchen, irgendwelche Ausreden zu suchen. Selbst wenn man es auf Spiele reduziert, war die Behauptung völlig übertrieben.

Wenn man es auf Spiele reduziert, ist ein aktueller i3 20% vor einem FX-6300, um das Thema mal abzuschließen.
Nachzulesen beim CB Leistungsindex oder beim PCGH Leistungsindex.
Man bekommt für 109 Euro einen Intel i3 mit 2x3,7ghz, der FX6300 kostet 100 Euro.
Bei CB liegt ein 2,9ghz Haswell mit 3,3ghz Turbo auf FX-8350 Niveau in Spielen, da kann man sich dann gerne erschließen, wo ein 10% langsamerer FX-6300 gegen einen 3,7ghz i3 liegt.
Eben nicht sehr gut, das P/L ist bei AMD schlechter und selbst OC wirds nicht herausreißen.

Und niemand kann etwas dafür wenn Diskussionen vom Thema Zen auf andere Bereiche von AMD Prozessoren abdriften, das halte ich Themenrelevant.
Und eine pauschale Aussage wurde nicht gemacht, denn wie schon gesagt ging es um Spiele und da hast du leider keine Kompetenz dafür, wie man immer wieder an deinen Falschaussagen sehen kann.
Und wenn du nicht verstehst, dass Passmark nichts mit Games zu tun hat, dann solltest du vielleicht wenn so Fragen auftauschen, einfach nicht mitreden.
 
Zuletzt bearbeitet:

uiuiui

"Wenn Zen nicht floppt"

Wenn Zen Schwächer wird als Skylake (was es 100% werden müsste), muss AMD eben wieder über Preise Arbeiten wie schon beim Phenom und Bulldozer.

AMD wird allein wegen den Fertigungs unterschieden (10nm mit cannonlake ca zeitgleich zum Zen Release), Intel nicht mehr das Wasser Reichen können was Leistung pro Watt angeht.

Aber das ist schon ok um zu überleben.

Ich frage mich aber seit jahren, warum AMD solche Kostenintensiven Entscheidungen getroffen hat.

Ich zähle mal auf.

1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
2. APU,s erforscht haben, wo die bis heute immer noch viel zu wenig einbringen. Die hätten sich den ganzen aufwant sparen können. Es gab die Option für GPU,s auf Mainboards, wozu also Millionen ausgeben um die gpu zu verschieben, wenn man kein Geld hat und sein ganzes geld lieber in die CPU entwicklung stecken sollte ?
3. Das Große Zeitlassen mit Zen. AMD hätte Zen lieber direkt dieses Jahr mit 28nm bringen sollen, selbst wenn das bedeutet das man auf 10% IPC verzichtet.
Einfach weil AMD in der zeit wo sie Zen weiter entwickeln wenigstens mehr verkaufen können als die jetzigen Bulldozer welche seit Vishera (2012) nicht mehr schneller wurden.
 
Werkeln nicht in beiden aktuellen Konsolen AMD APUs? Kann mir nicht vorstellen, dass die Entwicklung für AMD zum Verlustgeschäft geworden ist.
 
Werkeln nicht in beiden aktuellen Konsolen AMD APUs? Kann mir nicht vorstellen, dass die Entwicklung für AMD zum Verlustgeschäft geworden ist.

Hätte man auch mit GPU,s Klassich wie in laptops lösen können.

Somit hätte man sich Millionen von Dollars und Jahren an Arbeitszeit gespart, die sie woanders reinstecken hätten können (CPU).
 
Zuletzt bearbeitet:
Ich zähle mal auf.

1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
2. APU,s erforscht haben, wo die bis heute immer noch viel zu wenig einbringen. Die hätten sich den ganzen aufwant sparen können. Es gab die Option für GPU,s auf Mainboards, wozu also Millionen ausgeben um die gpu zu verschieben, wenn man kein Geld hat und sein ganzes geld lieber in die CPU entwicklung stecken sollte ?
3. Das Große Zeitlassen mit Zen. AMD hätte Zen lieber direkt dieses Jahr mit 28nm bringen sollen, selbst wenn das bedeutet das man auf 10% IPC verzichtet.
Einfach weil AMD in der zeit wo sie Zen weiter entwickeln wenigstens mehr verkaufen können als die jetzigen Bulldozer welche seit Vishera (2012) nicht mehr schneller wurden.

Im Nachgang falsche oder sagen wir ungünstige Entscheidungen aufzuzählen, ist nun nicht unbedingt schwer ;)
Bedenke aber, dass Entscheidungen über den Weg der Produkte oder über Produkte als solches weit vor der eigentlichen Erkenntnis, dass dieses Produkt gut am Markt ankommt oder eben nicht, getroffen werden müssen.
1. -> massiv Geld in die BD Entwicklung dürfte dahingehend logisch sein, weil man die vorherige CPU Architektur ablösen wollte und sich von BD und deren Ablegern, auch im Sinne von CMT etwas versprochen hat, was im Endeffekt aber so am Endkundenmarkt nicht eingetreten ist. Die Entscheidungen pro Bulldozer dürften in Zeiten gefallen sein, wo sich AMD und Intel noch mit der Core/Threadverdopplung besser am Markt plaziert haben. Sprich 2004-2006 rum. Vielleicht sogar noch eher. Wenn das Ding einmal Formen angenommen hat, kannst du es nicht einfach fallen lassen, wenn so viel Arbeit und Geld da rein geflossen ist, wenn man nix anderes in der Hinterhand hat... Und das hatte AMD einfach nicht.
Blöd dabei ist/war allerdings, dass der Markt bei vier-acht Threads im Mainstream Bereich dicht gemacht hat, wo zwischen SingleThread CPUs und Quadcore/Achtthread Prozessoren vorher nur wenige Jahre lagen. Die Chance lag 50:50, dass der Markt hätte weiter danach gegiert. -> aber die Software ist/war einfach noch nicht so weit.
2. -> APUs sind ja nun nicht sooo extrem zu erforschen. Es ist ne Kombi aus CPU und GPU. Anfangs über zwei Chips gelöst. Später mit einem vereinten Chip. Wenn man beides baut, liegt die Kombination dieser Dinge durchaus nahe... Zumal es Absatzmärkte dafür gibt. Siehe Konsolen... Das Problem ist einfach, es gibt technische Limits, die nur durch hohen Aufwand umgangen werden können. Stichwort Speicherbandbreite -> die zaubst du nicht aus der Kalten. Mit HBM könnte das deutlich vorran gehen mit den APUs. Oder wenigstens mit einem Quadchannel SI und hohem Speichertakt in DDR3/DDR4. Letzteres in einer LowBudget Plattform ist aber wieder mit Kosten für den Endkunden verbunden... Und dann hast du das, was du heute auch hast -> die potentiellen Kunden stellen sich die Frage, wozu APU, wenn CPU + dGPU schneller und teils gar günstiger kommen.
-> zumal AMD mit den APUs ja auch ein gewisses Ziel verfolgt. Nämlich die GPU als "Partner" neben der CPU für gewisse Aufgaben ranzuziehen, welche der GPU gut liegen und somit den Speed drastisch erhöhen können. Das geht schon auf, wenn man es genau nimmt. Nur ist auch hier die Software nicht so weit, dies flächendeckend zu nutzen...
3. -> großes Zeitlassen würde ich das nicht nennen... Woher soll denn Zen auf einmal kommen? Wer weis genau, wann die Arbeiten dahingehend angefangen haben? Zen heute zu bringen würde bedeuten, dass Zen auch eben fertig ist... Aktuell schaut das nicht so aus. Es ist ja bei weitem nicht so, dass man einfach mal ein Jahr Entwicklung einkürzt und mit etwas weniger IPC leben kann. Da werden wohl einfach maßgebliche Dinge noch nicht laufen oder noch gar nicht existent sein.
 
Du hast mich zu 1. Falsch verstanden. Ich habe nicht Kritisiert das sie sich für Bulldozer entschieden haben, sondern das ganz Offensichtlich Bulldozer so schnell Fallen gelassen haben.
Ich war noch nie für APU,s genau so wie die meisten hier im Forum. Hätte AMD auf uns gehört, hätte AMD das Geld und die Zeit lieber in Bulldozer weiterentwicklung stecken können.
Dann hätten wir heute wenigstens Ordentliche 4 Moduler in 28nm mit Excavator oder evtl schon 5nfte Gen. AMD hätte mit einem Steamroller + L3 auf AM3+ zb auf jedenfall noch viel Boden Wettmachen können.
Das gleiche in der Serversparte. Das Geld und die Zeit dazu hätten sie gehabt ohne den APU Unsinn. Evtl wäre Excavator dann sogar schon 2013 möglich gewesen. Dann hätten wir letztes jahr Bulldozer Mk5 haben können, dieses jahr MK6, und nächstes Jahr Zen.

- - - Updated - - -

Zumal es Absatzmärkte dafür gibt. Siehe Konsolen...

Dazu hab ich was gesagt.

Hätte man auch mit GPU,s Klassich wie in laptops lösen können.

Somit hätte man sich Millionen von Dollars und Jahren an Arbeitszeit gespart, die sie woanders reinstecken hätten können (CPU).
 
Wieso schnell fallen gelassen?
Offenbar ist aus dem Konzept nicht mehr rauszuholen... Oder habe ich was verpasst?
Die erste Aufbaustufe war nicht sooo viel schlechter als die zweite. Und Steamroller machts nun auch nicht extrem viel besser, wenn man 1:1 vergleicht (also ohne L3 Cache)

Das Problem ist beim BD doch nach wie vor, er geht gut mit der Breite aber eben im Mainstreammarkt ist dies wenig förderlich... So langsam nach und nach ziehen gewisse Anwendungen bzw. Softwarebereiche mit. Aber wir sind lange davon entfernt, dass wir bei flächendeckendem MT Support sind.
Und selbst Games, die es heute oftmals schaffen, mehr Threads zu belegen, machen dies, weil man einfach mehr Berechnungen dran packt. -> das macht die Basis nicht schneller, sondern es bringt einfach mehr Eyecandy berechnet in der gleichen Zeit. -> das nutzt dir absolut gar nix, wenn die Basis zu langsam ist und kommt erst dann zum tragen, wenn du so viele Berechnungen drauf packst, das die Basisleistung nicht mehr entscheidet...

Auch im Serverumfeld ist Bulldozer ein kleines Licht um nicht zu sagen, eigentich nicht vorhanden... Selbst die erste Ausbaustufe bzw. der Refresh auf der zweiten Ausbaustufe, welche sich noch mit den Intel acht Core Sandy-E Modellen konkurierten, waren einfach hinten dran und wenig effizient. Heute, ein paar Jahre später ist die Lücke extremst. P/L geht an Intel, Effizienz geht an Intel, absolute Leistung geht an Intel usw. -> da gibts nichts zu holen... Auch als Excavator wäre wohl deutlich mehr wie 16 Threads nicht drin. Lass es 24 werden, also 50% drauf. Ob das in 32/28nm machbar wäre? Fraglich...

Ich kann mich nur widerholen, selbst im Serverbereich zählt die ST Performance dank virtualisierung häufig auch mit rein. Da wir heute eben länger schon davon weg sind, eine einzige Aufgabe auf xx viele Threads aufzuteilen. Bei den klassischen Einsatzszenarien der Intel E5 Xeons kommt sehr häufig eine Virtualisierungsschicht drauf. -> die CPUs haben genügend Bumms um viele Aufgaben gleichzeitig abzuarbeiten. Um so wichtiger wird es aber dann eben auch, dass diese Aufgaben irgendwann fertig werden... Ne Anfrage an einen Webserber, die auf CPU A) sagen wir 2 Sekunden dauert und bei B) aufgrund mehr Takt und mehr IPC eben nur 1 Sekunde, ist einfach doppelt so schnell berechnet. -> das heist, weniger breite notwendig und somit mehr Luft für weitere Aufgaben...



PS: und zu den Konsolen... Andere Lösungen kann man da sicher nutzen. Die Frage ist aber eher, was wurde seitens der Firmen gewünscht?
Wenn Bedarf nach einer APU da ist, dann kannst du da nicht einfach ne CPU + dGPU abliefern. Damit fällst du aus dem Raster ;)
Zumal die APUs unumstritten auch Vorteile dort zeigen... Der gleichzeitig genutzte (V)RAM bspw.
 

??
Es ist doch alles eine Frage von Aufwand und Nutzen...
Bulldozer hat von Anfang an ein bescheidenes Standbein gehabt. Das fängt bei den Fertigungsprozessen, die dafür offen standen an und geht bis zur ST/MT Problematik.
Bulldozer wäre aus meiner Sicht zum Erfolg geworden, wenn der Mainstream Markt nicht bei vier Cores stehen geblieben wäre, sondern weiter nach oben gestreut hätte. Allerdings muss man Intel diesen Schachzug auch klar anrechnen, den Markt in Mainstream und HighEnd zu splitten um so die Preise für Otto Normalo Bürger gering zu halten und oben richtig in die vollen gehen zu können.

Mit genügend Kapital und genügend Zeit lässt sich da sicher noch ne Menge rausholen. Nur wann soll das sein? AMD baut seit 2012 nix neues mehr mit acht Threads...
Tausche die Steamroller aka Kaveri GPU gegen L3 Cache + die doppelte Modulanzahl und was kommt hinten raus? -> wohl nichts, was im Mainstream Haswell gefährden würde. Aber für AMD bedeutet das, neue Maske, Entwicklung einer neuen Plattform (oder Vergewohlwurzlung von FM2+ dafür) oder eben weiternutzen des alten AM3+ mit der PCIe Anbindung über den Chipsatz anstatt der CPU und kein PCIe 3 sowie weitere fehlende Geschichten. Zählt man das mal weiter zusammen, kommen da viele viele Nachteile bei rum, die hätte AMD beseitigen müssen oder man hätte grundauf eine neue Plattform bringen müssen... Für ein "Modell", was am Markt bescheiden anklang fand, ein hohes Risiko...

Auch war Bulldozer ja nicht völlig für den Po. Zen wird wohl nach diversen Meldungen durchaus ein paar Vorzüge von Bulldozer übernehmen ;)
Auch sehe ich für die Zukunft CMT lange noch nicht vollends abgeschrieben, vielleicht sehen wir das ja auch irgendwann wieder. Wie Intel eben SMT mit dem Core2 augesetzt hat um es danach mit der Core-i Reihe wieder zu nutzen.
 
@FDsonne. Ohne APU,s hätte es FM2+ nie gegeben denke ich mal.
Neue Maske haben die für APU,s gemacht, das hätten die lassen können und den aufwant für einen besseren Bulldozer betreiben können. Hätte garantiert mehr Absatz gefunden.

Klar hätte ein 4M/8C Kaveri mit L3 nicht viel gegen Haswell gerissen, aber es wäre immernoch Okay gewesen im vergleich.
Besonders wenn man sich anschaut wie gut die Vishera bei Arbeitsprogrammen oder BF4 oder Crysis 3 oder Star Citizen laufen.
Ohne APU wären die auch wieder besser zu Takten gewesen bzw hätten höhere Taktraten ohne höheren Stromverbrauch erreicht.

Und die 5% IPC vom Excavator sind wohl nicht das, was Ursprünglich geplant war. Die haben die Arbeit am Excavator klar auf Notebook und Effizienz ausgerichtet, von daher nur 5% mehr IPC.
Hätten die diesen Fokus nicht gehabt, hätten wir wohl wieder mindestens 10% mehr Leistung Pro Takt wie schon bei Vishera und Kaveri erlebt.
Und das halt in anbetracht der 4M/8C wäre dann halt richtig Nice gewesen bei MT Software. Also Quasi ein Vishera mit 20% mehr IPC (Leistung pro Takt) und 500mhz mehr bei gleichem verbrauch wäre locker machbar gewesen wenn sie das Geld und die Zeit nicht an APU,s verschwendet hätten.

2015 Hätten sie dann einen Bulldozer MK5 bringen können, wieder mit 8-10% mehr Leistung Pro Takt, und 2016 dann den Shrink.
Allein beim Vorstellen eines Visheras mit 20% mehr Leistung Pro Takt, würde man einsehen das er genug ST Performance für alle Gängigen Anwendungen und Spiele mitbringen würde.
Von daher wären diese CPU,s sehr viel Attraktiver als die heutige auswahl zwischen FX8 von 2012 oder Überteuerte 2 Moduler mit iGPU mit der man gerade mal Leage of Legends zocken kann, was man durch jede Mainboard onboard GPU genau so erreicht hätte.

- - - Updated - - -

Und ich will anmerken, das die 2 Modul Kaveris 10% langsamer sind, als sie mit L3 wären. Denn ingame sind die Vishera Takt vs Takt gesehen oft gleichschnell, einfach nur wegen dem L3.
Ich schreibe das nur um daran zu errinern, das wir bei den jetzigen Kaveri 2 Modulern, nicht wirklich sehen können wie schnell ein Kaveri mit L3 in form von FX hätte sein können.
 
Zuletzt bearbeitet:
Und die 5% IPC vom Excavator sind wohl nicht das, was Ursprünglich geplant war. Die haben die Arbeit am Excavator klar auf Notebook und Effizienz ausgerichtet, von daher nur 5% mehr IPC.
Hätten die diesen Fokus nicht gehabt, hätten wir wohl wieder mindestens 10% mehr Leistung Pro Takt wie schon bei Vishera und Kaveri erlebt.

Eine hohe IPC und damit eine höhere Effizienz im ~3Ghz Range ist gerade für Notebook und Designs mit vielen Kernen interessant.
 
Eine hohe IPC und damit eine höhere Effizienz im ~3Ghz Range ist gerade für Notebook und Designs mit vielen Kernen interessant.

Schon klar. Aber ich sehe darin kein Problem im bezug zu meiner Argumentation. In meiner Fiktiven Argumentation hätte man den Notebook Excavator durchaus Seperat machen können.
 
Wenn Zen Schwächer wird als Skylake (was es 100% werden müsste), muss AMD eben wieder über Preise Arbeiten wie schon beim Phenom und Bulldozer.
Und damit verdienen sie dann wieder kein Geld, wenn die Preise aufgrund mangelnder Leistung / Effizienz entsprechend niedrig gewählt werden müssen um am Markt bestehen zu können. Wer soll auf Dauer für die Verluste auskommen, die AMD dann wohl weiter einfahren wird? Igrendwo muss das Geld herkommen, wenn man mehr ausgibt als einnimmt und ewig gibt es keine Kredite wenn keine Hoffnung auf eine Besserung der Lage besteht.

Es bleibt sowieso abzuwarten ob AMD genau Geld wird auftreiben können um bis zum Erscheinen von Zen überhaupt bestehen zu können, bei zuletzt 180 Millionen Verlust in einem Quartal (also 3 Monaten) wären das bis Ende 2016 noch mal rund eine Milliarde, wenn die Zahlen nicht besser werden.
1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.

Werkeln nicht in beiden aktuellen Konsolen AMD APUs? Kann mir nicht vorstellen, dass die Entwicklung für AMD zum Verlustgeschäft geworden ist.
Die Chips für die Konsolen haben Geld eingefahren, aber auch das geht ja nicht ewig so weiter, die hängen ja auch an der Technologie der CPUs und GPUs bzw. APUs und wenn die nicht mehr wettbewerbsfähig sind, wird es auch schwer bei künftigen Konsolen zum Zug zu kommen.

Wenn das Ding einmal Formen angenommen hat, kannst du es nicht einfach fallen lassen, wenn so viel Arbeit und Geld da rein geflossen ist, wenn man nix anderes in der Hinterhand hat... Und das hatte AMD einfach nicht.
Das ist richtig, trotzdem bleibt die Frage ob man diese Entwicklung nicht viel früher hätte absehen können und müssen und lieber eine Verzögerung wegen einer größeren Designänderung hätte in Kauf nehmen sollen, zumal BD ja sowieso schon mit mächtig Verspätung auf den Markt gekommen ist. Da hat also entweder die Simulation bzgl. der Performance mit realen Anwendungen komplett daneben gelegen oder die Chefetage hat "Augen zu und durch" entschieden, statt rechtzeitig eine Kehrtwende einzuleiten.

Intel hat sowas damals auch erlebt und lässt in der Folge jetzt immer zwei Thema unabhängig an der nächsten Architektur entwickeln, so dass man eben im Zweifel eine Alternative hat, sollte ein Design daneben gehen. Das sich AMD so einen Aufwand nicht leisten konnte bzw. geleistet hat obwohl sie eine zeitlang frührend waren, ist auch eine Fehlentscheidung der Chefetage. Ohne ein Backup ist das Risiko eben ungleich höher.
aber die Software ist/war einfach noch nicht so weit.
Das war aber doch wohl abzusehen, weil einmal die SW immer schon Jahre hinter der HW Entwicklung herhängt, die ganze SW kann ja nicht über Nacht neu entwickelt werden (wie lange die Programme teilweise laufen, konnte im Zusammenhang mit den Vorbereitungen auf den y2k Bug ja gut sehen) und dann lassen sich einfach nicht alle Algorithmen parallelisieren. Daran wird man auch nie etwas ändern können, wenn immer zwei es Abhängigkeiten von den vorherigen Ergebnissen gibt, dann der nächste Schritt erst gemacht werden, wenn diese vorliegen.

Kettenrechnungen wie sie bei einem MD5 Hash erfolgen, kann man also niemals parallel ausführen, nicht für einen Hash. Was geht ist viele MD5 Hash für unterschiedliche Codes parallel zu erstellen, was diese MD5 Hashtools für Codeknacker auch machen und teisl auch auf GPUs, aber den MD5 einer großen Datei kann immer nur ein Thread errechnen. Daher wird die Singlethreadperformance niemals egal sein, sondern im Alltag immer eine Rolle spielen, gerade bei einem Einplatzrechner.
2. -> APUs sind ja nun nicht sooo extrem zu erforschen. Es ist ne Kombi aus CPU und GPU.
Sorry, aber da liegst Du sehr weit daneben. Selbst die Transistoren sind für CPUs und GPUs anders designt um optimal zu sein und es war ein gewaltiger Aufwand die Designanforderungen von CPUs und GPUs zu vereinen. AMD hat dabei sehr viel Rücksicht auf die Belange einer GPU genommen und offenbar die CPU versucht daran anzupassen. Intel hatten keine GPUs und der Versuche mit den Larrabee-Grafikkarten ist ja auch gescheitert, also dürfte Intel immer noch dabei sein eine möglichst optimale GPUs mit CPU Technologie zu entwickeln, ohne die CPU Performance und Effizienz zu opfern.

Das Ergebnis zeigt sich bis heute, die CPUs von AMD können denen von Intel nicht das Wasser reichen und umgekehrt betreibt Intel bei der GT3e regelrecht eine Materialschlacht um nun endlich mal mit der iGPU an der Grafikleistung der APUs von AMD vorbeizuziehen, nach wie vielen Generationen von iGPUs?!

Wenn man beides baut, liegt die Kombination dieser Dinge durchaus nahe...
Der Grundgedanke hinter den APUs ist ja korrekt, der Aufwand beides zu vereinigen ist trotzdem gewaltig und bis heute bleibt es auf der einen oder anderen Seite ein fauler Kompromiss.
die potentiellen Kunden stellen sich die Frage, wozu APU, wenn CPU + dGPU schneller und teils gar günstiger kommen.
Das ist ja nicht einmal das Problem, sondern das Grundproblem ist das Marktsegment in dem man mit einer APU unterwegs sein kann. Da eine APU niemals die Liestung einer High-End CPU mit der einer High-End GPU verbinden kann, alleine die nötugen Resoursen wie Chipfläche und TDP verbieten das einfach, wird man auch immer nur in dem Marktbereich agieren können, der besonders preissensibel und damit margenschwach ist.

Das war aber vorher absehbar und damit eine bewusste Entscheidung des Managments, gleichzeitig ein Desgin zu wählen welches den Zugang zum margenstarken High-End CPU (und damit auch Server-)Segment verbaut, eine komplett Fehlentscheidung. Da hat man offenbar irgendwelche Prognosen geglaubt nach denen in Zukunft niemand noch mehr Performance brauchen wird und es schon heute keine Gaming Desktops mehr geben dürfte.
-> zumal AMD mit den APUs ja auch ein gewisses Ziel verfolgt. Nämlich die GPU als "Partner" neben der CPU für gewisse Aufgaben ranzuziehen, welche der GPU gut liegen und somit den Speed drastisch erhöhen können. Das geht schon auf, wenn man es genau nimmt. Nur ist auch hier die Software nicht so weit, dies flächendeckend zu nutzen...
Das ist richtig und das Konzept an sich auch genial, denn bei separaten Grakas lohnt sich die Auslagerung wegen der Ziet für die Kommunikation und Datentransfers braucht, nur wenn die Aufgabe umfassend genug ist, bei einer APU lohnt es auch bei kleineren Dingen. Nur hängt die SW eben auch hinterher, weil auch die Umsetzung und SW-Unterstützung durch AMD hinterher hängt. Eben ein Fall von "zu wenig, zu spät", das gab es ja schon öfter in der Geschichte bei genialen Erfindungen, die eingentlich das Potential hatten um das Blatt wenden können.

3. -> großes Zeitlassen würde ich das nicht nennen... Woher soll denn Zen auf einmal kommen?
So ist es, aber es gibt eben wohl zwei Voerwürfe die sich immer halten werden:
1.) Die Hersteller haben schon die übernächste Generation fertig entwickelt in der Schublade liegen, woll sie aber nicht rausbringen um uns schrittweise immer noch im Grunde schon alten Mist anzudrehen. Wäre da was dran, wenn nicht wann dann würde AMD wohl Zen bringen? Ob die Firma bis Ende 2016 noch existiert, ist bei den Geschäftszahlen nicht als gesichert anzunehmen.
2.) Die Hersteller bringen immer unausgereifte Technik und machen die Kunden zu Betatestern. Eigentlich das glatte Gegenteil der ersten Behauptung, aber das hält manche nicht davon ab je nach Situation beides zu behaupten. Sicher hat nicht jeder Hersteller eine gleich gut funktionierende QC, aber da jedes kleinere und erst recht größere Problem auch immer Kosten und vor allem einen Imageschaden bedeuten kann, versuchen die Hersteller schon nach Kräften dieses zu vermeiden. Nur ist die Komplexität der System bei den Kunden gerade bei PCs extrem groß, es gibt ja eine fast unendliche Anzahl an Kombinationen auf HW und SW (OS, Treiber, Programme, Einstellungen), dass diese niemals mit vertretbarem Aufwand in einer überschaubaren Zeit auch nur halbwegs getestet werden können. Dies zwangsläufig mangelhafte Testabdeckung muss also dazu führen, dass Fehler niemals ausgeschlossen sein können und in komplexer HW oder SW gibt es immer auch unzählige potentielle Fehlerquellen.
Es ist ja bei weitem nicht so, dass man einfach mal ein Jahr Entwicklung einkürzt und mit etwas weniger IPC leben kann.
So ist es, zumal es auch unmöglich ist Prototypen zu erstellen, solange der Fertigungsprozess noch nicht so weit ist. Intel hat seine Tick-Tock Strategie ja auch nicht wegen des lustigen Namens eingeführt, sondern weil es viel einfacher ist eine neue Architektur für einen bekannten Fertigungsprozess zu entwickeln als für einen neuen und es ist auch einfach einen neuen Fertigungsprozess mit einer bekannten Architektur zu beginnen. Den Luxus hat AMD auch nicht, womit das Risiko steigt dort nicht das optimale Ergebnis zu bekommen oder Verzögerungen zu erleben.

Dann hätten wir letztes jahr Bulldozer Mk5 haben können, dieses jahr MK6, und nächstes Jahr Zen.
Das alles sehr viel Wunschdenken. Gerade AMD mit seinen begrenzten Resourcen wird sich lange überlegt haben, was besser ist: Bulldozer weiter zu entwickeln oder neu zu starten. Die Entscheidung hängt dabei vor allem von dem Potential ab, welches man der jeweiligen Variante zugesteht und dem Aufwand dafür. Da der Aufwand für jede Steiterung bei einer bekannten Architektur auch mit jedem Schritt steigt, ist irgendwann auch ein Neuanfang unumgänglich.

Bulldozer wäre aus meiner Sicht zum Erfolg geworden, wenn der Mainstream Markt nicht bei vier Cores stehen geblieben wäre, sondern weiter nach oben gestreut hätte.
Da SW nicht beliebig parallelisiert werden kan, wäre die schwache Singlethreadperformance immer ein Hemmschuh geblieben.
Allerdings muss man Intel diesen Schachzug auch klar anrechnen, den Markt in Mainstream und HighEnd zu splitten um so die Preise für Otto Normalo Bürger gering zu halten und oben richtig in die vollen gehen zu können.
Das hat AMD aber nicht anders gemacht, auch dort ist der AM3+ zum High-End Sockel geworden als man ihm die FM Sockel zur Seite gestellt hat. Der Unterschied ist allerdings, dass man bei Intel die S. 115x eher als Nachfolger des alten Einheitssockels 775 ansehen kann und die Enthusisaten einen neue Sockel bekommen haben, während man bei AMD dem AM3+ die einfacheren CPUs entzogen und die neuen FM schon von Anfang an darunter positioniert hat. Dazu kommt, dass der AM3+ nie wirklich gepflegt wurde und selbst die 900er Chipsätze nur 800er Chips mit neuen Labels sind.

Die Chipsätze sind auch noch ein weiteres Problem, denn seid man die Drittanbieter aus dem Markt verdrängt hat, muss man zu jeder neuen CPU entweder neue Chipsätze bauen oder sich den Gegebenheiten der Chipssätze anpassen und damit auch mit deren Limitierungen leben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh