Neue Engineering-Samples der AMD Zen-Prozessoren arbeiten mit deutlich mehr Takt

Da wird Tzk wohl recht behalten, denn erwartet wird ein ZEN, der mit Skylake & Nachfolger Schlitten fährt, aber für maximal 200€ zu haben sein wird.
Ich glaube die wenigsten haben solch eine Erwartungshaltung. Die dürften dann aber in der Tat enttäuscht werden. Die meisten rechnen wohl eher mit mindestens Haswell IPC und mindestens 3,5 GHz Max Turbo für den 8-Kern Zen. Wer mal nachrechnet wird feststellen, dass das nicht reicht um die Top Skylakes oder Kaby Lakes bei einer Auslastung von maximal 4 Kernen (8 Threads) zu erreichen oder gar mit ihnen "Schlitten zu fahren". ABER, Summit Ridge wird es dafür mit bis zu 8 Kernen und 16 Threads geben. Und solange man nicht 1000 Euro oder mehr dafür bezahlen muss, so wie bei Intel, dürfte das für viele trotzdem interessant werden. Zumal eine TDP von 95W keine aussergewöhnliche Kühlung erfordern sollte und die 8-Kern Intels auch nicht mit so hohen Taktraten laufen wie ihre kleinen 4-Kern Geschwister.


Damals bei Bulldozer waren die Infos vorab ähnlich.
Nicht wirklich. Im Vorfeld von Bulldozer gab es lange keine konkreten Architekturdetails. Es gab nur Spekulationen, zB anhand von Patenten wie von Dresdenboy. Und es gab auch keine konkreten offiziellen Vorabbenches wie bei Blender. Es gab weniger konkrete Performanceankündigungen, wie die +40% singlethreaded IPC gegenüber Excavator. Usw. Es war einfach eine andere Informationslage.


1. Warum hat der 4-Kerner überhaupt einen geringeren Takt? Das ist mehr als unüblich
2. Warum hat der 4-Kerner trotz halber Anzahl Kerne und geringerem Takt deutlich mehr als die Hälfte der TDP?
1. Nicht unbedingt. Der FX4 oder FX6 hatte beim Bulldozer Launch auch weniger Takt als der FX8. Ist bei Intel auch nicht viel anders. 2-Kern Celerons, Pentiums oder i3 haben meist auch weniger Takt als die 4-Kern i5 bzw i7. Bei den >4-Kern i7 schaut es etwas anders aus, aber das ist halt auch eine andere Plattform.
2. Die Kerne machen nur einen Teil der TDP aus. Uncore braucht ja auch noch einiges. Aber da es eh nur Samples sind, müssen das keine finalen Taktraten sein. Und inwiefern die TDP ausgereizt wird, können auch nur Tests zeigen.


Selten so unwissend getätigte Aussagen Über Bulldozer gehört wie deine im thread
Ist nicht nur in diesem Thread so. ;) Mal davon abgesehen war die offizielle Aussage immer, dass ein Bulldozer Modul 80% der Performance von zwei Einzelkernen erreicht. Wer rechnen kann, kommt da auf 160% der Performance gegenüber einem Einzelkern, nicht 180%. Diese Skalierung ist aber immer noch deutlich besser als zB bei Intels HTT, die nur auf etwa 120% damals kamen (ist seit Haswells verbreitertem Backend leicht gestiegen). Bulldozers Problem war also keineswegs die Multithreadedperfomance. Ganz im Gegenteil, genau das hat Bulldozer öfters noch ganz gut aussehen lassen. Wie man da was anderes behaupten kann, entzieht sich jeglicher Logik.

Wie auch immer, man darf bei den 4-Kern Zens die TDP nicht vergessen. Die könnten eben nur bis maximal 65W gehen. Da gibts bei Skylake auch keine extremen Taktraten, i5 bis 3,3/3,9 GHz, i7 bis 3,4/4 GHz. Und der i7 geht auch erst ab 300 Euro los, ist also kein Schnäppchen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaube die wenigsten haben solch eine Erwartungshaltung. Die dürften dann aber in der Tat enttäuscht werden. Die meisten rechnen wohl eher mit mindestens Haswell IPC und mindestens 3,5 GHz Max Turbo für den 8-Kern Zen. Wer mal nachrechnet wird feststellen, dass das nicht reicht um die Top Skylakes oder Kaby Lakes bei einer Auslastung von maximal 4 Kernen (8 Threads) zu erreichen oder gar mit ihnen "Schlitten zu fahren".

Bin mal gespannt, wie es AMD gelingen wird, die von Intel ja im Moment noch klar getrennten Märkte/Plattformen S1151 und S2011-3 unter einen Hut zu bringen...
Ein acht Kern Prozessor, der mit halber Last nicht ggü. einem 6700k anstinken könnte, ist ja verschmerzbar, wenn es für die Leute, die sowas wollen eine Alternative gibt. Das dürfte mit Kaby Lake noch spannender werden, wenn das Dingens mit 4,5GHz kommt.
Die S2011er Intels sind ja in ST auch hinter Skylake... Interessiert dort allerdings nur die wenigsten, weil man sich den Plattform doch explizit für MT und die anderen Vorzüge ausgesucht hat.

Im Moment sind ja die Infos bzgl. AM4 noch nicht 100% fix?? Bspw. stelle ich es mir nur schwer vor, dass AMD ebenso 128GB Speicher freigibt für AM4 oder 40 PCIe Lanes in 3.0 anbietet, wenn die Boards auch für die kleinsten Modelle her halten müssen.
 
Ich frag mich, warum sich hier Leute einerseits genötigt fühlen, sich für Ihre Hardware zu rechtfertigen oder aber andere versuchen, den Gegenüber zu missionieren? Entweder ich suche rat und lasse mich beraten. Oder ich kaufe mir das, was mir gefällt. Welche Beweggründe zu welcher Entscheidung führen, ist doch dabei jedem einzelnen überlassen.

Wenn hier selbst die Moderatoren mitmischen (müssen) und sich verleiten lassen, vom Thema abzudriften, läuft doch irgendwas schief.

Im übrigen Finde ich die Zitierweise teilweise unter aller Sau (Stichwort "AMDHasser") und die ganzen Fanboysticheleien sollten mal dringend etwas härter sanktioniert werden, und zwar auf beiden Seiten! Egal ob offensichtlich oder subtil. Den diese führen nur weiter zur Eskalation. Als "Außenstehender" merkt man ganz schnell, wer welche Brille auf hat. Bei einigen wird es hier geduldet, bei anderen weniger.
 
Zuletzt bearbeitet:
Man muss sich dann aber auch die Frage gefallen lassen, ob nicht der Fokus des Produktes dann den Markt verfehlt hat?

Hat er, aber sowas von Komplett. Zumindest was die Spieleleistung angeht.


Denn der Umstand ist/war doch für JEDEN offensichtlich. Spiele zu Release vom ersten Bulldozer haben nicht viel von MT gehalten. Das war keine Weltneuheit. Schwierig wird das ganze im Zusammenhang ja noch, dass der alte Phenom II damals mit mehr pro Takt Leistung ggf. hätte das bessere Produkt sein können, wenn man diesen Modelle überarbeitet hätte und anstatt auf BD zu setzen, diese weiter entwickelt hätte. Shrink + Überarbeitung und höhere Taktraten...

AMD hat eben zu sehr auf die Zukunft spekuliert und war bestrebt, etwas Neues zu bringen, besser als Intels SMT, aber ohne etwas zu kopieren und eventuell Lizenzgebühren tragen zu müssen

Das wird auch am inneren Aufbau ein Stück weit ersichtlich. Wenn da pro AMD Modul 2x2 ALUs stehen und Intel in Form der Nehalem und später Sandy CPUs 1x3 ALUs liefert, mit Haswell dann sogar 1x4 ALUs wird klar, dass der Bulldozer dort NICHT punkten kann. CMT als Technik ist dabei ja nichtmal das Problem, genau genommen eigentlich sogar gut im Ansatz. Nur interessiert den Markt der beste Ansatz nicht, wenn die Umsetzung krankt.

Dem kann man nur zustimmen


Die Frage ist allerdings, hätte AMD BD nicht trotzdem so gebraucht? Selbst wenn wir hätten Excavator als vierten Anlauf deutlich eher und im Desktopmarkt bis acht Threads gehabt, es hätte nur bedingt was geändert.
Die Designentscheidung seitens AMD BD mit 2x2 ALUs + shared FPU zu bringen ist aus meiner Sicht nicht abhängig von Geldern für Forschung und Entwicklung.
Es wirkt im Nachgang einfach eher danach, als hat AMD die Softwareskalierung und den Trend überschätzt. Es ging sehr sehr zügig von Einem auf Zwei auf Vier Threads. Das waren keine zwei Jahre. Selbst wenn man native Quadcores ranzieht, war das nicht sooo viel Zeit. BD kam ja deutlich später. Und es wirkt halt einfach so, dass AMD habe gedacht, der Trend geht weiter in die Breite. Geht er ja mittlerweile auch wieder langsam. Aber eben ist heute 2016, bald 2017 und nicht 2011 ;)

Um es mit deinen Worten zu sagen: zweifelsfrei hätten sie ihn gebracht. Warum habe ich im Grunde weiter oben ausgeführt. Das ist Intel auch nicht anzurechnen. Was man Intel aber ans Bein nageln kann ist die Tatsache, dass es bei AMD schon geldmäßig nicht für einen Plan B gereicht hat. So blieb ihnen nur übrig zu verbessern und abzuwarten. Und das AMD mit ihrem CMT zumindest ein stück ihrer Zeit voraus waren, und nach wie vor sind, das ist uns Beiden wohl recht klar.

Aber mal nebenbei gefragt, wird das hier jetzt nicht zu sehr OT? Das Thema war doch eher die neuen ES von ZEN?
 
Dass AMD den Bulldozer entwickelt hat, daran trägt wohl nur AMD die Schuld.
Das war ja auch die richtige Entscheidung.
AMD wusste über den Fertigungsnachteil bescheid, da waren Module mit kleinen Integerkernen die logische Reaktion darauf.
Der Takt war halt etwas höher geplant, aber auch dafür war der Prozess nicht zu gebrauchen.
Vishera schaut im Vergleich zu Zambezi ja schon recht gut aus, eigentlich hätte Zambezi schon den Takt/Verbrauch erreichen sollen!

Hoffentlich wandert CMT auch irgendwann in Zen!


Nicht wirklich. Im Vorfeld von Bulldozer gab es lange keine konkreten Architekturdetails. Es gab nur Spekulationen, zB anhand von Patenten wie von Dresdenboy. Und es gab auch keine konkreten offiziellen Vorabbenches wie bei Blender. Es gab weniger konkrete Performanceankündigungen, wie die +40% singlethreaded IPC gegenüber Excavator. Usw. Es war einfach eine andere Informationslage.
Aufklärung bringt da nichts, manche Leute arbeiten wenn es um AMD geht gerne mit Lügen.
Da wird schnell mal behauptet AMD hätte bei Bulldozer viel versprochen, obwohl das alles nur inoffizielle Infos waren.
 
Zitate sind Zitate weil sie 1:1 (unverfälscht) weitergegeben werden. Wer das nicht tut darf sich nicht wundern das es einen auf den Deckel gibt.
Völlig egal was oder warum falsch zitiert wurde. Es sollen wegen falscher Zitate schon ganze Doktortitel aberkannt worden sein...

Jetzt stell mich nicht so dar als hätte ich Zitate verfälscht. Habe nur seinen namen umgeändert.
 
AMD hat eben zu sehr auf die Zukunft spekuliert und war bestrebt, etwas Neues zu bringen, besser als Intels SMT, aber ohne etwas zu kopieren und eventuell Lizenzgebühren tragen zu müssen
Glaub Lizenzgebühren hätten sie garnich gehabt, es gibt ja schon seid ewigkeiten das Technologieabkommen zwischen Intel und AMD.
Allerdings ist man in der Regel halt im Nachteil wenn man den konkurenten zeitverzögert nur nachmacht. Im Moment ist es für AMD aber natürlich wichtiger halbwegs nah dran zu kommen.

Hoffentlich wandert CMT auch irgendwann in Zen!
Glaub beim heutigen Fertigungsverfahren würde man nicht mehr so viel Fläche durch solche Halbkerne damit sparen, dass sich das lohnen würde.
 
Zuletzt bearbeitet:
Also SO haben sie es nicht gesagt!
Stimmt, sie haben es als "... unmitigated failure. We know it" bezeichnet. Also als Totalversagen.
(siehe auch: News "Bulldozer war ein totaler Fehlschlag - und wir wissen das" und Hardware- und Nachrichten-Links des 30. Mai 2013 | 3DCenter.org)
Und komm mir nicht mit "der Typ ist nur der Serververantwortliche und nicht CEO", denn gerade in Multithreaded Umgebungen sollte BD glänzen und
schaffte es innerhalb kürzester Zeit AMDs Marktanteil auf unter 5% zu drücken. :lol:
 
Na, wenn du lachen kannst. Haben dich die 10% Preisanhebung von Intel NACH dem Bekanntwerden des BD-Fails auch so erheitert?
 
Man sollte halt verstehen was da steht.
Die µArch selbst haben sie nicht als Fehlschlag bezeichnet!

Und du glaubst wenn sie damals schon Zen gehabt hätten, hätte das die rückständige Fertigung ausgeglichen?
Glaubst du doch nicht echt?


Na, wenn du lachen kannst. Haben dich die 10% Preisanhebung von Intel NACH dem Bekanntwerden des BD-Fails auch so erheitert?
Natürlich erheitert das diese Drohnen, die checken doch nicht warum die Preise steigen.

Solche Leute glauben ein Monopol wäre für und Konumenten von Vorteil...
 
Zuletzt bearbeitet:
Hat er, aber sowas von Komplett. Zumindest was die Spieleleistung angeht.
Hat er eigentlich nicht, denn Bulldozer wurde in erster Linie für Server entwickelt, nicht für Spiele. Das Problem ist vielmehr, einige Entscheidungsträger konnten offenbar nicht weit genug denken und dass diese Architektur auch im Client Markt konkurrenzfähig sein muss. Der singlethreaded Durchsatz hätte also mindestens genauso zulegen müssen wie der multithreaded Durchsatz. Und das nicht nur mit neueren ISA Erweiterungen (AVX, FMA, XOP), sondern auch bei legacy Code. MMn typischer Fall von "Zielsetzung unterschätzt". Ich denke nach wie vor der Ansatz von Bulldozer war gut, nur halt nicht richtig zu Ende gedacht. Dazu kam die Verschiebung von 2009 (Sandtiger), also dem ursprünglich angedachten 45nm Nehalem Gegner, auf 2011 (Orochi), wo man sich dann mit dem 32nm Sandy Bridge messen musste. Vielleicht haben einige einfach nicht mit den signifikanten Fortschritten bei Intel über 2-3 Jahre nach dem Core2 gerechnet.
 
Zuletzt bearbeitet:
Glaub beim heutigen Fertigungsverfahren würde man nicht mehr so viel Fläche durch solche Halbkerne damit sparen, dass sich das lohnen würde.

Absolut nicht, relativ schon... In Prozent gesehen sparst du an Fläche egal in welchem Prozess wohl ziemlich gleich viel... Im Moment hat es Zen zumindest unter dem Flächenargument eher nicht nötig. Viel eher wird möglicherweise SMT notwendig sein um die Einheiten überhaupt ausgelastet zu bekommen. Ist ja bei Intel auch nicht anders. Die neueren Modelle profitieren ja nicht grundlos von SMT, vor allem die i3 Teile mit hoher Belastung legen da viel zu. Das erhöht im Endeffekt auch die Flächeneffizienz.

Ich glaube im Moment (und auf absehbare Zeit) auch nicht an eine CMT + SMT Kombination. Das wären 32 Threads bei acht Cores. Oder immernoch 16, wenn man von vier Cores ausgeht. Das "Bulldozer" Problem dürfte vorprogrammiert sein, wenn die Software wieder die Threads nicht bedienen kann. Und abseits von generischen MT Lasten ist das nur äußerst selten der Fall...

Na, wenn du lachen kannst. Haben dich die 10% Preisanhebung von Intel NACH dem Bekanntwerden des BD-Fails auch so erheitert?

Ist das überhaupt bestätigt eine Preisanhebung seitens des Herstellers? Ich habe selten Preisanhebnungen im CPU oder GPU Bereich gesehen. Aber Händler, die Lockangebote bringen sind eher die Regel als die Ausnahme. Genau so wie Schwankungen aufgrund von Finanzmärkten deutlich sein können. Siehe Anfang letzten Jahres... Da waren 20% und mehr Anstieg zu verzeichnen.

Und du glaubst wenn sie damals schon Zen gehabt hätten, hätte das die rückständige Fertigung ausgeglichen?
Glaubst du doch nicht echt?

Gar nicht... Das sehe ich auch als größtes Gegenargument für/über die Aussage, dass AMD es mit mehr Geld hätte anders/besser gemacht. Massiv bessere Fertigung hätten sie sich nicht mal eben so kaufen können. Vor allem nicht von heute auf morgen. Die 65nm bei GloFo waren ja auch nicht die Offenbarung. Die 45nm ggü. den 45nm bei Intel gingen hingegen. Bei 32nm wars eher wieder recht mau. Es ist/war ja nicht nur die Fertigung ggü. Intels Prozess. Sondern auch der zeitliche Faktor... Wenn AMD 32nm Bulldozer Gen. 1 bringt und Intel 22nm FinFet Ivy unmittelbar später, ist da mit Geld nicht viel zu holen. (aus meiner Sicht)
 
Mit mehr Geld hätten sie die GPUs halt nicht so lange vernachlässigen müßen.
Das war auch eine Fehlentscheidung.

Aber mit den ganzen Problemen von GF/TSMC konnte AMD halt nicht mehr liefern.
AMD ist als Fabless-Hersteller auf die Auftragsfertiger angewiesen, wenn die nichts auf die Reihe bekommen hat AMD ein Problem.
Wenn GF die SOI-Prozesse (14HP/7HP) von IBM nicht zum laufen bringt, hat AMD wegen dem WSA wieder ein Problem.
Zu TSMC ausweichen kann man sich dann für die CPUs/APUs nicht leisten, weil man trotzdem am GF zahlen muß.
Das vergessen viele halt.

Krishna-SOC (4C/Katze) wegen zu spätem 28nm Bulk gestrichen, ES und finales Produkt war vorhanden!
Komodo (5M/10C) wegen zu spätem 32nm SOI gestrichen.
SR-CPU (8m/16C), fehlendes 28nm SOI, deswegen gestrichen.
XV-CPU (8M/16C) wurde gestrichen, weil 28nm SOI von GF gestrichen wurd.
XV-Shrink (16m/32C) wegen fehlendem 20/22nm gestrichen.
Nolan-SOC wegen fehlendem 20nm Bulk gestrichen
Amur-SOC wegen fehlendem 20nm Bulk gestrichen
Ichtas-SOC (4M/8C) gestrichen
...
 
Mich interessiert die Taktfrequenz nicht, sondern die Leistung.
 
Nö, denn wie die Leistung zustandekommt ist doch völlig egal. Ob es nun 1THz oder 1kHz sind spielt doch überhaupt keine Rolle

Gesendet von meinem A0001 mit der Hardwareluxx App
 
Ist nicht nur in diesem Thread so. ;) Mal davon abgesehen war die offizielle Aussage immer, dass ein Bulldozer Modul 80% der Performance von zwei Einzelkernen erreicht.

Nein diese offizielle Darstellung war höchst umstritten.

https://www.computerbase.de/2011-10/test-amd-bulldozer/6/#abschnitt_module_statt_kerne

" AMD spricht davon, dass ein Modul in der Regel 180 Prozent der Leistung eines einzelnen Kerns bereitstellen kann, gut 20 Prozent der Leistung sollen laut Hersteller durch die geteilten Einheiten verloren gehen."

Es gab sogar AMD Angestellte die von 90% eines Dualcores sprachen.

Im Rahmen der ISSCC gab AMDs Michael Golden bekannt, dass ein Bulldozer-Modul 90 Prozent der Leistung eines fiktiven Bulldozer-Dualcores erreichen würde. Bisher nannte AMDs John Fruehe in den Bulldozer Blogs nur 80 Prozent."]Im Rahmen der ISSCC gab AMDs Michael Golden bekannt, dass ein Bulldozer-Modul 90 Prozent der Leistung eines fiktiven Bulldozer-Dualcores erreichen würde. Bisher nannte AMDs John Fruehe in den Bulldozer Blogs nur 80 Prozent.

Bulldozer: Ein Modul ist schneller als zwei aktuelle K10-Kerne

Fehlt nur noch die Behauptung man könne nicht rechnen um sich sich als besonders überlegen, darzustellen.:drool:

Diese Skalierung ist aber immer noch deutlich besser als zB bei Intels HTT, die nur auf etwa 120% damals kamen

Der Vergleich ist absolut unsinnig.

Bulldozers Problem war also keineswegs die Multithreadedperfomance.

Na eben schon, hätte man die Ressourcen wie die FPU nicht zwischen den CU´s geteilt, dann wäre die Multitreaded-Skalierung bei AVX Operationen, sowie FPU lastifgen workloads viel besser gewesen, so landete man eben nur bei integerlastigen workloads bei einer einigermaßen guten Skalierung.
Die Probleme betrafen die Singlethreadperformance und die Multithreadperformance.

Ganz im Gegenteil, genau das hat Bulldozer öfters noch ganz gut aussehen lassen. Wie man da was anderes behaupten kann, entzieht sich jeglicher Logik.

Unsinn, die schwache Multithreadingperformance durch die geteilten Ressourcen war besonders der Oberkiller, deswegen riss man bei Servern noch weniger als im Desktopmarkt. Die Multithreadingperformance war schrottig, man erreichte nicht mal ne bessere Leistung als Magnycours, trotz 33% mehr "Kerne".

- - - Updated - - -

Man sollte halt verstehen was da steht.

Bulldozer ist einerseits die µArchitektur sowie auch die erste Ausbaustufe. Und da die kommenden Ausbaustufen nichts wirklich verbesserten sondern der Rückstand auf Intel zunahm, muss man glaube ich nicht groß darüber nachdenken was wohl gemeint war.

Die µArch selbst haben sie nicht als Fehlschlag bezeichnet!

Genau die werden se gemeint haben.

- - - Updated - - -

Hat er eigentlich nicht, denn Bulldozer wurde in erster Linie für Server entwickelt, nicht für Spiele.

Jede High End Prozessorarchitektur wird einerseits für Server und andererseits für den Desktop entwickelt. Und die Spieleleistung entsprach ja wohl genau der Leistung von Anwendungen, da gab es nicht den kleinsten Unterschied.

Das Problem ist vielmehr, einige Entscheidungsträger konnten offenbar nicht weit genug denken und dass diese Architektur auch im Client Markt konkurrenzfähig sein muss.

Genau dort war sie konkurrenzfähiger als im Servermarkt. Im Servermarkt stürzten die Anteile auf quasi nicht existent ab. Bulldozer ist weder ne Serverarchitektur noch eine Client Architektur, sie ist einfach schlecht mit viel zu langsamen Caches und einer unterirdischen Sprungvorhersage das ist alles.

- - - Updated - - -

Aber mit den ganzen Problemen von GF/TSMC konnte AMD halt nicht mehr liefern.

Da waren sie schön selbst drann schuld mit ihrem Design. Der Prozess reichte sogar um ein 5ghz Model zu liefern.
Die Schuldzuweisungen an GF nicht einfach unsinnig. Wäre der Prozess schlecht gewesen, hätte man Jahre danach ja wohl bessere und effizienter CPU´s in 32nm SOI liefern können, wurde aber nie etwas draus, heißt der Prozess lief von Anfang an akzeptabel.
 
Zuletzt bearbeitet:
Alter, wie ihr euch den BD-Müll schönredet ist nicht mehr normal...
Wer soeinen Schwachsinn verzapft der wird voin mir nicht ernst genommen.
Hättest du etwas mehr Ahnung, würdest du soetwas aber eh nicht schreiben!

Man kann nicht einfach alle Probleme auf die µArch schieben, wer das tut ist nunmal ziemlich ahnungslos.
Eigentlich rede ich auch nichts schön, ich argumentiere nur sachlich, aber eben ohne Unsinn so verbreiten.
Wenn du der Meinugn bist ich wqürde etwas schön redne, dann weis ich eh gleich wie wenig Fachwissen du hast:O
32nm SOI war einfach Müll, dafür kann Bulldozer aber nichts...


Für etwas angeblich total gefloptes macht Carrizo/Bristol Ridge aber eine ziemlich gute Figur, aber wahrscheinlich ist das nicht Bulldozer...

War dann eignetlich K10 auch ein Flop?
Weil in 32nm SOI gab es auch APUs mit K10-Kernen, da war die IPC zwar höher als bei den APUs mit Piledriver, aber K10 in 32nm hat weniger Takt erreicht.
Die µArch mit der niedrigeren IPC war in 32nm SOI schneller und effizienter als K10!
 
Zuletzt bearbeitet:
Wer noch nicht weiß oder sich nicht interresiert hat, bedeutet die Zen die Wiedergeburt, oder die Buddhisten symbolisieren es mit einem geschlossen Kreis (Eizelle). Ich glaub sowieso, dass die meisten Globalplayer im selben Team sind und so ein Gigant, wie AMD wird nicht so leicht vom Markt verschwinden. Wenn man die Logos von Nvidia (Auge), Intel (Auge) und AMD (Winkel und Zirkel) anschaut, dann wisst ihr welchen Team ich meine;)

Alleine wenn sie schon unterbewusst die Wiedergeburt suggerieren, dürfen sie nicht verkacken.
 
Wer soeinen Schwachsinn verzapft der wird voin mir nicht ernst genommen.
Hättest du etwas mehr Ahnung, würdest du soetwas aber eh nicht schreiben!

Man kann nicht einfach alle Probleme auf die µArch schieben, wer das tut ist nunmal ziemlich ahnungslos.
Eigentlich rede ich auch nichts schön, ich argumentiere nur sachlich, aber eben ohne Unsinn so verbreiten.
Wenn du der Meinugn bist ich wqürde etwas schön redne, dann weis ich eh gleich wie wenig Fachwissen du hast:O
32nm SOI war einfach Müll, dafür kann Bulldozer aber nichts...


Für etwas angeblich total gefloptes macht Carrizo/Bristol Ridge aber eine ziemlich gute Figur, aber wahrscheinlich ist das nicht Bulldozer...

War dann eignetlich K10 auch ein Flop?
Weil in 32nm SOI gab es auch APUs mit K10-Kernen, da war die IPC zwar höher als bei den APUs mit Piledriver, aber K10 in 32nm hat weniger Takt erreicht.
Die µArch mit der niedrigeren IPC war in 32nm SOI schneller und effizienter als K10!
Warum also hat AMD die BD-Architektur fallen gelassen und öffentlich als "unmitigated failure" bezeichnet? Ist doch total toll wenn man so liest was du da schreibst....
 
Die BD Architektur kam zum falschen Zeitpunkt und mit relativ schlechter Fertigung.
Deswegen ist sie halt nicht grundsätzlich Müll. Vorallem hat AMD ja eben die Prinzipien nicht gänzlich aufgegeben wie man an Carizzo und Bristol Ridge sieht.
Zen ist dennoch ein Neuanfang da man sich offenbar mit der anderen Architektur in eine Sackgasse manovriert wo man nicht mehr weiter entwickeln kann (jedenfalls nicht genug um aufzuholen).
 
Zuletzt bearbeitet:
Wer so einen Schwachsinn verzapft der wird von mir nicht ernst genommen.
Hättest du etwas mehr Ahnung, würdest du so etwas aber eh nicht schreiben!

Immer wieder die gleichen Prozesse bei dir. Dem anderen vorwerfen er habe keine Ahnung und er wird nicht ernst genommen.
Immer 1:1 dasselbe.

Man kann nicht einfach alle Probleme auf die µArch schieben, wer das tut ist nunmal ziemlich ahnungslos.

So ziemlich alle Probleme bei Bulldozer kamen von der fehlerhaften µArchitektur.

Eigentlich rede ich auch nichts schön, ich argumentiere nur sachlich, aber eben ohne Unsinn zu verbreiten.

Und deswegen gehst du pro AMD davon aus, dass er nur die erste Ausbaustufe meinte, obwohl die folgenden nicht besser waren und der Rückstand auf Intel anstieg?:haha:

Wenn du der Meinugn bist ich wqürde etwas schön redne, dann weis ich eh gleich wie wenig Fachwissen du hast:O
32nm SOI war einfach Müll, dafür kann Bulldozer aber nichts...

So schrottig dass auch Jahren der Fertigung sich keine Verbesserungen einstellen?
So ein Fertigungsprozess wird mit der Zeit besser. 2012 bis 2017 und noch immer gibt es keine Visheraprozessoren die sparsamer sind als die erste Inkarnation ala FX8350 von Ende 2012.

Für etwas angeblich total gefloptes macht Carrizo/Bristol Ridge aber eine ziemlich gute Figur, aber wahrscheinlich ist das nicht Bulldozer...

Macht er nicht, man liegt meilenweit hinter Intel zurück. Der Rückstand ist stetig angestiegen. So ein Bristol Ridge hat ja schon Probleme mit Skylake Pentiums, währen 2011 die Llano Chips noch an den i3 Prozessoren kratzten bzw. auch mal schneller waren.

Die µArch mit der niedrigeren IPC war in 32nm SOI schneller und effizienter als K10!

Bulldozer/Vishera effizienter als K10? Nö, wenn überhaupt gleichauf und bei K10.5 in 32nm steckte auch noch eine GPU mit auf dem Die, die erste von AMD, das kann man auch kaum vergleichen.
Leider ist es allerdings so dass ein K10.5 Llano immernoch mit den aktuellsten Desktop Excavator APU´s mithält und zwar CPU seitig.
Ein A8 3870k nimmt es leicht übertaktet noch problemlos mit jeder APU auf.
 
Bin ich der einzige der sich fragt warum Vishera nicht einfach auf den 28nm GPU prozess geshrinkt wurde?
Das hätte an der Energieffizienz und Taktrate, sicherlich deutlich geholfen.
Für mich zählt das Gesamtpaket.
Bei den kleinen Intels (S1150 usw) fehlt mir IO Bandbreite (nur ~16 pcie lanes WTF!) und ECC Ram.
Und die großen sind unverschämt teuer.
 
Bin ich der einzige der sich fragt warum Vishera nicht einfach auf den 28nm GPU prozess geshrinkt wurde?
Weil es nichts gebracht hätte udn ausserdem hätte man dann bei GF für nicht abgenommene Wafer trotzdem zahlen müßen..

Das hätte an der Energieffizienz und Taktrate, sicherlich deutlich geholfen.
Nein, hätte eher nichts gebracht und 28nm Bulk ist auch sehr spät gekommen.
 
AMD hat die AM3+ Plattform defakto sterben lassen.
Kein PCIe 3.0, keine neuen Steppings nach Vishera, einfach das falsche Pferd auf die fucking APUs gesetzt. Und den Überburner im negativen Sinne FX9590 mit all den Schwächen der Architektur als Top-Modell zu präsentieren, grenzt an absolutem Di*let*tan*tis*mus. Da hoffe ich ja, das Lisa schonmal was von Pisa gehört hat.
 
Denk AMD macht mit den APU weit mehr Geld als mit den FX
Haben dort hald den Vorteil zusammen mit GPU das günstigere Gesamtpaket als Intel zu haben
Jetzt zwar nicht für Gamer, aber für 0815 Office User die ab und an ein wenig zocken schon

Zusätzlich hätten sie sich Maybe durch nen FX Nachfolger selbst Konkurrenz für Zen geschaffen

Vermutlich hätte wohl aber auch ne Überarbeitung des FX kaum viel mehr Leistung gebracht
Bzw ziemlich sicher nicht so viel um mit Intel mit halten zu können

Dennoch stimmt es schon.....ein FX-9590 Nachfolger mit 5-5,2 GHz & 5,3-5,5 GHz T wäre auf jeden Fall Nice gewesen
 
Zuletzt bearbeitet:
AM3+ unterstützt überhaupt kein PCIe.
Neue Stepping von Vishera bringt nichts, wenn es keine dafür sinnvolle Fertigung gibt.

Ohne APUs keine Notebooks, keine Officerechner,...

Was stört dich am FX9590?
Die OEMs wollten ihn, AMD hat damit Geld verdient und es wurde dafür ja auch nichts neu entwickelt.
 
AMD hat die AM3+ Plattform defakto sterben lassen.
Kein PCIe 3.0, keine neuen Steppings nach Vishera, einfach das falsche Pferd auf die fucking APUs gesetzt. Und den Überburner im negativen Sinne FX9590 mit all den Schwächen der Architektur als Top-Modell zu präsentieren, grenzt an absolutem Di*let*tan*tis*mus. Da hoffe ich ja, das Lisa schonmal was von Pisa gehört hat.
Die AM Platform an sich wenn man den Sockel betrachtet ist so ziemlich das Langlebigste was es je gab. Da musste ein Schnitt her und das ist erst jetzt durch AM4 wirklich sinnvoll.

Die APUs sind ein zweischneidiges schwert. Man kann sagen "doofe APUs", wenn AMD dafür jetzt mit den "normalen" CPUs deutlich besser dastünde.
Das ist nicht unbedingt sicher und wäre das nicht der Fall, hätte AMD jetzt nicht mal mehr die 60-80Mio an Verkäufen durch die Konsolen (plus recht interessante Verträge z.B. mit Boeing)! Ihr Marktwert und -Einfluss wäre noch erheblich weniger als jetzt.
Denke der Weg mit den APUs war schlicht naheliegend. Man hat halt eine Grafikkartenschmiede an Board. Ganz schlecht ist es ja nicht ergangen, auch wenn man in Sachen Computing/Server mangels Software nicht den erhofften Erfolg erreichen konnte.

Der FX war eine Notlösung wobei ich zustimme dass man den hätte verweigern müssen. Nicht wegen dem Produkt selbst, sondern weil das AMD's Ruf als Hitzkopf noch weiter angeheizt hat (no pun intended).
 
Zuletzt bearbeitet:
@ Energiegetraenk Pfirsich Ja ELKINATOR, wir wissen um deine Liebe zu AMD.

Dennoch denke ich auch das der FX-9590 auch nur ein "Hier, wir können dies"-Produkt war.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh