[News] Neue AMD High End CPU im Anmarsch

Keine Zukunftssicherheit sagt doch nur, dass du nicht weisst, wie es mit dem Celeron und dem i5 in 2 oder 4 Jahren in Spiel X oder Y ausschaut.
Wenn du sagst, Zukunftssicherheit sei eine Illusion, dann bedeutet das dass garkeine CPU in Zukunft gut in Spielen sein wird! Entsprechend seien alle gleich schlecht!

Und diese generelle Leistungsfähigkeit einer CPU kannst du einfacher, zuverlässiger und gezielter eben mit entsprechenden normalen Anwendungen testen. Dafür sind Spiele völlig unnötig und die schlechtere Wahl.
Und wieso, deiner Meinung nach, benchen dann alle großen Hardwaeseiten auch mit games?
Klar kannst du mit entsprecheden, synthetischen Benchmarktools am genausten die Gesamtleistung bewerten, aber die Umrechnung auf Games ist schlicht schwer bis unmöglich!
Ein Gutes Beispiel ist ja die Geschichte intel i5 vs AMD FX 8350. Letzterer schneidet in synthetischen Benchmarks viel besser als in games ab, wegen der vielen Kerne. D.h. das kann einfach keine sinnvolle Vergleichsgrundlage sein wenn man nach eienr tauglichen Gaming CPU sucht.

Das ist natürlich wieder mal völliger Quatsch. Software ist keine Magie. Da passiert nichts, was man nicht erklären oder beeinflussen könnte.
Dem würde ich zustimmen, würden wir hier mit Echtzeit-Systemen arbeiten. In der Praxis hat man aber ein Layer dazwischen welcher die Kerne und die Last zuweist. Die Schicht ist bekanntlich nicht opensource, daher nicht immer nachvollziehbar
Selbst wenn wir Softwaretools nehmen würde die die Auslatung ehr exakt beziffern können (welche sind das überhaupt)? Gibt es eine Garantie dass sich diese auf unterschiedlichen Platformen gleich verhalten? Die Zeiten mit einer nachvollziehbaren IPC vo 1.0 sind ja lange vorbei. Da kommt wieder eine gewisse Unvorhersagbarkeit heraus.

Es ist einfach 100% mal komfortabler und genau so zielführend, einfach ausserhalb des GPU-limits zu benchen und die FPS + eventuell die Frametimes anzugeben.

Btw. wenn es nicht stimmen würde dass Grakas öfters getauscht werden als CPUs, wieso gibt es dann viel mehr Anfragen nach Beratung zur Graka-Tausch als zur CPU? ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn du sagst, Zukunftssicherheit sei eine Illusion, dann bedeutet das dass garkeine CPU in Zukunft gut in Spielen sein wird!
Nein, sagt es nicht. Es sagt nur, dass du nicht weisst, ob CPU X fürs zukünftige Spiel Y ausreicht. Nicht mehr und nicht weniger.

Und wieso, deiner Meinung nach, benchen dann alle großen Hardwaeseiten auch mit games?
Du beantwortest dir deine Frage doch schon selber. Es verbietet ihnen doch niemand, das zu tun. Gerade mit praxisnahen Settings halte ich das auch für sinnvoll. Wenn man neben den mittleren FPS noch ein Min-FPS Spektrum dazu liefert, wird's sogar noch sinnvoller. An der generellen Ermittlung der CPU Leistungsfähigkeit ändert das aber trotzdem nichts.

Klar kannst du mit entsprecheden, synthetischen Benchmarktools am genausten die Gesamtleistung bewerten, aber die Umrechnung auf Games ist schlicht schwer bis unmöglich!
Eine präzise Umrechnung ist eh nicht möglich. Das funktioniert auch von Spiel A zu Spiel B schon nicht. Man kann aber sehr wohl die Leistungskapazitäten mit normalen Anwendungen besser einordnen. Die Kunst ist lediglich, diese Leistungskapazitäten dann jeweils richtig zuzuordnen. Wenn eine Spielengine zB lediglich ein oder zwei Lastthreads erzeugt, dann wird eine CPU mit guter singlethreaded Performance gut damit laufen. Wenn eine Spielengine aber zB bis 8 Threads gut skaliert, dann wirst du mit einem Pentium oder auch i3 Abstriche machen müssen. Wie gesagt, ich halte nichts davon, Pauschalaussagen abzugeben, erst recht aufgrund von Low-Res Tests. Man kann jedes Spiel immer wieder nur aufs neue testen und schauen, wie die Engine skaliert. Anders funktioniert es nicht. Und deshalb kann man auch keine Sicherheiten für zukünftige Spiele geben. Was heute für Spiel X gilt, muss für dessen Nachfolger mit vielleicht anderer Engine noch lange nicht gelten.

Dem würde ich zustimmen, würden wir hier mit Echtzeit-Systemen arbeiten. In der Praxis hat man aber ein Layer dazwischen welcher die Kerne und die Last zuweist. Die Schicht ist bekanntlich nicht opensource, daher nicht immer nachvollziehbar
Dieser Layer nennt sich Betriebssystem bzw Thread-Scheduler und ist je nach Betriebssystem durchaus Open-Source. Aber das ist nicht wichtig. Auch unter Windows lassen sich Threadzeiten abfragen. Die WinAPI bietet dafür diverse Funktionen. Auf Ring0 kann man auch direkt die Counter des Prozessor nutzen. Muss man dann nur uU für jede CPU Familie separat machen.

Selbst wenn wir Softwaretools nehmen würde die die Auslatung ehr exakt beziffern können (welche sind das überhaupt)? Gibt es eine Garantie dass sich diese auf unterschiedlichen Platformen gleich verhalten?
Wenn die Messmethodik der Tools die gleiche ist, dann verhalten sie sich auch gleich bzw liefern die gleichen Ergebnisse. Entsprechende Tools sind leider recht rar, wie PerfMonitor oder PerfWatch. Ein Problem für mich ist, dass solche Tools nach wie vor lediglich die Auslastung von Kernen bzw Hardwarethreads anzeigen, also das Verhältnis von Bearbeitungszyklen und Haltezyklen der CPU. Was leider zu falschen Schlüssen führen kann, wenn der Thread-Scheduler einen Thread auf unterschiedlichen Kernen laufen lässt. Um da bessere Rückschlüsse zu bekommen, wäre die Auslastung der Softwarethreads genauso interessant. Also das Verhältnis der Bearbeitungszyklen eines Softwarethreads auf jeglichen Kernen und den Zyklen eines Hardwarethreads im gleichen Intervall. Darüber hatte ich mir vor geraumer Zeit schon mal Gedanken gemacht. Bin mir allerdings immer noch nicht sicher, ob sich das sinnvoll umsetzen lässt.

Die Zeiten mit einer nachvollziehbaren IPC vo 1.0 sind ja lange vorbei. Da kommt wieder eine gewisse Unvorhersagbarkeit heraus.
Auslastung misst man normalerweise auch nicht mit IPC, sondern mit Instruktionen oder Zyklen. Da ist die Basis für jede CPU die gleiche.

Btw. wenn es nicht stimmen würde dass Grakas öfters getauscht werden als CPUs, wieso gibt es dann viel mehr Anfragen nach Beratung zur Graka-Tausch als zur CPU?
Weil CPUs wesentlich weniger kompliziert als Grafikkarten sind? Sowas sagt doch nichts und bringt ausser Spekulationen nichts. Ich würde dann eher mal nachschauen, welche Stückzahlen an CPUs und Grafikkarten jedes Jahr verkauft werden.
 
Eine präzise Umrechnung ist eh nicht möglich. Das funktioniert auch von Spiel A zu Spiel B schon nicht. Man kann aber sehr wohl die Leistungskapazitäten mit normalen Anwendungen besser einordnen. Die Kunst ist lediglich, diese Leistungskapazitäten dann jeweils richtig zuzuordnen. Wenn eine Spielengine zB lediglich ein oder zwei Lastthreads erzeugt, dann wird eine CPU mit guter singlethreaded Performance gut damit laufen. Wenn eine Spielengine aber zB bis 8 Threads gut skaliert, dann wirst du mit einem Pentium oder auch i3 Abstriche machen müssen. Wie gesagt, ich halte nichts davon, Pauschalaussagen abzugeben, erst recht aufgrund von Low-Res Tests.

Die Redaktionen wählen ja nicht grundlos ausschließlich niedrigere Auflösung. Deinem Argument kann man uneingeschränkt zustimmen, wenn man mit niedriger BQ Einstellung vergleichen würde... Macht man aber nicht. Solange das Seitenverhältnis gleich bleibt, bleibt die CPU Anforderung in Games idR. gleich. Und genau dann macht auch der Vergleich wieder Sinn.

Zumal es ja nicht so ist, dass die AMD CPU langsam ist, weil sie nicht in Sachen Threads ausgelastet wird. Dafür gibt's doch genügend Tests zwischen FX8 und FX4 sowie i7 mit SMT und i3 mit SMT.
Wenn dann übertrieben gesagt der vier Thread i3 so viele FPS raus haut, wie der FX8 Prozessor, während der i7 nochmal 50% drauf legt, stellt sich keinesfalls die Auslastungsfrage... (Vorsicht, fiktive Zahlen ohne Anspruch auf exakte Richtigkeit)

Spinnt man das jetzt weiter, bleibt Hinterhaus die Annahme, dass ein i7 mit xx% Vorsprung vor einem FX8 sehr wohl in Zukunft mehr Reserven hat als ein FX8. Wie viel im Detail? Steht dann auf einem anderen Blatt.
Und selbst wenn sich das Verhältnis mal völlig umkehren würde, währe das sicher nicht zu Lebzeiten der CPUs aus dem Vergleich.
Bspw: was interessiert heute, ob der erste Athlon X2 für S939 dem Netburst P4 als Dualcore überlegen war? Keine Geige...

Weil CPUs wesentlich weniger kompliziert als Grafikkarten sind? Sowas sagt doch nichts und bringt ausser Spekulationen nichts. Ich würde dann eher mal nachschauen, welche Stückzahlen an CPUs und Grafikkarten jedes Jahr verkauft werden.
Aber auch das sagt nichts aus, CPUs stecken doch in einigen mehr Geräten ohne dGPUs, wie dGPUs verkauft werden.
Auch halte ich xx CPU und yy GPU Aussage in zz Jahren für Quark.
Bei mir wären das in 15 Jahren bspw. 10 CPUs (1x Athlon Thunderbird C, 1x Athlon XP 2200+, 1x Athlon XP 2800+, 1x Athlon64 3200+, 1x Athlon 64 X2 3800+, 2x Xeon 5150, 2x Xeon 5160 und 1x Core i7 2600K)
zu 18 GPUs.
(1x Geforce 2 GTS, 1x Geforce 4200TI, 1x Geforce 5800 Ultra, 1x Radeon 9800 Pro, 1x Radeon X800XT, 2x Radeon X1950 Pro, 1x Geforce 8800 GTX, 1x HD2900XT, 1x HD4870 512MB, 1x HD4870X2, 1x HD5870, 2x GTX 470, 2x GTX 680 und 2x GTX 780TI)
Und das bezieht sich ausschließlich auf meine Workstation, die Restsysteme nutzen noch andere Karten, aber fast keine andere CPUs, da das ausgemusterte Workstation System idR weiter genutzt wird.
Und auffallend ist dabei, das ich fünf CPUs innerhalb von knapp 6 Jahren kaufte um mehr Speed zu bekommen, während seit dem Core2 Xeons das nicht mehr der Fall ist.
Und das ich damals fast 1:1 die CPU mit der GPU wechselte, während dies heute ebenso nicht mehr der Fall ist. Die letzten sechs GPUs hatte ich mit dem 2600K, auf dem Xeon System sieben.

Die Frage ist eher, ist mein Zyklus Massentauglich?? -> wohl eher nicht :fresse:
Ich behaupte, idR wird im Massenmarkt das ganze System gewechselt, sobald was zu langsam, kaputt oder allgemein was neues gewünscht ist, weil die Masse ausschließlich Stangenware konsumiert.
 
Aber auch das sagt nichts aus, CPUs stecken doch in einigen mehr Geräten ohne dGPUs, wie dGPUs verkauft werden.
Das macht die Behauptung von TARDIS aufgrund der mittlerweile dominierenden APUs/SoCs nur noch fragwürdiger. Wie gesagt, grundsätzliche dürfte sich das 1:1 einpendeln. Denn wer eine CPU braucht, braucht auch eine GPU, und umgekehrt. Ist eigentlich eine einfache Rechnung. Der Rest sind lediglich persönliche Präferenzen. Während Gamer vielleicht eher zu einer neuen GPU tendieren, so tendieren andere vielleicht eher zu einer neuen CPU.
 
Ich muss auch zugeben das ich die leute hier sehr gut verstehe.

Wenn ich so zurückblicke (im nachhinein ist man ja immer schlauer) würde ich folgende CPU,s wählen.

2000 Athlon XP
2003 Athlon 64
2006 Core 2 Duo
2009 Phenom II X4 Black Edition

Damit wäre ich dann bis Herbst 2015 gefahren und wäre auf Skylake aufgesprungen.

So ein Core i5-655k (Nehalem) wäre auch was für mich gewesen, kam aber leider erst mitte 2010 und somit kurz vor Sandy Bridge.
Vorher gabs nehalem i5 nur mit Festem Multiplikator.
Nehalm i5 K version war ne geile CPU, aber wurde zu schnell vom Sandy verdrängt, und seit Sandy ist auch AMD verdrängt kann man sagen.
 
Nein, sie stimmt nach wie vor nicht. Und das habe ich auch zweifelsfrei begründet. Das solltest du mal gründlicher lesen, anstatt immer die gleichen falschen Sachen zu behaupten und klare Widerlegungen zu ignorieren.

Lol. Stechpalme hat gesagt, dass der Bulldozer im AMD Mangement als Fehlschlag bezeichnet wurde. Du hast gesagt, Stechpalme würde Märchen erzahlen. Ich habe das wörtliche Zitat von einem höheren AMD Management Mitarbeiter gebracht (das durch alle Nachrichten Sites gegangen ist!), in dem er wörtlich sagt, Bulldozer war ein Fehlschlag! Du reinterpretierst die Aussage und behauptest, er hätte etwas anderes gemeint als er gesagt hat und bringst ein komplett anderes Zitat von einem anderen AMD Mitarbeiter, das mit dem Bulldozer Zitat nichts zu tun hatte.

Und da willst du mir sagen, ich müsste gründlicher lesen. Lol! Lächerlich.

EDIT (2.2.1015): Ich will jetzt nicht mit mr.dude auf Kindergartenniveau diese Diskussion ad infinitum fortführen. Deshalb bringe ich jetzt noch einmal das wörtlich Zitat des AMD Managers Feldman und dann soll mr.dude in seiner Realitätsverweigerung und -verdrehung doch schreiben was im beliebt:

"Bulldozer was without doubt an unmitigated failure. We know it. It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable" (Andrew Feldman, Corporate Vice President AMD)

Also hat jemand im AMD Management gesagt, dass Bulldozer ein Fehlschlag war. Es steht dort oben: "Bulldozer was without doubt an unmitigated failure." Punkt.

Wenn du AMD bashen willst, ist das deine Sache. Nur halte mich dann bitte aus deinem Unsinn raus und ignoriere meine Beiträge am besten, wenn ich auf deine Bashorgien nicht einstimme.

Ich bashe höchstens das AMD Marketing. Sorry, falls dich das stört.

Und wenn ich Benchmarks poste, in denen AMD leider in der Regel die rote Laterne trägt, dann ist das kein Bashen, dann ist das nun mal die Realität.

- - - Updated - - -

Das macht die Behauptung von TARDIS aufgrund der mittlerweile dominierenden APUs/SoCs nur noch fragwürdiger.

Nur dass sich meine Aussagen auf PC Spielebenchmarks im Gamer-Bereich bezogen und damit auf Gamer PCs. Welcher Gamer spielt denn schon ernsthaft mit einer APU oder einem SoC? Klar kann man in 720p spielen oder auf einem Tablet - aber ernsthaft, für diese Zielgruppe sind diese Benchmarks nicht gedacht. Genausowenig wie man auf Servern oder Workstations spielt.

Nicht umsonst musste AMD gerade für zig-Millionen APUs abschreiben, weil die Dinger wie blei in den Regalen liegen bleiben.
 
Zuletzt bearbeitet:
mr.dude schrieb:
Das ist natürlich wieder mal völliger Quatsch. Software ist keine Magie. Da passiert nichts, was man nicht erklären oder beeinflussen könnte. Auslastung entsteht in zweierlei Hinsicht, pro Kern (Pipeline) und pro Thread. Beides kann man mit entsprechenden Tools recht genau messen. Man kann sogar sehr spezifisch Instruktionen oder ISA Erweiterungen messen (sinnvollerweise natürlich nur über entsprechende Taktintervalle). Aber dafür braucht es halt mehr als nur Halbwissen über den Task-Manager

Du antwortest mit weiterer Polemik, Software sei keine Magie. Ist das alles was du entgegen bringen kannst?
Die Auslastung zu betrachten bringt in dem Fall ein CPU Limit zu zeigen gar nichts, weil ein CPU Limit nicht dan erreicht wird, wenn die CPU 100% ausgelastet ist, sondern auch wenn die Software nur mit einem Teil der Recheneinheiten einer CPU etwas anfangen kann.

Ich warte immernoch darauf, wann du mal anhand eines Benchmarks von CPU und Grafikkarte in einem Spiel die CPU Leistung anhand der Auslastung des Taskmanagers zeigst und bewertest.
Bisher kam nichts, keine validen Argumente, keine Belege, nüscht.

Ich würde dann eher mal nachschauen, welche Stückzahlen an CPUs und Grafikkarten jedes Jahr verkauft werden.

Dann schau das doch mal nach, anstatt zu meinen mehr CPU´s würden ausgetauscht und aufgerüstet.
Ich werde meine beiden i5 4690k sicherlich die nächsten 4 Jahre nicht aufrüsten.
Anzunehmen die CPU würde öfter getauscht, obwohl die Entwicklung der CPU extrem langsam vorangeht, während Grafikkarten alle 2 Jahre massiv an Performance zulegen, ist eh hanebüchen genug.

mr.dude schrieb:
Nein, sie stimmt nach wie vor nicht. Und das habe ich auch zweifelsfrei begründet. Das solltest du mal gründlicher lesen, anstatt immer die gleichen falschen Sachen zu behaupten und klare Widerlegungen zu ignorieren.

Natürlich stimmt die Aussage, wurde doch verlinkt und ist auch nachuzuvollziehen. Read drückt sich diplomatischer aus, na und?
Wenn man sich den Marktanteilverlust von AMD ansieht, dann korreliert das mit dem Bulldozer Desaster.
Bulldozer ist tot, da wird fast gar nichts mehr reininvestiert, ich frage mich sowieso, warum man da noch Energie reinsteckt und niht den Phenom II weiterentwickelt hat.
Der 3870K wäre da ne super Grundlage gewesen, der ist übrigens bei Legacycode immernoch auf A10 7850k Niveau.;)

Und der ist von 2011 und jetzt hamma 2015. Fast 4 Jahre ohne mehr Performance bei der CPU.
Das ist hammerhart für AMD und ein Zeichen dass Bulldozer überspitzt gesehen ein riesiger Fail war.
 
Zuletzt bearbeitet:
Es kommt eine Excavator CPU für den Desktop, vermutlich aber ein Jahr später erst. :(
 
er wird interessant weil er als APU mit DDR4 kommt. Also wohl die schnellste APU der Welt sein, auch wenn der CPU Part nicht mit Intel mithalten können wird, ist das für manche leute evtl interessant.
 
Gibt doch sogar nen Codenamen für die 2016er APU, das ist ja nicht Carrizo sondern Bristol Ridge. Der wird auch etwas anders als Carrizo aussehen, da er für FM3 kommen wird.
K12 ist im Prinzip die ARM-Variante von Zen und dürfte deutlich nach Zen erscheinen.
 
Stechpalme hat gesagt, dass der Bulldozer im AMD Mangement als Fehlschlag bezeichnet wurde.
Nein, hat er nicht. Er sagte, ich zitiere:
Außerdem ist die Bulldozer Architektur von AMD selbst als Fehlschlag bezeichnet worden.
Von Architektur oder anderen technischen Aspekten hat Feldman kein Wort gesagt. Daher ist und bleibt die Behauptung schlichtweg falsch. Ich kann es nur nochmal wiederholen, lies gründlicher und erfinde nicht einfach Sachen, nur weil sie zu deinen Bashorgien passen.

"Und wenn ich Benchmarks poste, in denen AMD leider in der Regel die rote Laterne trägt, dann ist das kein Bashen, dann ist das nun mal die Realität."
Wenn das mit dem eigentlichen Thema aber nichts zu tun hat und nur sinnfreie Rosinenpickerei ist, dann ist das sehr wohl Bashen.

"Nur dass sich meine Aussagen auf PC Spielebenchmarks im Gamer-Bereich bezogen und damit auf Gamer PCs."
Ist für den Thread aber belanglos, da es hier nicht ausschliesslich um Spiele geht.

"Welcher Gamer spielt denn schon ernsthaft mit einer APU oder einem SoC?"
Die meisten weltweit? Und das werden mehr, nicht weniger. APUs/SoCs werden schneller, nicht langsamer. ;)

"Nicht umsonst musste AMD gerade für zig-Millionen APUs abschreiben, weil die Dinger wie blei in den Regalen liegen bleiben."
Womit Intels Contra Revenue Programm natürlich nicht das geringste zu tun hat. Schon klar, OEMs verbauen aus freien Stücken langsamere APUs von Intel. :rolleyes:


Du antwortest mit weiterer Polemik, Software sei keine Magie. Ist das alles was du entgegen bringen kannst?
Wenn man mehr als nur den ersten Satz lesen kann, natürlich nicht. Und polemisch war daran auch nichts.

"Die Auslastung zu betrachten bringt in dem Fall ein CPU Limit zu zeigen gar nichts, weil ein CPU Limit nicht dan erreicht wird, wenn die CPU 100% ausgelastet ist, sondern auch wenn die Software nur mit einem Teil der Recheneinheiten einer CPU etwas anfangen kann."
Nein. Ich habe erklärt, wie man Auslastung ermittelt. Daran ändert auch die Auslastung von Einheiten nichts. Damit kann man maximal aufzeigen, wo Designschwächen in der Pipeline liegen. An der CPU, so wie sie ist, ändert das aber herzlich wenig.

"Ich warte immernoch darauf, wann du mal anhand eines Benchmarks von CPU und Grafikkarte in einem Spiel die CPU Leistung anhand der Auslastung des Taskmanagers zeigst und bewertest."
Da brauchst du gar nicht auf mich warten, sondern kannst dich einfach mal selbst im Netz etwas schlau machen. Es gibt durchaus Seiten, die das ansatzweise machen, wie zB bei BF4.

"Dann schau das doch mal nach, anstatt zu meinen mehr CPU´s würden ausgetauscht und aufgerüstet."
Die Behauptung kam weder von mir, noch habe ich grundsätzlich behauptet, dass mehr CPUs ausgetauscht werden würden. Wenn du Nachweise willst, dann wende dich bitte an denjenigen, der diese Behauptung in den Raum geworfen hat. Du liest wieder mal nur das, was du lesen willst, und verzerrst dabei die eigentlichen Aussagen. Typisch Schaffe.

"Natürlich stimmt die Aussage"
Nein, sie stimmt immer noch nicht. Siehe zuvor.

"ich frage mich sowieso, warum man da noch Energie reinsteckt und niht den Phenom II weiterentwickelt hat."
Weil der zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung ist.

"Der 3870K wäre da ne super Grundlage gewesen, der ist übrigens bei Legacycode immernoch auf A10 7850k Niveau."
Das wäre er vielleicht, wenn er mit vergleichbaren Taktraten laufen würde. Tut er aber nun mal nicht. Und das aus gutem Grund. Die Leistungsaufnahme ist bei >3 GHz zu hoch. Daher ist er auch bei weitem nicht auf A10-7850K Niveau. Weder bei Legacy Code und erst recht nicht bei optimiertem Code. Daher bietet Bulldozer auch mehr Performance. Ob du es nun wahrhaben willst oder nicht.


Völlig uninteressant da zum selben Zeitpunkt K12 raus ist und ich von den Carrizo in 2016 Gerüchten gar nix halte.
K12 ist ARM und nicht x86. Sollte ein Excavator Refresh in 2016 kommen, dann kann das eigentlich nur aus Kostengründen geschehen. 20nm und vor allem 14nm sind sehr teuer. Nicht nur der Prozess ansich, vor allem auch die Wafer. 28nm wird also auch 2016 (vermutlich bis mindestens 2018) der kostengünstigste Prozess bleiben. Bezüglich P/L also durchaus wichtig. Wenn ein passender FDSOI Prozess zur Verfügung steht und genutzt werden kann, dann eventuell auch bezüglich Performance/Watt. Weitere Neuerungen wie HBM2 könnten das Gesamtpaket erst recht interessant machen. So wie es bisher ausschaut, kommen K12 und Zen in 2016 als reine CPUs. APUs mit den neuen Kernen kommen scheinbar erst später.
 
Zuletzt bearbeitet:
"ich frage mich sowieso, warum man da noch Energie reinsteckt und niht den Phenom II weiterentwickelt hat."
Weil der zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung ist.
ganz billige Propaganda der Pro-Bulldozer Fraktion, Haswell stammt vom Pentium 3 ab
nach dieser Logik ist die Bulldozer Architektur zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung

K12 ist ARM und nicht x86. Sollte ein Excavator Refresh in 2016 kommen, dann kann das eigentlich nur aus Kostengründen geschehen. 20nm und vor allem 14nm sind sehr teuer. Nicht nur der Prozess ansich, vor allem auch die Wafer. 28nm wird also auch 2016 (vermutlich bis mindestens 2018) der kostengünstigste Prozess bleiben. Bezüglich P/L also durchaus wichtig. Wenn ein passender FDSOI Prozess zur Verfügung steht und genutzt werden kann, dann eventuell auch bezüglich Performance/Watt. Weitere Neuerungen wie HBM2 könnten das Gesamtpaket erst recht interessant machen. So wie es bisher ausschaut, kommen K12 und Zen in 2016 als reine CPUs. APUs mit den neuen Kernen kommen scheinbar erst später.
Dann halt Zen in 28nm, Carrizo in 2016 ist verschwendetes Silizium und würde zeigen das AMD überhaupt nichts gelernt hat und geradewegs in den Abgrund fährt.
 
ganz billige Propaganda der Pro-Bulldozer Fraktion, Haswell stammt vom Pentium 3 ab
nach dieser Logik ist die Bulldozer Architektur zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung.
Für eine Weiterentwicklung ohne die Hardware zu ändern bedarf es so viele wie möglich Software KnowHow, bzw. Befehlssätze.
Davon hat AMD mehr als genug, also wer Intel schon immer mal in den Allerwertesten treten wollte, der möge in die Tasten hauen! :bigok:
 
Wenn das mit dem eigentlichen Thema aber nichts zu tun hat und nur sinnfreie Rosinenpickerei ist, dann ist das sehr wohl Bashen.

Dann hat sich ja eine ganze Bash-Industrie entwickelt, wenn alle etablierten PC Hardware Sites Tests und Benchmarks durchführen, in denen die aktuellen AMD CPUs nun mal vergleichsweise schlecht abschneiden.

Wenn in einem Test eine Intel CPU schlecht abschneidet, wäre das dann auch bashen, darüber zu reden? Vermutlich nicht, oder? Nur AMDs schlechte Ergebnisse dürfen nach deiner Meinung nicht erwähnt werden... schon klar.

Ist für den Thread aber belanglos, da es hier nicht ausschliesslich um Spiele geht.

Aber es geht auch um Spiele. Und wenn ich einen Spiele-Benchmark zeige, dann stelle ich ihn auch nur als das dar, was er ist: einen Spielebenchmark.

Der letzte Benchmark, den ich gezeigt hatte, enthielt übrigens auch die Anwendungen. Ist dir vielleicht nicht aufgefallen, weil der kleine i3 trotzdem 145% der Leistung einer AMD A8 APU brachte...

Womit Intels Contra Revenue Programm natürlich nicht das geringste zu tun hat. Schon klar, OEMs verbauen aus freien Stücken langsamere APUs von Intel. :rolleyes:

Lol. Schuld sind immer die anderen - so wie in Griechenland. Ach ja du hattest ja einmal behauptet, man würde die Intel CPUs umsonst plus $20 Auszahlung pro Stück bekommen. Ich warte immer noch auf einen Link, wo ich die so bestellen kann, denn ich würde gerne so 10-20 Mio Stück abnehmen.
 
Zuletzt bearbeitet:
ganz billige Propaganda der Pro-Bulldozer Fraktion, Haswell stammt vom Pentium 3 ab
nach dieser Logik ist die Bulldozer Architektur zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung
Dass BD in 32nm und 28nm nicht gut funktioniert heißt nicht, dass das nicht später noch mal auftaucht. Vorsichtig mit solchen Wertungen.

Dann halt Zen in 28nm, Carrizo in 2016 ist verschwendetes Silizium und würde zeigen das AMD überhaupt nichts gelernt hat und geradewegs in den Abgrund fährt.
Langsam.
1.) Zen wird eine SoC-CPU (keine APU) genannt Summit Ridge und wird sicherlich in 14nm GloFo kommen. Bei einer neuen Archtiektur bietet sich der Sprung auf FinFET einfach an.
2.) Die dazu passende APU wird wohl Bristol Ridge und dürfte Carrizo entsprechen. Da der Sockel FM3 offenbar erst 2016 auftaucht, kommt auch die APU nicht früher.
3.) K12 ist ein ARM-CPU-SoC, der sich mit der Zen-CPU einen Serversockel teilen dürfte.

AMD hat also 3 neue Sockel in Planung:
1.) Skybidge -> ARM und Cats-x86 (Nolan mit Panther-Kernen) in 20nm planar
2.) FM3 -> x86 Bristol Ridge 28nm XV APU-SoC und Summit Ridge 14nm Zen CPU-SoC
3.) neuer Server-Sockel -> x86 Zen CPU-SoC und ARM K12 CPU-SoC
 
Zuletzt bearbeitet:
Ja stimmt der Pentium 4 hat bei Intel einen 2.Frühling erlebt
Siehste und warum soll das bei AMD mit CMT dann nicht auch gehen.
Falls das sarkastisch war schau dir einfach die aktuellen intel Prozessoren an.
Hyper Threading kam zum ersten mal bei intel mit dem Pentium 4 und wird auch heute noch von intel verwendet.
 
Hyper Threading kam zum ersten mal bei intel mit dem Pentium 4 und wird auch heute noch von intel verwendet.

Wer redet den von CMT und SMT/HT? Es geht um die Architektur, ich hab nie behauptet das CMT schlecht sei!
 
Stechpalme hat gesagt, dass der Bulldozer im AMD Mangement als Fehlschlag bezeichnet wurde.
Nein, hat er nicht. Er sagte, ich zitiere:
Außerdem ist die Bulldozer Architektur von AMD selbst als Fehlschlag bezeichnet worden.

Du versuchst durch Haarspalterei AMD zu verteidigen, das ist immer das einzige Mittel auf das du zurückgreifen kannst, wenn du argumentativ waffenlos bist.

Von Architektur oder anderen technischen Aspekten hat Feldman kein Wort gesagt.

Was ist denn Bulldozer, wenn nicht die Architektur. :hmm: Und vor allem was soll an Piledriver und Steamroller besser geworden sein?
Man fällt immer weiter zurück.
Du glaubst doch nicht ernsthaft, er meinte damit nur die erste Ausbaustufe, wenn die nachfolgenden immer weiter Leistungsmäßig gegen Intel Produkte abfallen.

Von Architektur oder anderen technischen Aspekten hat Feldman kein Wort gesagt.

Mit Bulldozer ist die Architektur gemeint, als kleiner Tipp.
Read sprach von nichts anderem, hat sich nur diplomatischer ausgedrückt.
Man müsse damit jetzt 4 Jahre leben. Da meint Read auch nicht die erste Ausbaustufe.

enn das mit dem eigentlichen Thema aber nichts zu tun hat und nur sinnfreie Rosinenpickerei ist, dann ist das sehr wohl Bashen.

Es hat gerade mit dem eigentlichen Thema zu tun, eben aufzuzeigen wie weit AMD schon zurükhängt.
Die i3 zerfleischen sämtliche APU´s was CPU Performance angeht, bittere Realität, so bitter dass ein mr.dude anderen wieder vorschreiben will, was das Thema ist und wieder dazu neigt andere von der Seite dumm anzumachen.

st für den Thread aber belanglos, da es hier nicht ausschliesslich um Spiele geht.

Wieso ist es belanglos, wenn gerade hier über die Spieleperformance diskutiert wird?
Höre doch mal auf damit, anderen vorzuschreiben was die zu sagen haben, das wäre für eine entspannte Diskussion vielleicht mal ganz wichtig.

Die meisten weltweit? Und das werden mehr, nicht weniger. APUs/SoCs werden schneller, nicht langsamer.

Das denkst du doch nicht wirklich oder? Seit 2011 stagniert die Performance der AMD APU´s was Grafikleistung und CPU Leistung angeht.
Die GPU Performance in Games eines A10 7850k ist vielleicht 40% über einem Llano von Anno 2011, während sich dedizierte GPU´s in den 4 Jahren leistungsmäßig weit abgesetzt haben.
Alleine von einer GTX 580 zur einer GTX 980 sind es deutlich mehr als 100% mehr Leistung bei weniger Verbrauch.

Schon klar, OEMs verbauen aus freien Stücken langsamere APUs von Intel.

Das Problem von AMD ist die Effizienz und die Leistung der CPU.
Damals wie Bobcat da war, hat AMD diesen sehr gut absetzten können, weil er einfach gut war.
Soviel zu Intels andauernder Marktmanipulation. AMD braucht gute Produkte.

Da brauchst du gar nicht auf mich warten, sondern kannst dich einfach mal selbst im Netz etwas schlau machen. Es gibt durchaus Seiten, die das ansatzweise machen, wie zB bei BF4.

Ah und was ist da jetzt für ein Fazit zu ziehen? Oder wie ist das zu bewerten? Sag doch mal nur ein Wort dazu, bisher hast du dazu geschwiegen.
Das trotz unregelmäßiger Auslastung die Intel Produkte weit vorne sind?

Das Problem ist, dass du gerne auf Dinge verweist die du dann überhaupt nicht erklärst, nur so als Ablenkungsmanöver.
Erkläre doch mal was diese Messungen des Taskmanagers jetzt für Schlüsse auf die CPU Performance zulassen.

ie Behauptung kam weder von mir, noch habe ich grundsätzlich behauptet, dass mehr CPUs ausgetauscht werden würden.

Meine Güte, du hast gesagt dass du glaubst, dass mehr CPU´s aufgerüstet werden, obwohl die CPU Entwicklung stagniert.
Welche Sinn hat es dann ständig die CPU aufzurüsten? Soll das Satire sein?

Wenn du Nachweise willst, dann wende dich bitte an denjenigen, der diese Behauptung in den Raum geworfen hat. Du liest wieder mal nur das, was du lesen willst, und verzerrst dabei die eigentlichen Aussagen. Typisch Schaffe.

Willst du ernsthaft bestreiten, dass eine CPU bei Gamern eine kürzere Lebensdauer hat wie eine GPU?:coffee:
Man merkt dass du hier absolut keine Ahnung von nichts hast.

Weil der zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung ist.

Das redest du dir auch nur ein. Bulldozer selbst hat sich in den Jahren vor allem in APU´s sogut wie gar nicht weiterentwickelt.
Veraltet ist eine CPU höhstens wenn sie zu wenig Performance bringt. Auf irgendwelche Spezialinstruktionen schauen die Käufer nicht, sondern auf die reine Leistung und Performance/Watt.
Oder willst du die APU´s im Servermarkt anbieten? Damit ist AMD mit "Berlin" auch kläglich gescheitert.

Das wäre er vielleicht, wenn er mit vergleichbaren Taktraten laufen würde. Tut er aber nun mal nicht.

Ohje, jetzt kommt das Märchen wieder von dir.
Ich habe schon mehrfach gezeigt, dass es eben nicht so ist und das lässt sich auch ganz einfach nachprüfen.

Test: Trinity vs. Ivy Bridge im CPU-Test (Seite 9) - ComputerBase

Schau es dir am besten ganz groß an. Die Spieleleistung.
Der Trinity 5800k liegt in Spielen nur 3% vor einem A10 3870k, Spiele haben Legaxy ode, da ist keine secret Soße dabei.
Und jetzt schau mer mal wo der A10 6800k liegt, ganze 3% vor einem A10 5800k in Games.

AMDs

Und jetzt gucken wir uns mal den A10 7850k an.

Der fällt doch glatt in Games wieder 2% hinter einen 6800k.

http://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/9/

Das heißt also zum mitmeißeln, dass der A10 7850k in etwa 4%mehr Leistung bringt wie ein oller A10 3870k oder 6% mehr wie ein noch ollerer 3850K von Anno 2011, in Spielen also bei Lagacy Code.

Und du sagst:

"Das wäre er vielleicht, wenn er mit vergleichbaren Taktraten laufen würde."

Was völliger Schwachsinn ist, da er es mit Standardtaktraten schon tut.

Und das aus gutem Grund. Die Leistungsaufnahme ist bei >3 GHz zu hoch.

Mag sein, mit etwas Optimierungsarbeit und Weiterentwicklung sehe ich aber mit etwas mehr IPC und 3,3ghz oder 3,5ghz innerhalb von 100 Watt TDP + neue Instruktionen eine deutlich höhere Performance als Bulldozer, Trinity und Kaveri zusammen.
Letzten Endes muss der A10 3870k gar nicht höher takten, das ist halt eben der Vorteil einer deutlich höheren IPC die AMD mit Bulldozer zerstört hat.

Und wie man sieht ist man gegen Llano was Leistung/Takt bei Legacy Code angeht, wenig konkurrenzfähig, wenn man Kaveri mit 3,9ghz quälen muss um mit einem A10 3870k mit 3ghz und auch noch ohne Turbo gleichzuziehen, bzw minimal zu überholen.

Weder bei Legacy Code und erst recht nicht bei optimiertem Code.

Für einen Lacher bist du immer gut, ja. Ziehe in den Anwendungsbenchmarks mal den Benchmark mit den AES Istruktionen (Truecrypt )raus. Dann fällt der A10 5800k gegen den A8 3870 auch auf die Schnauze.

Genausoverhält es sich mit einem A10 7850k gegen den A8 3870k. Das sind vielleicht bei Legacy ode 5% mehr Leistung.
Erschreckend sowas. Und das ist Teil des bescheuerten Modul Designs, das einfach nur durch einen extrem hohen Takt Richtung 4 ghz den A8 3870k etwas den Wind aus den Segeln nehmen kann.
 
Zuletzt bearbeitet:
ganz billige Propaganda der Pro-Bulldozer Fraktion, Haswell stammt vom Pentium 3 ab
Haswell geht sogar zurück bis auf den Pentium Pro. Und mit Propaganda hat das nichts zu tun, sondern sind Fakten. Stars mit seinen gekoppelten ALU Pärchen ist einfach ineffektiv und überholt. Keine mir bekannte aktuelle Architektur im Client Markt nutzt sowas noch. Dazu fehlt es Stars noch an diversen anderen Ecken und Enden. Bevor man das alles umkrempelt, kann man eben auch gleich eine neue Architektur entwickeln. Nichts anderes hat man mit Bulldozer gemacht.

nach dieser Logik ist die Bulldozer Architektur zu veraltet und eine schlechte Grundlage für eine Weiterentwicklung
Veraltet nicht. Sie ist aber scheinbar keine passende Grundlage für das, was Keller vorhat. Deswegen entwickelt man K12 und Zen von Grund auf neu. Wird aber viel IP aus vorangegangenen Architekturen benutzen. Auch bei einer neuen Architektur erfindet man das Rad nicht komplett neu. In Intels Core ist zB auch Netburst DNA eingeflossen.

Dann halt Zen in 28nm, Carrizo in 2016 ist verschwendetes Silizium und würde zeigen das AMD überhaupt nichts gelernt hat und geradewegs in den Abgrund fährt.
Warum hast du denn AMD nicht mal ein paar Milliarden an Forschungsgeldern überwiesen? Ich bin mir sicher, dann würden sie eine Zen APU schon 2016 bringen. ;)

Man kann manchmal echt nur den Kopf schütteln bei den Vorstellungen, die manche so haben. Jedes neue Design kostet ordentlich Kohle in der Entwicklung. x86 noch mehr als zB ARM. Und Geld hat AMD bekanntlich nur in begrenzte Mengen. Ein neues Design muss also gut überlegt sein. Carrizo existiert und läuft. Das für 2016 neu aufzulegen, für den Desktop mit einigen Überarbeitungen, reduziert die Entwicklungskosten deutlich. Verschwendet ist dabei gar nichts. Zumal wir weder wissen, was an Potenzial in Carrizo steckt. Noch wissen wir, wie gut oder schlecht Zen wird.

Ja stimmt der Pentium 4 hat bei Intel einen 2.Frühling erlebt
So wie Xeon Phi aka Larrabee? ;) Der P4 war eine ganz andere Geschichte und ist mit Bulldozer nicht zu vergleichen.


Dann hat sich ja eine ganze Bash-Industrie entwickelt, wenn alle etablierten PC Hardware Sites Tests und Benchmarks durchführen, in denen die aktuellen AMD CPUs nun mal vergleichsweise schlecht abschneiden.
Ganz schlechte Ausrede. Bitte tue uns den Gefallen und vergleiche deine Rosinenpickerei nicht mit dem umfassenden Bild, das man sich aus etlichen Tests diverser Seiten machen kann. Dass gewisse Seiten ihre Vorlieben haben und genauso kritisiert werden müssen, ändert daran ja nichts.

Wenn in einem Test eine Intel CPU schlecht abschneidet, wäre das dann auch bashen, darüber zu reden?
Wenn man das unsachlich macht und die gleiche Rosinenpickerei betreibt, dann ist das genauso Bashen.

Aber es geht auch um Spiele.
Aber eben nicht nur um Spiele. Genau sowas ist Rosinenpickerei, wenn das Thema grundsätzliche Leistungsfähigkeit einer neuen Architektur ist und du alles nur auf Spiele zu reduzieren versuchst.

Lol. Schuld sind immer die anderen
Schon klar, Intels Milliardenverluste im mobilen Bereich sind nur Phantasie. Auch eine Art der Realitätsverleugnung. DU kannst übrigens gar nichts bei Intel bestellen. Da muss man schon mehr vorzuweisen haben. Auch das wurde bereits gesagt.
 
Wo ist denn jetzt der High End CPU von AMD.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Wo ist denn jetzt der High End CPU von AMD.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
Es schreibt sich: "...die high end CPU..."
Egal, alle 14XX sollten gut laufen, hat mir ein Vögelchen gezwitschert. ;)

FX-8370E - FX-8320E - FX-8370 - FX-9370 - FX-9590.
 
mmh, 180 Watt und wieder dieses unrealistische Leistungsplus als Köder, um die Leute bei der Stange zu halten.

AMD sollte den ganzen Bulldozer Kram in die Tonne kloppen und wieder beim Thuban / Magnocours ansetzen und weiterentwickeln...
 
mmh, 180 Watt und wieder dieses unrealistische Leistungsplus als Köder, um die Leute bei der Stange zu halten.

AMD sollte den ganzen Bulldozer Kram in die Tonne kloppen und wieder beim Thuban / Magnocours ansetzen und weiterentwickeln...

Machen sie ja auch, aber zur Überbrückung bis Zen raus ist bringen die Weiterentwicklungen und versuchen da noch was rauszuquetschen.
 
Jede 2-3 Jahre alte Intel CPU ist mehr "High End" als jede aktuelle AMD CPU.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh