AMD mit angeblich neuem x86-Kern in Entwicklung

Es wäre schön wenn AMD wieder für Wettbewerb im x86 Mid-End, High-End Bereich sorgen würde. Leider ist eine Ankündigung Ende 2015, release 2016/2017 ein bisschen spät für mich und ich werde meinen Phenom 2 X4 945 im Herbst in Rente schicken und durch einen Intel i5 ersetzen.

Der wird schon 2016 kommen. Aber es macht einfach Sinn, den neuen Fertigungsprozess auch abzuwarten.
Ich würd den durch einen Xeon ersetzen. Warten macht eh nur in seltenen Fällen Sinn.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jap, wenn dann sollte AMD die neuen CPUs auch in einem halbwegs konkurrenzfähigen Fertigungsprozess produzieren, also auch noch zusätzlich hoffen das GF keine scheiße (mehr) baut ;). Aber das wird schon.
 
na endlich, habe damals schon vor Bulldozer einführung gesagt, dass sie besser auf SMT gesetzt hätten.
 
Da die Decoder bei ARM deutlich simpler ausfallen sollten, kann man sich dann durchaus auch 8 statt 4 leisten. Ob man so viele braucht ist die nächste Frage.
Bei ARM braucht man mehr Decoder, weil Loads/Stores separat dekodiert werden müssen. ZB Cyclone hat 6 davon und eine ähnliche IPC wie Haswell. Beim K12 sollten es nicht weniger werden. Selbst 8 halte ich durchaus für möglich. Das wird aber natürlich davon abhängen, wie breit das Backend ist.
"Ich hoffe bei der Pipeline Länge bleibt man noch etwas konservativ und geht nicht zu sehr in Richtung Bulldozer."
Was heisst konservativ? So kurz wie K10? Na hoffentlich nicht, weil dann die Taktbarkeit eher bescheiden ausfallen wird. Die Länge der Bulldozer Pipeline ist nicht so schlimm, wie es oftmals hingestellt wird. Keller hat ja auch auf die Expertise von AMD in dem Bereich hingewiesen. Nur weil es Netburst übertrieben hat, muss eine längere Pipeline nicht automatisch schlecht sein. Auch wenn die Pipeline der neuen x86 Architektur sehr wahrscheinlich ein paar Stufen weniger als Bulldozer haben dürfte. Eventuell ähnlich wie Jaguar/Puma+.


na endlich, habe damals schon vor Bulldozer einführung gesagt, dass sie besser auf SMT gesetzt hätten.
Dass AMD SMT nutzen wird, ist bisher nichts als Phantasie irgendeines Schreiberlings. Möglich, aber alles andere als gesichert. Ich würde jedenfalls nicht darauf wetten, dass AMD eine Intel ähnliche SMT Architektur entwickelt. Es gibt auch noch andere MT Techniken abseits von SMT. Intel hat ja mehr als eindrucksvoll gezeigt, dass SMT praktisch nutzlos im Client Markt ist. Das ist eher was für Server und HPC. Intel hat auch nicht grundlos SMT beim OoO Atom wieder über Bord geworfen und setzt auf vollwertige Kerne wie das auch bei AMDs Family 16h der Fall ist. Und ähnliches wäre wohl auch bei der neuen x86 Architektur am erfolgversprechendsten. Übrigens, selbst Bulldozer nutzt SMT. ;)
 
Zuletzt bearbeitet:
mr.dude schrieb:
Intel hat ja mehr als eindrucksvoll gezeigt, dass SMT praktisch nutzlos im Client Markt ist.

Wow, das ist ja mal wieder eine Hammer Aussage die du da raushaust, immer schön auf Intel einschlagen, während AMD am Hungertuch nagt.
SMT bringt nicht wenig und beschleunigt die i3 Prozessoren um bis zu 50% je nach Szenario, auch die 4Kerner profitieren bis zu 30% und teilweise mehr.
Aber klar, das ist natürlich praktisch nutzlos.:drool:


Mit 20 Stufen hat es AMD meiner Meinung nach übertrieben.

Intel hat auch nicht grundlos SMT beim OoO Atom wieder über Bord geworfen

Und was war der Grund, warum sie es über Board geworfen haben? Nichts anderes als Spekulation ist das.
Gerade mit Haswell hat man SMT noch ausgebaut und das hat die 2 Kerner nochmal ordentlich beschleunigt.

Na hoffentlich nicht, weil dann die Taktbarkeit eher bescheiden ausfallen wird.

Als wenn die Taktbarkeit nur davon abhängen würde. Der Phenom II x6 lies sich bis 4,4ghz übertakten, der Vishera geht aktuell etwa bis 5,0 ghz, das sind 15% Unterschied.
 
Zuletzt bearbeitet:
den vishera kriegt man mit guter lukü schon auf 5ghz,
nen pII der 4,4ghz mit luft macht hab ich noch nicht gesehen.
 
Zuletzt bearbeitet:
Lol, eine neue AMD CPU am Horizont - ich habe mich schon die ganze Zeit gefragt, wann das AMD Marketing dann hier wieder im Forum aktiv wird. Es scheint loszugehen (wie damals beim Bulldozer...):

Intel hat ja mehr als eindrucksvoll gezeigt, dass SMT praktisch nutzlos im Client Markt ist.

Teilweise über 40% Mehrleistung durch SMT = praktisch nutzlos. Klar...

Wer die über 40% nicht glaubt (Quelle):

Bei Dual-Core-CPUs wie dem Core i3 4330 bringt Hyperthreading dagegen auch in Spielen, die (mittlerweile) häufig mehr als zwei Kerne beziehungsweise Threads nutzen, mehr Leistung. Teilweise ist der Vorteil durch Hyperthreading bei einer Dual-Core-CPU sogar größer als erwartet. Im Test mit Anno 2070 etwa sinkt die Leistung des Core i3 4330 ohne Hyperthreading um annähernd 30 Prozent, dasselbe passiert bei F1 2011 . Der Stromverbrauch für das gesamte Testsystem geht dabei aber ebenfalls um 20 Watt zurück, ein Hinweis auf die schlechtere Auslastung der Recheneinheiten.

Und ja, eine um 30% sinkende Leistung beim Abschalten von SMT entspricht einer Steigerung von über 40% beim Zuschalten von SMT (rechne: 100 geteilt durch 70).
 
Zuletzt bearbeitet:
@mr.dude,

ein dreck macht Bulldozer. SMT ist ja nicht einmal von intel ;)
 
egal was sie tun werden.. solange Intel die bessere Fertigungstechnologie hat sieht es mehr als schlecht aus für AMD.. da können die machen was sie wollen.... außer Intel baut mal wieder Mist wie beim P4... naja bei der langsmaen Entwicklung z.Z. könnte AMD anfangs sogar noch Boden gut machen, aber Intel wird dann kurz- oder mittelfristig Kontern.

Wenn es irgendwann soweit ist, dass die Fertigungstechnologie bei beiden Herstellern das gleiche Niveau erreicht hat wird es spannender.. aber naja... das kann noch dauern...
 
Teilweise über 40% Mehrleistung durch SMT = praktisch nutzlos. Klar...

Wer die über 40% nicht glaubt (Quelle):

Es gibt auch Szenarien da bringt es -10%. Rosinenpickerei.
Wenn einem Prozessor ohne SMT die Puste ausgeht, kommst du mit einem gleichwertigen Prozessor mit SMT auch nicht weiter.
 
Es gibt auch Szenarien da bringt es -10%. Rosinenpickerei.

In schlecht umgesetzten Spielen... :d Die Technik ist gut, sie ist nur leider auch von der eingesetzten Software abhängig. Der Vergleich Pentium vs i3 zeigt, dass SMT funktioniert und was bringt, dass dies bei i5 vs i7 nicht der Fall ist liegt an der überschaubaren Verbreitung von Anwendungen, die deutlich über vier Threads auslastet. Aber von der Problematik kann AMD auch ein Lied singen, es hat seinen Grund warum man die Bulldozer-Architektur beerdigt, komplett am Markt vorbei entwickelt.
 
Wow, das ist ja mal wieder eine Hammer Aussage
Niemand hat auf Intel eingeschlagen. Das war in erster Linie eine pragmatische Aussage zu SMT, was in keinster Weise auf Intel beschränkt ist. Oder kannst du widerlegen, dass ein i7 einen signifikanten Mehrwert gegenüber einem i5 hat? Nein, kannst du nicht. Rosinenpickerei zählt da wie üblich nicht. Wir können maximal davon sprechen, was im Schnitt hängen bleibt. Aber darum ging es nicht bzw ging es nicht um konkrete Gewinne durch HTT. Es ging um die Sinnfrage. Wer 4 Threads will, kauft sich einen i5 und keinen i3. Wer 8 Threads will, würde sich für einen echten 8 Kerner anstatt einen i7 entscheiden. Gibt's halt nur nicht für LGA1150. Der Punkt war, im Client Markt würden sich Konsumenten immer für echte Kerne entscheiden. SMT bringt's da einfach nicht. Die Gewinne sind zu gering und zu unberechenbar.
"Mit 20 Stufen hat es AMD meiner Meinung nach übertrieben."
Sie haben nichts übertrieben. Ausserdem gibt es keine offiziellen Infos zur Länge der Pipeline. Du kannst also gar nicht wissen, ob es 20 Stufen sind. Zumal das sowieso keine pauschale Nummer ist. Da muss man differenzieren, zB Integer und FP Pipeline.
"Und was war der Grund, warum sie es über Board geworfen haben?"
Der Grund war einfach, dass es mehr Sinn gemacht hat, die frei werdenden Ressourcen in OoO und Taktbarkeit zu stecken. Und das kann man praktisch auf alle Client Prozessoren übertragen.
"Gerade mit Haswell hat man SMT noch ausgebaut und das hat die 2 Kerner nochmal ordentlich beschleunigt."
Weniger als du glaubst. Aber das ausführlicher zu diskutieren, macht an der Stelle keinen Sinn. Dafür ist das Niveau hier leider nicht ausreichend. Wie der eine oder andere User schon wieder eindrucksvoll gezeigt hat. Pentium vs i3 Vergleiche sind übrigens keine zuverlässige Quellen, da diese mehr Unterschiede aufweisen als nur HTT. Du kannst maximal i3 Vergleiche mit und ohne aktiviertem HTT heranziehen.
"Als wenn die Taktbarkeit nur davon abhängen würde."
Nicht nur, aber hauptsächlich. Vor allem wenn wir uns auf die reine Architektur beschränken. Dass andere Faktoren, wie zB Fertigung, noch hinzukommen, hat ja keiner verneint.
"Der Phenom II x6 lies sich bis 4,4ghz übertakten, der Vishera geht aktuell etwa bis 5,0 ghz, das sind 15% Unterschied."
Bulldozer ist etwa 20-25% besser taktbar als K10. Und das ist eben der geänderten Pipeline geschuldet.


es hat seinen Grund warum man die Bulldozer-Architektur beerdigt, komplett am Markt vorbei entwickelt.
Bulldozer ist mitnichten am Markt vorbei entwickelt. Ganz im Gegenteil, die Architektur ist eigentlich noch zu konservativ entwickelt worden. Es scheint wohl noch immer nicht bei jedem angekommen zu sein, dass Bulldozer nicht für Gamer entwickelt wurde.


Lol, eine neue AMD CPU am Horizont - ich habe mich schon die ganze Zeit gefragt, wann das AMD Marketing dann hier wieder im Forum aktiv wird. Es scheint loszugehen (wie damals beim Bulldozer...)
Die einzige Frage, die man sich hier leider immer wieder stellen muss, wann die Intel Fraktion bei AMD News aus ihren Löchern kommt, um zu beleidigen, zu diffamieren und alles zu zerreden. Zeigt ja auch deine Reaktionen mehr als deutlich. So sind konstruktive Diskussionen ums eigentliche Thema jedenfalls nicht möglich und daher kann einem die Lust auf dieses Forum mittlerweile nur noch vergehen.
 
Es gibt auch Szenarien da bringt es -10%. Rosinenpickerei.

Richtig, dein -10% Szenario ist Rosinenpickerei. Hast du für deine Rosine eigentlich eine Quelle?

Wenn einem Prozessor ohne SMT die Puste ausgeht, kommst du mit einem gleichwertigen Prozessor mit SMT auch nicht weiter.

Falsch. Siehe meine obige Quelle (i3 mit aktiviertem vs deaktiviertem SMT). Auch alle anderen Quellen zeigen, dass ein Dual-Core mit SMT in Spielen deutliche Mehrleistung gegenüber einem Dual-Core ohne SMT bringt - siehe hier Pentium vs i3 (Quelle):



Niemand hat auf Intel eingeschlagen.

Lol, nein... lol. :lol:

Der Punkt war, im Client Markt würden sich Konsumenten immer für echte Kerne entscheiden. SMT bringt's da einfach nicht. Die Gewinne sind zu gering und zu unberechenbar.

Völliger Unsinn.

Ein i5 ist in zahlreichen Anwendungen kaum schneller als ein i3. Ein i3 ist mitunter sogar schneller als der kleinste i5.

Nur kostet der i3 deutlich weniger - und da willst du behaupten, die Konsumenten würden freiwillig mehr Geld ausgeben, ohne signifikante Mehrleistung zu bekommen? Lol!

Dein AMD Marketing in diesem Forum ist echt nur schwer zu ertragen.

- - - Updated - - -

Die einzige Frage, die man sich hier leider immer wieder stellen muss, wann die Intel Fraktion bei AMD News aus ihren Löchern kommt, um zu beleidigen, zu diffamieren und alles zu zerreden.

Die Antwort ist recht einfach: weil mich gezielte Falschinformationen stören. Du schreibst:

Intel hat ja mehr als eindrucksvoll gezeigt, dass SMT praktisch nutzlos im Client Markt ist.

Das ist falsch. Ich habe deine Aussage sachlich mit Quellenangabe widerlegt.

Der Punkt war, im Client Markt würden sich Konsumenten immer für echte Kerne entscheiden. SMT bringt's da einfach nicht.

Das ist falsch. Man beachte deinen Absolutismus "immer". Ich habe deine Aussage sachlich mit Quellenangabe widerlegt.

Nun muss man sich doch die Frage stellen, warum versuchst du hier mit viel Aufwand und Mühe falsche Informationen zu verbreiten?

Ich glaube nicht, dass es Unwissenheit ist, denn deine Beiträge zeigen ja, dass du tief in der Materie drin steckst. D.h. dass du banale Dinge, wie den Nutzen von SMT bei einem aktuellen Haswell i3, nicht erkennst, kaufe ich dir nicht ab.

Für mich bleibt dann nur ein Schluss über deine Motive in diesem Forum über. Und deshalb, selbst wenn die nächste AMD CPU Generation wieder deutlich besser wird, wärst du persönlich der Grund dafür, dass ich bei der nächsten CPU Anschaffung definitiv von AMD auf Intel wechsele.
 
Zuletzt bearbeitet:
Bulldozer ist mitnichten am Markt vorbei entwickelt. Ganz im Gegenteil, die Architektur ist eigentlich noch zu konservativ entwickelt worden. Es scheint wohl noch immer nicht bei jedem angekommen zu sein, dass Bulldozer nicht für Gamer entwickelt wurde.

Dann sei doch bitte so nett und sag wofür sie dann entwickelt wurde... und jetzt sag nicht Server und Workstations...
 
mr.dude schrieb:
Das war in erster Linie eine pragmatische Aussage zu SMT, was in keinster Weise auf Intel beschränkt ist. Oder kannst du widerlegen, dass ein i7 einen signifikanten Mehrwert gegenüber einem i5 hat?

Wer redet eigentlich nur vom I7? Der i7 ist dank SMT knapp 20% schneller im Anwendungsmittel von CB, aber laut dir ist das ja nicht signifkant, gut. Der i3 um die 30 bis 40% im Vergleich zu den Pentiums.
Also was soll der Unsinn, SMT sei praktisch nutzlos? Es bringt einiges und das willst du nicht sehen, weil sonst die AMD Seele schmerzt.

Rosinenpickerei zählt da wie üblich nicht.

Keiner pickt Rosinen. Das ist das Mittel aus dem Anwendungsindex von CB, da sind sogar workloads dabei die nicht multithreaded sind und völlig auf einem Thread laufen.:rolleyes:

Sie haben nichts übertrieben. Ausserdem gibt es keine offiziellen Infos zur Länge der Pipeline. Du kannst also gar nicht wissen, ob es 20 Stufen sind. Zumal das sowieso keine pauschale Nummer ist. Da muss man differenzieren, zB Integer und FP Pipeline.

Anandtech ist denke ich eine gute Quelle. Immernoch besser wie dein Blabla zu SMT, da differenzierst du ja auch keine Spur, aber andere sollen es dann tun.
Was für eine Doppelmoral.

Der Grund war einfach, dass es mehr Sinn gemacht hat, die frei werdenden Ressourcen in OoO und Taktbarkeit zu stecken. Und das kann man praktisch auf alle Client Prozessoren übertragen.

Welche Ressourcen sollen das sein? Die 5% Chipfläche die SMT kostet? Das kann ganz andere Gründe haben, die niemand kennt, nur du machst eine Spekulation zum Fakt, wenn es in den Kram passt.

Weniger als du glaubst. Aber das ausführlicher zu diskutieren, macht an der Stelle keinen Sinn. Dafür ist das Niveau hier leider nicht ausreichend.

Du behauptest SMT sei praktisch nutzlos und kommst dann mit dem Argument, das Niveau reiche nicht. :rolleyes:

Pentium vs i3 Vergleiche sind übrigens keine zuverlässige Quellen, da diese mehr Unterschiede aufweisen als nur HTT. Du kannst maximal i3 Vergleiche mit und ohne aktiviertem HTT heranziehen.

Winrar, Truecrypt,X264 HD Benchmark locker über 30% zum i5 4670k, aber gut, wenn es laut dir nutzlos ist, wird das wohl stimmen.
Wie immer gibst du keine Quellen an, um deine Behauptung zu stützen, die muss dann dein Gegendiskutant für dich heraussuchen :d.

Bulldozer ist etwa 20-25% besser taktbar als K10. Und das ist eben der geänderten Pipeline geschuldet.

Bulldozer lies am Anfang nur Taktraten bis 4,6 ghz über alle Kerne zu, das war kein großer Unterschied zum Phenom II.
Wie man den Fail Bulldozer ernsthaft noch verteidigen kann, ist ja fast schon anmaßend.
Selbst Kaveri ist bis auf die niedrigtaktenden im Notebooksegment CPU seitig ein Reinfall. A10 7850 minimal langsamer wie A10 6800k bei deutlich höherem Preis.

Die einzige Frage, die man sich hier leider immer wieder stellen muss, wann die Intel Fraktion bei AMD News aus ihren Löchern kommt, um zu beleidigen, zu diffamieren und alles zu zerreden.

Gegenteiliges ist der Fall. Du versuchst zu zerreden und User zu diffamieren die sich kritisch zu AMD äußern. Bei Planet3dnow geht das noch, weil dort alle pro AMD sind und trotzdem finden selbst dortige Moderatoren deine Beiträge Fanboyreif.

Bulldozer ist mitnichten am Markt vorbei entwickelt. Ganz im Gegenteil, die Architektur ist eigentlich noch zu konservativ entwickelt worden. Es scheint wohl noch immer nicht bei jedem angekommen zu sein, dass Bulldozer nicht für Gamer entwickelt wurde.

Natürlich ist er am Markt vorbeientwickelt. ( Die pro Thread Leistung war ja schon 1 Jahr vor Release bekannt und von AMD umrissen ). Schwache IPC, schwache Spieleleistung, offenbar ein Design das extrem viel Strom säuft und nicht effizienter ist/war wie Phenom IIx6 Prozessoren.
In Games war er sogar langsamer wie ein 1100T bis gleichschnell.

Und wenn man behauptet er sei für Server entwickelt worden, dann sollte man bedenken dass das der Phenom II mit Magny Cours ja wohl auch war.
Und wenn man schon dabei ist die schwache Performance beim Serverdesign zu suchen, dann muss man klar feststellen, dass Bulldozer extrem schwach für Server war und dort erst recht keine Impulse liefern konnte.
Die Serveranteile sind stärker gesunken wie die Clientanteile.
 
Zuletzt bearbeitet:
Dann sei doch bitte so nett und sag wofür sie dann entwickelt wurde... und jetzt sag nicht Server und Workstations...

Dudi sollte man nicht ernst nehmen, der komplette Markt hat diese Architektur nicht angenommen. Es gibt keinen Bereich in dem die Architektur wirklich erfolgreich war, selbst das sehr erfolgreiche Konsolen-Chip-Segment benutzt kein CMT und die Bulldozer-Architektur. Aber sowas wirst du von Dudi nicht hören, der erzählt absichtlich blödsinn, siehe den SMT-Hirn-Furz da oben...
 
Ich persönlich begrüße es wenn AMD wieder in konkurenz zu Intel im High-End geht.

Früher hatte ich nur AMD, allerdings war der Core 2 so gut, das ich seit dem auf Intel gewechselt bin und es schade finde was AMD im Prozessormarkt abliefert. Ja, Bulldozer war nicht in allen Bereichen schlecht, aber nunmal in den meisten nicht gut. Auch Bulldozer brachte eher was bei massig Threads, die nunmal beim normalen Endanwender kaum vorkommen. Intel hat dagegen massig IPC gestemmt und zur besseren Auslastung steht noch HTT zur Verfügung, das war halt das was am Markt besser ankam.
 
Dazu noch der 32nm-Rohrkrepierer-Prozess von Globalfoundries. War in der Summe halt leider ein Eigentor, das weit mehr gekostet als eingebracht hat. Aber AMD verdient im Moment Geld und hat anscheinend die Ressourcen es nochmal neu zu versuchen, wollen wir hoffen, dass es gelingt. Wobei ich da optimistisch bin, AMDs Produktentscheidungen in letzter Zeit sind weiß Gott welche mit Perspektive.
 
Wer 4 Threads will, kauft sich einen i5 und keinen i3. Wer 8 Threads will, würde sich für einen echten 8 Kerner anstatt einen i7 entscheiden. Gibt's halt nur nicht für LGA1150. Der Punkt war, im Client Markt würden sich Konsumenten immer für echte Kerne entscheiden. SMT bringt's da einfach nicht. Die Gewinne sind zu gering und zu unberechenbar.

Ich würde dir grundsätzlich sogar recht geben, was die Threadanzahl angeht, aber der Markt hat sich hier grundlegend gesplittet.
Warum bringt denn die Intel SMT Umsetzung bei nem i7 Quadcore oder gar i7 Hexacore nur unwesentlich mehr Performance? -> offenbar liegt das an der Software, die mit der "Breite" gar nicht mehr viel anfangen kann und nach oben hin selten skaliert.
Das kann sich auch jeder selbst Zuhause angucken. Ich sehe nur in den seltensten Fällen überhaupt Lastzustände größer 50% einer 8 Thread i7 CPU bei normalem Workload. Wie soll also SMT mehr Performance ausspucken?
Anders bei Volllastszenarien, wo generisch Last für bestimmte Aktionen vorprogrammiert ist. Nur ist es dort eher egal, ob da nun 8 Threads durch SMT oder echte 8 Cores oder weis der Teufel was drin ist, die Anwendung skaliert über die Breite bis in deutlich höhere Regionen. Mit SMT kommt dann weniger Performance raus wie mit nem acht Kern Prozessor ohne SMT. Aber der acht Kern Prozessor kann ebenso wieder SMT haben und somit verdoppelt sie die Performance in der Theorie wieder.
Der i3 mit SMT hat hier klar den Vorteil, das es vermehrt Software gibt, die eben 2-4 Threads belasten kann und auch über diese skalieren kann. Und selbst wenn es eine Anwendung nicht schafft, nutzt man ggf. mehrere gleichzeitig um die Breite zu belegen.
Das geht aber aus meiner Sicht nur bis in bestimmte Threadbereiche. Und das ist stand heute wohl im Bereich 3-6 Threads. Alles drüber ist schon wieder an "Poweranwendungen" gebunden. Entweder man nutzt sie und kann die Breite ausspielen oder man nutzt sie nicht und die Leistung bleibt liegen. Ein echter acht Kern Prozessor ist in keinster Weise schneller im normalen Desktop Workload wie ein echter Quadcore mit SMT, sofern die Taktrate und Architektur dahinter gleich ist. Wenn wir irgendwann mal an dem Punkt ankommen, das ALLE Software über die CPU Breite skaliert, und ein echter acht Kern Prozessor ohne SMT auch zwingend ~60% schneller agiert wie der gleiche als Quadcore mit SMT. Und das in jeder Lebenslage, dann könnte man meinen, SMT ist unwichtig. Aber da sind wir lange nicht.


Im übrigen ist das auch genau der Punkt, warum AMD den Bulldozer am Markt vorbei entwickelt hat. Das Teil ist Toll in generischen Volllastszenarien. Blendet man den Verbrauch und die Fertigung mal ganz aus, so ist ein Vishera durchaus in der Lage mit nem i7 Quadcore mitzuhalten, teils gar schneller zu sein. Für sein Alter kann er gar nem Haswell i7 paroli bieten. Aber wir sind eben nicht an dem Punkt, wo die Software bedingungslos in die Breite skaliert. Sondern wir haben das genaue Gegenteil... Und das gute sieben Jahre, nachdem es Quadcore CPUs am Clientmarkt gibt und gar acht+ Jahre seit dem es 4 Thread CPUs im Clientmarkt gibt!
 
Dazu noch der 32nm-Rohrkrepierer-Prozess von Globalfoundries. War in der Summe halt leider ein Eigentor, das weit mehr gekostet als eingebracht hat. Aber AMD verdient im Moment Geld und hat anscheinend die Ressourcen es nochmal neu zu versuchen, wollen wir hoffen, dass es gelingt. Wobei ich da optimistisch bin, AMDs Produktentscheidungen in letzter Zeit sind weiß Gott welche mit Perspektive.
Eigentlich war es ja eher (natürlich nicht ganz) ein IBM-Prozess. AMD setzt seit 130nm IBM-SOI-Prozesse in den eigenen Werken ein. GloFo hat ja erst seit dem Chatred-Kauf 2010 begonnen eigene Prozesse zu entwickeln und da war dann totales Chaos, schlechte Entscheidungen und Führungswechsel. Folge waren ein eher schlechter 28nm-Billigprozess, der ewig zu spät war und ein gescheiterter 40nm-Prozess. 28nm SHP ist endlich mal wieder eine erfolgreiche echte Eigenentwicklung gewesen. Und der war auch nur so spät, weil er so spät begonnen wurde ;).

@fdsonne
Bei Spielen stand da Jahrelang eben vor allem DX9/10/11 im Weg. Erst 11 ermöglichte ja immerhin etwas Multithreading. Warum sollte sich ein Spielehersteller voll auf MT konzentrieren, wenn das Spiel eh durch DX gebremst wird? Erst Mantle und die Aussicht auf DX12 wird bei Spielen MT richtig fördern und bei Anwendungen sieht BD ja viel besser aus als unter Spielen, Mit Mantle übrigens auch. Er kommt zwar dennoch nicht an I7 dran, dafür ist das Design einfach nicht ausgereift genug.
 
Zuletzt bearbeitet:
Okay vielleicht hätte ich eher "bei" als "von" schreiben sollen. ;) Er hat zumindest seinen Teil zum Bulldozer-Flop bei getragen.
 
Jo allerdings. Man hat sich das wahrscheinlich vorher schöngerechnet, in dem man sich sagte, wir werden die 5GHz schon irgendwie schaffen bei annehmbarer Verlustleistung (140W), aber daraus wurde ja nichts. Anfangs hat man ja sogar mit Komodo, also 5 Modulen, gerechnet, der schwer beherrschbare Fertigungsprozess war mit Sicherheit auch ein Grund, warum das Projekt starb.
Es gibt ja heute noch Leute, die dem weggefallenen 22nm-Prozess hinterhertrauern und meinen, BD wär damit besser - ich glaube das nicht. Der 22nm-IBM-Prozess ist ebenfalls extrem spät und man hätte wieder mit massiven Problemen kämpfen müssen. Außerdem soll er keine großen Packdichten ermöglichen. Für Power8 ist das egal, aber bei APUs wär das ne Katastrophe.
Die 28nm sind schon echt supi jetzt, echt schade, dass man keine SR-CPU macht. Aber dafür fehlt einfach die Infrastruktur, das ist das Problem. Die würde sicher vor Mitte 2015 nicht marktreif sein, also kann man auch gleich auf 14nm setzen und alles neu starten. Was viele nicht wissen: AMD hatte mit dem Sockel 2012 etwas ähnliches in Entwicklung wie Intel mit Sockel 2011 damals ;).
 
Zuletzt bearbeitet:
@fdsonne
Bei Spielen stand da Jahrelang eben vor allem DX9/10/11 im Weg. Erst 11 ermöglichte ja immerhin etwas Multithreading. Warum sollte sich ein Spielehersteller voll auf MT konzentrieren, wenn das Spiel eh durch DX gebremst wird?

Die rangehensweise ist aus Programmiersicht aber völlig verkehrt ;)
Zum einen wird da nix gebremst, sondern es ist einfach so schnell, wie es ist. Und zum anderen ist lange nicht die Schnittstelle das alleinige Problem.
Schau dir Software außerhalb von Games an, da gibts kein DX, Mantle oder OpenGL und dennoch tut sich der Markt schwer mit MT.
Bei Games ist das absolut identisch. Den Part, der einfach nur stur die Berechnungen für das Spiel übernimmt ist je nach Situation und Möglichkeiten voll MT tauglich. Und lässt sich mit dem notwenidgen Aufwand auch vollständig in die Breite ziehen. Dort oben drauf setzt die Schnittstelle für die Grafikberechnungen und wiederum dort oben drauf sitzt der Treiberpart, der wiederum völlig unabhängig der DX Schnittstelle offenbar mehr oder weniger MT tauglich ist, wie NV jüngst erst gezeigt hat.
Wir sind auch lange schon über den Punkt geschritten, das die Ausgabegeschwindigkeit der FPS den Speed des Spiels beeinflusst, zumindest in die eine Richtung. Du kannst mit 100 FPS voll im Schnittstellen CPU Limit kleben, wie auch mit 100 FPS voll im CPU Limit der Gameberechnungen. Beides ist CPU limitiert, aber nur ersteres würde durch eine MT taugliche Schnittstelle überhaupt nur ansatzweise verbessert. Gerade Physik und KI Berechnungen lassen sich bis der Arzt kommt in die Breite ziehen und derart komplex gestalten, dass das Spiel nur noch ruckelt. Da bekommt man, wenn man es drauf anlegt auch ein 12 Core Xeon E5 Dual Gespann klein!

Im übrigen, es ist schon arg auffällig das gerade Multiplayershooter ala BF3 und BF4 stark CPU limitiert sind bei schnellen GPUs. Obwohl im Vergleich zum SinglePlayerpart des selben Spiels komischerweise auf CPU Limit deutlich höher angesiedelt ist. Das lässt die Vermutung auf, das dort lange nicht die Schnittstelle das "Problem" der Geschichte ist, denn die ist bei beiden Versionen ja identisch!
 
Aber wir sind eben nicht an dem Punkt, wo die Software bedingungslos in die Breite skaliert.

Kann es auch nie geben.
Das geht nur, wenn sich Softwareteile parallelisieren lassen.
Und das ist oftmals prinzipbedingt nicht der Fall.
Und da zählt dann die Single-Thread-Leistung des Prozessors.
 
Die rangehensweise ist aus Programmiersicht aber völlig verkehrt ;)
Zum einen wird da nix gebremst, sondern es ist einfach so schnell, wie es ist. Und zum anderen ist lange nicht die Schnittstelle das alleinige Problem.
Schau dir Software außerhalb von Games an, da gibts kein DX, Mantle oder OpenGL und dennoch tut sich der Markt schwer mit MT.
Bei Games ist das absolut identisch. Den Part, der einfach nur stur die Berechnungen für das Spiel übernimmt ist je nach Situation und Möglichkeiten voll MT tauglich. Und lässt sich mit dem notwenidgen Aufwand auch vollständig in die Breite ziehen. Dort oben drauf setzt die Schnittstelle für die Grafikberechnungen und wiederum dort oben drauf sitzt der Treiberpart, der wiederum völlig unabhängig der DX Schnittstelle offenbar mehr oder weniger MT tauglich ist, wie NV jüngst erst gezeigt hat.
Wir sind auch lange schon über den Punkt geschritten, das die Ausgabegeschwindigkeit der FPS den Speed des Spiels beeinflusst, zumindest in die eine Richtung. Du kannst mit 100 FPS voll im Schnittstellen CPU Limit kleben, wie auch mit 100 FPS voll im CPU Limit der Gameberechnungen. Beides ist CPU limitiert, aber nur ersteres würde durch eine MT taugliche Schnittstelle überhaupt nur ansatzweise verbessert. Gerade Physik und KI Berechnungen lassen sich bis der Arzt kommt in die Breite ziehen und derart komplex gestalten, dass das Spiel nur noch ruckelt. Da bekommt man, wenn man es drauf anlegt auch ein 12 Core Xeon E5 Dual Gespann klein!

Im übrigen, es ist schon arg auffällig das gerade Multiplayershooter ala BF3 und BF4 stark CPU limitiert sind bei schnellen GPUs. Obwohl im Vergleich zum SinglePlayerpart des selben Spiels komischerweise auf CPU Limit deutlich höher angesiedelt ist. Das lässt die Vermutung auf, das dort lange nicht die Schnittstelle das "Problem" der Geschichte ist, denn die ist bei beiden Versionen ja identisch!
Schau dir Skalierungsbenchmarks von Spielen mit und ohne Mantle an, z.B. in der PCGH, dann weisst was ich meine. Die meisten wirklich neuen Spiele skalieren schon recht gut, es bringt aber mit DX11 oft nicht sonderlich viel. Mit Mantle skalieren Spiele, z.B. Thief, oft bis 8 Threads ganz gut, was mit DX11 undenkbar wäre. Mit Mantle und DX12 wird 8 Threads auch bei Spielen dann Standard sein.
Bisher waren die meisten PC-Prozessoren mit 4 Threads und recht viel Takt/Leistung pro Thread ausgestattet, die 32Bit-Grenze und dazu noch die vorsintflutliche API - da haben viele Hersteller MT einfach nicht allzu ernst genommen, das ist ja ne Kostensache. Jetzt gibts eine Perspektive mit 64Bit und DX12/Mantle und die Prozessoren gehen in die Breite. Jetzt lohnt sich MT endlich.
 
Zuletzt bearbeitet:
Dudi sollte man nicht ernst nehmen, der komplette Markt hat diese Architektur nicht angenommen. Es gibt keinen Bereich in dem die Architektur wirklich erfolgreich war, selbst das sehr erfolgreiche Konsolen-Chip-Segment benutzt kein CMT und die Bulldozer-Architektur. Aber sowas wirst du von Dudi nicht hören, der erzählt absichtlich blödsinn, siehe den SMT-Hirn-Furz da oben...
Dauerspammer wie dich, die im Grunde eigentlich nur ihr kleines Universum immer und immer wieder erweitern wollen, indem sie hier Beiträge posten, die weder einen Sinn haben, oder etwas logisches von sich geben, sind bedauernswert. Das man dann auch noch andere beleidigen muss, weil der eigene Verstand nicht mithält, macht mir Sorgen.
Aber hey, wenn bei der neuen x86 Architektur was bei rumkommt, dann hören wir hier wieder die abschätzigen Kommentare, weil Dummheit und Ignoranz in der Gesellschaft Bestand haben.
 
Zuletzt bearbeitet:
Dauerspammer wie dich, die im Grunde eigentlich nur ihr kleines Universum immer und immer wieder erweitern wollen, indem sie hier Beiträge posten, die weder einen Sinn haben, oder etwas logisches von sich geben, sind bedauernswert. Das man dann auch noch andere beleidigen muss, weil der eigene Verstand nicht mithält, macht mir Sorgen.
Aber hey, wenn bei der neuen x86 Architektur was bei rumkommt, dann hören wir hier wieder die abschätzigen Kommentare, weil Dummheit und Ignoranz in der Gesellschaft Bestand haben.

Und wer auf Angriffe nur mit Gegenengriffe Antwortet und dabei typsicherweise krampfhaft versucht durch gewandten Wortschatz Intelligenz auszustrahlen, ist noch armseliger... -_-'
Man man.. wieso muss es immer Streitereien geben?...
Kan man Aussagen nicht stattdessen mit Beweisen widerlegen?
 
Wurde ja bereits widerlegt, das ist ja das Problem von mr.dude, auch wenn seine Behauptungen klar widerlegt sind, hält er trotzdem dran fest.
 
Schau dir Skalierungsbenchmarks von Spielen mit und ohne Mantle an, z.B. in der PCGH, dann weisst was ich meine. Die meisten wirklich neuen Spiele skalieren schon recht gut, es bringt aber mit DX11 oft nicht sonderlich viel. Mit Mantle skalieren Spiele, z.B. Thief, oft bis 8 Threads ganz gut, was mit DX11 undenkbar wäre. Mit Mantle und DX12 wird 8 Threads auch bei Spielen dann Standard sein.

Ich gebe dir grundsätzlicht recht, wenn die Schnittstelle der limitierende Faktor ist, aber das ist alles andere als IMMER der Fall.
Bis dato konnte mir niemand sagen, woher Mantle die Mehrperformance holt. Ich suche immernoch jemanden, der mir das auf sachlicher Ebene darlegen kann, denn es ist alles andere als "logisch", was wir dort derzeit sehen.
Oben drauf kommt noch die Tatsache, das die Mantle Umsetzung gegenüber der AMD DX Umsetzung in diesen Mantle Games auch nur deswegen so derart gut dasteht, weil die DX Umsetzung extrem mager performt. Schau dir Benches zu BF4 im MP von Mantle vs. NV DX vs. AMD DX an. Komischerweise ist die AMD DX Umsetzung in geanu diesen Mantle Titeln äußerst schwach...

Aber darum gehts auch nicht primär, es geht mir viel eher darum, das es nicht nur die SChnittstelle gibt, die da limitieren kann. Ein Spiel, was nicht an der Schnittstelle krankt, wird auch nicht über Mantle oder DX12 auf mehr Threads skalieren. Das sind zwei völlig verschiedene paar Schuhe.
Bestes Beispiel dafür sind NV PhysX per GPU Titel. Schau dir die Skalierung dazu mal genau an. Auffallend ist dort, das das Game jeweils idR nur Last auf einem Thread erzeugt. Ggf. sinds auch zwei. Aber alles andere als Volllast bei vier+ Thread CPUs. Warum? Offenbar weil NV die CPU Umsetzung von PhysX dort künstlich einbremst um die GPU Umsetzung zu "pushen". Dir nutzt in diesem Fall ein Mantle oder DX absolut gar nix. Es wird schlicht nicht schneller, wenn die Physikberechnungen derart lange brauchen, das die FPS gedeckelt sind. Und das ist der Punkt... Man wirft viel zu viele Sachen in einen Hut. Irgendwer kräht zum Thema Mantle mal mit Multithreadingskalierung und auf einmal ist das der heilige Gral. Obwohl das alles andere als sicher ist dass die Schnittstelle überhaupt die Games derart limitiert.


PS: ich würde auch nicht behaupten, das die Programmierer bei den Titeln MT nicht ernst nehmen. Denn heutige Games belegen teils hunderte Threads gleichzeitig. Das Problem ist eher, das diese idR nicht gleichzeitig Last erzeugen. Aufgrund von diversen Abhängigkeiten. Ein Grund dafür ist bspw. das Teile der Berechnungen deutlich länger als andere brauchen. Siehe die Ausführung zu PhysX. Wenn du dort sagen wir 10ms für die Physik alleine brauchst, weil der Spaß nur SingleThread implementiert ist, wirst du also NIEMALS NIE mehr wie 100 FPS erreichen. -> Außer durch mehr CPU Takt oder allgemein mehr IPC, die eben aus den 10ms dann weniger Zeit macht. Und das ist schon schön gerechnet, weil es ja nicht nur diese eine Berechnung gibt. Andere Geschichten kommen da dann noch oben drauf, real wird man also auch keine 100 FPS erreichen, wenn allein Physik schon 10ms benötigt und es nutzt auch keine breitere CPU irgendwie etwas, wenn die Berechnung dazu nicht in die Breite gezogen wird. Gerade Physik und KI Berechnungen können extrem komplex ausfallen, aber ebenso genau schön in die Breite gezogen werden. Macht man das aktuell? -> lässt sich schwer beurteilen ohne Einblick in den Quellcode.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh