Neue APUs am 15. Mai? AMDs Trinity soll in den Startlöchern stehen

Nein hat er nicht, die TDP wird wieder von 100 > 125W erhöht
Nope. Ausserdem, was heisst wieder? Es gab bisher keine APUs mit 125 W.


Ich kann lesen, nur hast du die CPu schlecht geredet! Trinity hat auch eine kleinere TDP!
Es wird bei Trinity nach den bisherigen Infos wohl bei 100 W TDP bleiben. Allerdings sind bisher nur K-Modelle so gespect. Der Rest liegt darunter, 65 W oder niedriger. Es ist allerdings richtig, dass mit dem 17 W Trinity ein Segment bedient werden kann, in dem Llano noch nicht zu finden ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein hat er nicht, die TDP wird wieder von 100 > 125W erhöht, zumindest bei den Modellen mit über 3,6Ghz Basistakt.
Die 3,8GHz-Variante kommt offenbar mit 100W wie Llano auch. Du beziehst dich auf ein Gerücht, das entstand, weil der Sockel für bis zu 125W spezifiziert ist. Das hat aber nichts mit den Trinitys bei Release zu tun. Es sind im Gegensatz zum FM1 125W theoretisch möglich, aber bisher ist von sowas nichts zu sehen.
 
Zuletzt bearbeitet:
Wenn du lesen kannst solltest du dich vorher informieren, bevor du so einen Quark postest um eine CPU zu verteidigen... ;)

Ich denke, dass es am Jahres-Ende in den Rückblicken so aussehen wird, dass Trinity schlicht das neue Llano sein wird, alle Leistungsklassen (Also von Budget-Segment mit Hihgh-End) haben am Ende 10 - 15% mehr und alle werden auf einen großen Sprung in 2013 hoffen... :d

Du hast eh keine offiziellen Infos mal abgesehen das ich eh immer richtig liege...(15 jahre Erfahrung)
 
Trinity hat ja noch einen aufgebohrten GPU-Teil mit deutlich höheren Taktraten als Llano, der ist ebenfalls in der TDP miteinbezogen. Wenn es also bei max. 100W TDP bleibt und der 3,4GHz Trinity sogar tatsächlich mit 65W TDP kommt, ist das schon eine respektable Effizienz-Verbesserung. Insbesondere vor dem Hintergrund, dass es sich um die gleiche Fertigungsgröße handelt.
 
Zuletzt bearbeitet:
Die Steigerung zu Llano sieht gut aus, die Relation zum FX-8150 lässt mich aber zweifeln, was diese Zahlen nun für praktische Anwendungen aussagen sollen. Man beachte den kaum vorhandenen Einfluss der Kern/Threadzahlen.

Zitat:
"Inwiefern die Fließkomma-Messung wirklich alle Rechenkerne belastet, ist vakant – höchstwahrscheinlich werden bei diesem Benchmark nur maximal zwei Rechenkerne ausgenutzt, da ein Vierkern-Bulldozer mit nur zwei Fließkomma-Einheiten auf ähnliche Werte wie der FX-8150 mit dessen vier Fließkomma-Einheiten kommt. Dies hilft dann den Trinity-Modellen weiter, da diese ebenfalls nur zwei Fließkomma-Einheiten aufbieten, jene jedoch im Vergleich zum FX-8150 auf ungefähr gleicher Taktrate im Schnitt 3 Prozent schneller rechnen – gegenüber dem besten Llano-Modell sind es im Schnitt 13 Prozent mehr. Unter Anwendungs-Benchmarks mit eben auch der teilweisen Ausnutzung von vier Fließkomma-Einheiten bei Llano sollte Trinity dann wiederum etwas schlechter aussehen, vermutlich verliert Trinity im Schnitt aller Messungen dann seinen Fließkomma-Vorteil gegenüber Llano weitestgehend."

Das mit den praktischen Anwendungen wird sich weitgehend relativieren....mich würde es jedoch wirklich interessieren wie es mit Spieleanwendungen mit dedizierter Grafikkarte aussieht. Besser als ein FX-4170? Besser als LLano vielleicht?

Btw., man hat von FM2 MoBos noch überhaupt nichts gehört....oder geschweige denn gesehen. Jemand ne Info dazu?
 
Die großen Modelle werden das gleiche Schicksal haben, besonders im Gamer Markt wird die Lage nicht besser, AMD braucht pro Thread 30% mehr IPC als Bulldozer 1, nur so kann man im Client Markt richtig konkurrenzfähig sein, bei AMD muss in der großen Entwicklungszeit (über 5 Jahre) sehr viel schief gelaufen sein, das Konzept auf dem Papier wird sich auch nicht 2012 durchsetzen, damit hätte man bestimmt vor der Bulldozer Entwicklung nicht gerechnet, viel bessere wäre es gewesen wenn damals das K8 "Athlon64 Team" die Architektur des K10 im Jahr 2007 weiter entwickelt hätte, eine ähnliche Strategie wie es Intel mit Core2 bis Sandy gemacht hat. Wie wir heute sehen liefert AMD mit der neuen Architektur deutlich weniger Leistung pro Thread als der Vorgänger, Bulldozer hat nur die neuen SSE4x/AVX Befehle als Vorteil, FMA4 wird kein Standard, diese neuerungen hätte man beim K10 mit Architektur Änderungen auch implentieren können.
Partiell hast du schon recht damit. Angesichts des Entwicklungszeitraums von 5 Jahren sind die Ergebnisse enttäuschend, wohl unter anderem auch, weil man mit dem Ziel möglichst guter Leistung in Mehrkern-Applikationen (bzw. möglichst viele Kerne) in Bezug auf Allerweltsrechner auf das falsche Pferd gesetzt hat. Ob das mit einem überarbeiteten K10 besser geworden wäre, steht auf einem anderen Blatt.
Man könnte hoffen, das in Zukunft für viele Applikationen nicht mehr die absolute Leistung sowie die Leistungaufnahme per se interessant sind, sondern man einfach nur ein 'good enough' für kleines Geld braucht.

Die Ergebnisse des eingebauten BOINC-Benchmarks sind m.E. nicht toll. Das sind beide sehr alte single-thread Algorithmen, die locker in den L2-Cache des Trinity passen, der fehlende L3-Cache stört dort nicht. Versprochen waren mal 10-15 % mehr Geschwindigkeit von Bulldozer-Generation zu Bulldozer-Generation und eine Steigerung der Energieeffizienz. Manchmal scheint die einzige Konsistenz bei AMD die Verzögerung neuer Chips verbunden mit dem Unterschreiten eigener Prognosen zu sein.
AMD Aims to Improve Bulldozer Performance-per-Watt by Up to 50% by 2014 - X-bit labs
 
Kannst du nicht lesen? Ich sprach von Leistung pro Thread, Trinity hat 4 Threads, pro Thread 1MB L2, genau wie Llano.
Der A10 5800K Trinity ist doch ein etwas verbesserter FX 4100. Also 1 Kern + CMT. Diese teilen sich dann 2MB L2 Cache, so wie eben auch beim FX 4100. Nur wird der A10 keinen L3 Cache haben, dafür aber eine GPU die schneller geworden ist als im Llano. Llano ist doch ein echter 4Kern so wie eben auch Athlon II und Phenom II. Llano ist ein verbesserter Phenom II ohne L3, dafür mehr L2 und einer GPU. Also hatte beim Llano jeder Kern 1MB L2 Cache. Das ist doch ein Unterschied. Insgesamt soll also so ein neuer FX 4100, also Trinity in allem schneller werden als ein Llano bei gleichem Verbrauch. Das ist doch gut.
 
Naja Duplex spricht ja von Threads, weil man AMDs neue "Kerne" weder mit den Vorgängern noch der Konkurrenz wirklich vergleichen kann, was bleibt ist die definition über die Verarbeitungsfähigkeit von Threads. ;) Trinity wird kein FX 41xx Nachfolger, dafür wird AMD was auf AM3 zusammenbasteln, was wohl grob in die leistungstechnische Richtung gehen wird... ;)
 
Genau ich sprach von Thread Leistung, CMT oder SMT interessiert mich nicht und TLR Trinity ist bestimmt kein FX4100 Nachfolger, sondern der Nachfolger von Llano der pro Thread genau wie Trinity die gleiche L2 Größe zur Verfügung hat.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Wie [HOT] schon richtig sagte, das ist lediglich das, was der Sockel theoretisch unterstützt. Eventuell plant man ja, in Zukunft auch grössere CPUs auf dem Sockel laufen zu lassen, die aktuell auf AM3+ zu finden sind. Die bisherigen Infos zum grössten bekannten Trinity Modell, A10-5800K, sprechen jedenfalls von 100 W TDP.


weil man mit dem Ziel möglichst guter Leistung in Mehrkern-Applikationen (bzw. möglichst viele Kerne) in Bezug auf Allerweltsrechner auf das falsche Pferd gesetzt hat.
Wieso habt ihr eigentlich immer noch nicht das Bulldozer Konzept gerafft? Bei Bulldozer geht es nicht um möglichst viele Kerne, sondern um ein Clusterdesign bzw CMT. In der aktuellen Form sozusagen ein "Dual-Core light", der möglichst flächen- und energieeffizient einen physischen Kern bereitstellt, der nahe an die Performance eines klassischen Dual-Cores herankommt. Und auch wenn das Design für Server entwickelt wurde, gerade für "Allerweltsrechner" ist das eine effektive Lösung und definitiv nicht das falsche Pferd.

Versprochen waren mal 10-15 % mehr Geschwindigkeit von Bulldozer-Generation zu Bulldozer-Generation und eine Steigerung der Energieeffizienz. Manchmal scheint die einzige Konsistenz bei AMD die Verzögerung neuer Chips verbunden mit dem Unterschreiten eigener Prognosen zu sein.
Achso, du kennst also den Unterschied zwischen Zambezi und Vishera? Ist ja interessant. Dann zeig uns mal ein paar Zahlen zum vergleichen. :rolleyes: Wenn man sich die BOINC Werte anschaut, dann liegt ein A10-5800K jedenfalls 10-22% vor einem FX-4100 und damit über den Prognosen von AMD. Da BOINC aber wenig Aussagekraft besitzt, ist das ganze natürlich mit Vorsicht zu geniessen.

Die einzige Konstante ist wohl eher, dass einige hier permanent Polemik und Unwahrheiten verbreiten. Mal davon abgesehen sind Prognosen keine Versprechen. Vielleicht sollte man sich die Folien, die man postet, auch mal genau durchlesen.
 
Zuletzt bearbeitet:
Die bisherigen Infos zum grössten bekannten Trinity Modell, A10-5800K, sprechen jedenfalls von 100 W TDP.

CPU-Z zeigt in erstaunlicher Regelmäßigkeit zu viel TDP bei AMD-CPUs an (bei meinem A6-3670 BE z.B. 111W), daher deute ich die "99W TDP" des A10-5800K hier als positives Zeichen, dass das Modell wirklich nicht über 100W TDP liegt: Benchmarkergebnisse von der Trinity-APU AMD A10-5800K

Möglicherweise stammt die 125W TDP VRM-Auslegung auch noch aus einer Zeit als geplant war Vishera ebenfalls für Sockel FM2 zu bringen. Der neue CEO hat ja scheinbar einige Pläne umgekrempelt.
 
Zuletzt bearbeitet:
A6-3500 wird mit 65w angegeben laut cpu-z hat sie aber 88w tdp
 
CPU-Z hat auch mal bei meinem FX 6100 167W TDP Angezeigt :d
 
CPUZ liest die TDP aus einer Datenbank.
Das ist nichts anderes wie ne einfache Abfrage, insofern sind TDP angaben bevor die Leute ein Update schreiben, fürn Po.
 
Jop ich würde auch erstmal abwarten bis alles raus ist. Ich bin sehr interessiert in Sachen APU, nicht für meinen Hauptrechner, aber für ins Wohnzimmer.
Der Energieverbrauch ist aber mit der abzuführenden Abwärme mein Hauptaugenmerk.
 
Wieso habt ihr eigentlich immer noch nicht das Bulldozer Konzept gerafft? Bei Bulldozer geht es nicht um möglichst viele Kerne, sondern um ein Clusterdesign bzw CMT. In der aktuellen Form sozusagen ein "Dual-Core light", der möglichst flächen- und energieeffizient einen physischen Kern bereitstellt, der nahe an die Performance eines klassischen Dual-Cores herankommt.
Und der Ansatz ist für Allerweltrechner ein Schuss in den Ofen. Der 'eine physische Kern' (eigentlich Modul) ist aus Softwaresicht eben kein 'Ein-Kern', sondern braucht zwei Threads. Damit hat man einen klassischen Dual-Core durch das CMT-Konzept etwas kleiner ausgeführt und kann ihn etwas höher Takten.
Sonst gewinnt man nicht viel. Mal als hypothetisches Beispiel: In 45 nm hat AMD in der Mittelklasse vier Einzelkerne auf einem Silizium untergebracht (Athlon II X4). Mit CMT könnten sie die Fläche pro Kern noch etwas schrumpfen und es würde vielleicht für sechs Einzelkerne (drei Module) reichen. Cinebench freute sich, aber der normale Nutzer im Büro kann schon die vier nicht auslasten.

Hat man weniger Threads als virtuelle Kerne (was bei einem Quadcore / Dual-Modul fast immer der Fall ist), führt das CMT-Konzept nicht weiter. Da ein Modul mit nur einem Thread auch nicht schneller als ein klassischer Kern rechnet (momentan sogar leider noch langsamer), bleibt man bei Allerweltsaufgaben auf dem Geschwindigkeitsniveau klassischer Prozessoren. Gut, man nutzt mit CMT jetzt vielleicht zwei von sechs Kernen statt wie früher nur zwei von vier. Schneller wird es dadurch nicht, selbst bei parallelisierten Aufgaben ist das wichtig (Amdahlsches Gesetz).

Besser wäre es gewesen, einen einzelnen Rechenkern weiter zu entwickeln, ihn z.B. 50 % mehr Silizium zu gönnen und dafür vielleicht 25 % mehr Leistung gegenüber K10.5 heraus zu holen. Statt vier K10.5-Kernen hätte man dann vielleicht nur noch drei davon unter gebracht. Cinebench läuft dann etwas langsamer, die für Unternehmen für Anschaffungen wichtigen Kennzahlen wie Sysmark und Co. fallen aber besser aus.

Der allgemeine Tenor vor drei vier Jahren war, dass wir bald sowieso alle Vierkern-Prozessoren haben werden, weil die Software dann soweit ist und sehr gut parallelisiert ist. Das hat sich leider als falsch heraus gestellt und kommt inzwischen sogar in den Medien an.
Cache statt Kerne - Die Prozessor-Entwickler rücken von der | Computer und Kommunikation | Deutschlandfunk

Achso, du kennst also den Unterschied zwischen Zambezi und Vishera? Ist ja interessant. Dann zeig uns mal ein paar Zahlen zum vergleichen. :rolleyes: Wenn man sich die BOINC Werte anschaut, dann liegt ein A10-5800K jedenfalls 10-22% vor einem FX-4100 und damit über den Prognosen von AMD. Da BOINC aber wenig Aussagekraft besitzt, ist das ganze natürlich mit Vorsicht zu geniessen.
Gemäß der verlinkten Quelle sind es ca. 5 bis 10 % mehr Geschwindigkeit von Bulldozer-Architektur Schritt I zu Schritt II (Piledriver). Wobei BOINC wirklich mit Vorsicht zu genießen ist, die Benchmark-Werte stehen in keinem Verhältnis zur Rechengeschwindigkeit in den Applikationen. Warten wir mal die restlichen Benchmarks ab, ich wette aber, die 10-15 % schaffen sie im Mittel nicht.
 
miriquidi schrieb:
Sonst gewinnt man nicht viel.

Doch, man gewinnt die Flexibilität eines Clusterdesigns das notwenig ist um frühestens 2014 dann die Verschmelzung von GPU und CPU schrittweise zu vollenden.
Und man gewinnt auch nicht ein Dualcore Design, welches etwas kleiner durch CMT möglich ist, sondern deutlich kleiner möglich ist, das kann man aber aufgrund der Packdichte von Bulldozer 1 und dem verhältnismäßig aufgeblasenem Die kaum erkennen.


Gemäß der verlinkten Quelle sind es ca. 5 bis 10 % mehr Geschwindigkeit von Bulldozer-Architektur Schritt I zu Schritt II (Piledriver).

Du vergleichst jetzt nicht ernstaft Piledriver "light" ohne L3 und gewisse Befehlssätze mit dem alten Bulldozer? Es gibt noch keine Quelle zur Leistung von Vishera und dem "Vollausbau" der Piledriver Kerne.

miriquidi schrieb:
Warten wir mal die restlichen Benchmarks ab, ich wette aber, die 10-15 % schaffen sie im Mittel nicht.

In Cinebench wirds wohl etwas knapp werden da man bei den theoretischen Werten schon sieht, dass AMD die FPU weniger aufgeblasen hat, dafür aber die Integer Leistung um einiges besser ausfällt, wenn man sich die Leaks der Trinity Prozessoren ansieht.
Ich tippe auf ein Leistungsplus von 20 bis 25% zum FX-8150.
 
Zuletzt bearbeitet:
Doch, man gewinnt die Flexibilität eines Clusterdesigns das notwenig ist um frühestens 2014 dann die Verschmelzung von GPU und CPU schrittweise zu vollenden.
Für einen Kunden ist das kein Kaufargument, weil es ihm momentan und auf absehbare Zeit keinerlei Vorteil bietet.

Und man gewinnt auch nicht ein Dualcore Design, welches etwas kleiner durch CMT möglich ist, sondern deutlich kleiner möglich ist, das kann man aber aufgrund der Packdichte von Bulldozer 1 und dem verhältnismäßig aufgeblasenem Die kaum erkennen.
Das lass es deutlich kleiner sein, der Ansatz geht trotzdem an den Wünschen der großen Masse der Nutzer (Unternehmen die für Angestellte PCs kaufen) vorbei.
Nähmen wir an, ein Bulldozer-Modul (zwei Threads) wären so schnell wie zwei K10-Kerne und bräuchte nur die Fläche eines K10-Kerns. Wo liegt bei den üblichen 'Leicht-Parallelen Anwendungen' der Vorteil gegenüber einem K10? Bei halber Fläche pro Kern kann man doppelt soviel in einen Chip verbauen (TDP außen vor).
Typische Programm brauchen zwei Kerne und schon beim K10 hatte man vier Kerne. Mit CMT hat man jetzt acht - wo ist der Mehrwert gegenüber dem Stand der Technik (K10)? Der ist doch nur dann gegeben, wenn man mehr Threads als Module hat, und das ist leider selten.

Du vergleichst jetzt nicht ernstaft Piledriver "light" ohne L3 und gewisse Befehlssätze mit dem alten Bulldozer? Es gibt noch keine Quelle zur Leistung von Vishera und dem "Vollausbau" der Piledriver Kerne.
L3-Cache und 'gewisse Befehlssätze' braucht das BOINC-Benchmark nicht, insofern ja. Aber stimmt, ich vergaß, Trinity enthält Piledriver light.
 
Und der Ansatz ist für Allerweltrechner ein Schuss in den Ofen.
Nein, er ist gerade für Allerweltsrechner ein super Ansatz. Weil man eben flächen- und energieeffizient nahe an zwei Kerne herankommt. Man kann damit kostensparend arbeiten, was für die Masse wichtig ist. Und maximale Performance, also die Performance von 2 "echten" Kernen, brauchen Allerweltsrechner auch nicht. Auf ein paar Prozent kann man da problemlos verzichten.

Der 'eine physische Kern' (eigentlich Modul) ist aus Softwaresicht eben kein 'Ein-Kern', sondern braucht zwei Threads.
Er "braucht" keine zwei Threads. Mit einem Thread läuft eine CU genauso. Zwei Threads sind notwendig, um die maximale Performance aus einer CU zu holen. Das ist bei Intel und Hyperthreading allerdings nicht anders.

Mal als hypothetisches Beispiel: In 45 nm hat AMD in der Mittelklasse vier Einzelkerne auf einem Silizium untergebracht (Athlon II X4). Mit CMT könnten sie die Fläche pro Kern noch etwas schrumpfen und es würde vielleicht für sechs Einzelkerne (drei Module) reichen. Cinebench freute sich, aber der normale Nutzer im Büro kann schon die vier nicht auslasten.
Oder man belässt es bei 4 Threads, kann dadurch das gesamte Design verkleinern und die Kosten senken, was wiederum preiswertere CPUs für Endkunden bedeutet. ;) Ein Bürorechner wird ganz sicher nicht mit einer überdimensionierten CPU ausgestattet. Für einen solchen Rechner reicht dann eine CPU mit lediglich einer CU. Besser als Single-Core, aber auch kompakter als ein klassischer Dual-Core.

Hat man weniger Threads als virtuelle Kerne (was bei einem Quadcore / Dual-Modul fast immer der Fall ist), führt das CMT-Konzept nicht weiter.
Schau mal in deinen Task-Manager. Moderne Systeme haben typischerweise mehrere Hundert Threads am Laufen. Es gibt eben nicht nur Multithreading, sondern auch Multitasking. Ausserdem stellt eine Bulldozer CU maximal zwei Threads zur Verfügung. Das ist momentan eine optimale Grösse. Single-Cores machen heutzutage einfach keinen Sinn mehr. Vielleicht mal abgesehen von Smartphones, Embedded Systemen und dergleichen. Aber wir reden hier ja eh über einen anderen Markt. Bulldozer ist flexibel, du kannst also Designs mit 1-8 CUs (2-16 Threads) je nach Anforderung der angepeilten Marktsegmente entwickeln.

Da ein Modul mit nur einem Thread auch nicht schneller als ein klassischer Kern rechnet (momentan sogar leider noch langsamer), bleibt man bei Allerweltsaufgaben auf dem Geschwindigkeitsniveau klassischer Prozessoren.
Und das Problem dabei ist welches? Klassische Prozessoren sind für Allerweltsrechner doch auch völlig ausreichend. Mal abgesehen davon stimmt deine Behauptung nicht wirklich. Innerhalb des gleichen thermischen Rahmens ist ein Thread auf einer CU nicht langsamer. Im Gegenteil, Piledriver legt da ja nochmal einige Prozent drauf. Und da haben wir auch zum ersten mal einen relativ guten Vergleich zwischen K10.5 und Bulldozer, Llano vs Trinity. Auch wenn es natürlich ein paar zu berücksichtigende Unterschiede aufgrund der iGPU gibt.

Besser wäre es gewesen, einen einzelnen Rechenkern weiter zu entwickeln, ihn z.B. 50 % mehr Silizium zu gönnen und dafür vielleicht 25 % mehr Leistung gegenüber K10.5 heraus zu holen.
Und was soll daran besser sein? Dann hast du am Ende 50% mehr Transistoren für vielleicht 15% mehr Performance gegenüber Bulldozer. Das ist keine Verbesserung.

Statt vier K10.5-Kernen hätte man dann vielleicht nur noch drei davon unter gebracht. Cinebench läuft dann etwas langsamer, die für Unternehmen für Anschaffungen wichtigen Kennzahlen wie Sysmark und Co. fallen aber besser aus.
Wen interessiert Sysmark? Unternehmen sollen Prozessoren für reale Umgebungen entwickeln, nicht für Benchmarks. Es ist schon schlimm genug, dass es Leute gibt, die ihre Kaufentscheidung von solchem synthetischen Gedöns abhängig machen.

Der allgemeine Tenor vor drei vier Jahren war, dass wir bald sowieso alle Vierkern-Prozessoren haben werden, weil die Software dann soweit ist und sehr gut parallelisiert ist. Das hat sich leider als falsch heraus gestellt und kommt inzwischen sogar in den Medien an.
Cache statt Kerne - Die Prozessor-Entwickler rücken von der | Computer und Kommunikation | Deutschlandfunk
Ich könnte 4 Kerne gut gebrauchen. Und ich bin ganz gewiss kein Power User. Das ist aber nicht der Punkt. Es geht nicht um eine bestimmte Anzahl an Kernen. Dass es hier Grenzen des sinnvoll nutzbaren für Konsumenten gibt, sollte den meisten schon länger klar sein. Das ist auch den Herstellern bewusst. Genau deshalb gibt es APUs, wo parallelisierbare Aufgaben von GPUs übernommen werden sollen. Der Artikel enthält daher nichts neues.
Wie auch immer, unterm Strich hat das mit Bulldozers CMT Konzept wenig zu tun. Ich kann dir nur nochmal den Tipp geben, dich wirklich mal mit cluster-basierten Konzepten auseinanderzusetzen. Denn diese wirken der simplen Vervielfachung von Kernen entgegen, Resource Sharing und trotzdem hohe Skalierung. Wie ich vorher schon sagte, du scheinst das Konzept noch nicht wirklich verstanden zu haben. Löse dich einfach mal von dem, was du von Zambezi (Orochi) momentan siehst. Hier geht es erstmal um das generelle Funktionieren eines solchen Konzeptes. Orochi ist nicht das Ende der Entwicklung, sondern lediglich der Anfang.

Für einen Kunden ist das kein Kaufargument, weil es ihm momentan und auf absehbare Zeit keinerlei Vorteil bietet.
Doch, tut es, da man zB keine separate Grafikkarte mehr braucht.

Das lass es deutlich kleiner sein, der Ansatz geht trotzdem an den Wünschen der großen Masse der Nutzer (Unternehmen die für Angestellte PCs kaufen) vorbei.
Nähmen wir an, ein Bulldozer-Modul (zwei Threads) wären so schnell wie zwei K10-Kerne und bräuchte nur die Fläche eines K10-Kerns. Wo liegt bei den üblichen 'Leicht-Parallelen Anwendungen' der Vorteil gegenüber einem K10? Bei halber Fläche pro Kern kann man doppelt soviel in einen Chip verbauen (TDP außen vor).
Typische Programm brauchen zwei Kerne und schon beim K10 hatte man vier Kerne. Mit CMT hat man jetzt acht
Nein, du hast es immer noch nicht verstanden. Mit CMT hat man erstmal lediglich zwei Threads statt einem, so wie Intel mit Hyperthreading. Wer eine CPU mit 8 Threads möchte, wird diese Threads sicherlich auch nutzen können. Für alles darunter gibt es Modelle mit 2, 4 und 6 Threads. Und der Vorteil von CMT ist eben, dass diese Threads mit weniger Transistoren und Energie als mit K10.5 machbar sind.
 
Zuletzt bearbeitet:
Nein, er ist gerade für Allerweltsrechner ein super Ansatz. Weil man eben flächen- und energieeffizient nahe an zwei Kerne herankommt. Man kann damit kostensparend arbeiten, was für die Masse wichtig ist. Und maximale Performance, also die Performance von 2 "echten" Kernen, brauchen Allerweltsrechner auch nicht. Auf ein paar Prozent kann man da problemlos verzichten.
AMD hat ja schon gesagt sie können nicht mehr mit intel konkurieren, von daher kann die architektur nicht so toll sein...
 
AMDs größte Probleme sind 1. Leistungsaufname, 2. Thread Leistung & 3. DIE Fläche

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Doch, ist sie. Das Konzept ist besser als das der Konkurrenz.
Was ist den besser?
Wie groß ist der Bullodzer Absatz im Desktop Markt?
Das Konzept wäre selbst bei 4 Threads ohne L3 Cache (kleineres DIE als Orochi) noch schwach genug im vergleich zur Konkurrenz, es fällt bereits schwer aus sich gegen Deneb abzusetzen...
Intels grösste Probleme sind 1. Leistungsaufname, 2. Thread Performance, 3. Die-Fläche.
Du möchtest dich nur auf den Server Markt beziehen richtig? Hier hat AMD zuletzt keine 5% Marktanteil gehabt, also beziehe dich in Zukunft erstmal nur auf das Desktop Geschäft, nur hier hat AMD aktuell große Einnahmen.
Bulldozer ist fast 50% größer als Sandy Bridge 4C/8T, verbraucht unter Last deutlich mehr Leistungsaufnahme & bietet deutlich weniger Single & Multithread Leistung als Sandy.
 
Zuletzt bearbeitet:
Was ist den besser?
Wie groß ist der Bullodzer Absatz im Desktop Markt?
Das Konzept wäre selbst bei 4 Threads ohne L3 Cache (kleineres DIE als Orochi) noch schwach genug im vergleich zur Konkurrenz, es fällt bereits schwer aus sich gegen Deneb abzusetzen...
Wie ich schon sagte, das Konzept ist ganz gewiss nicht anhand der ersten Generation final bewertbar.

Du möchtest dich nur auf den Server Markt beziehen richtig?
Nein. Ich habe lediglich eine genauso bezugslose und nichtssagende Behauptung in den Raum geworfen wie du.

Hier hat AMD zuletzt keine 5% Marktanteil gehabt
Stimmt zwar nicht. Der Marktanteil liegt bei über 5%. Aber wie gesagt, darum ging es gar nicht. Genauso wenig wie generell um die wirtschaftliche Seite. Wir haben über die Technik gesprochen. Also bleibt bitte beim Thema. Für die wirtschaftlichen Aspekte gibt es einen extra Thread.

Bulldozer ist fast 50% größer als Sandy Bridge 4C/8T, verbraucht unter Last deutlich mehr Leistungsaufnahme & bietet deutlich weniger Single & Multithread Leistung als Sandy.
Das letzte ist zwar falsch, Orochi bietet mehr Multithreading Performance als Sandy Bridge. Aber da das eine ein Server Design und das andere ein Client Design ist, sind Flächen- und Energievergleiche sowieso irrelevant und ohne Aussagekraft. Das wurde in der Vergangenheit nun schon mehrfach erwähnt. Wieso holst du diese irreführenden Behauptungen trotzdem immer wieder aus der Versenkung hervor?
 
Aber wie gesagt, darum ging es gar nicht. Genauso wenig wie generell um die wirtschaftliche Seite. Wir haben über die Technik gesprochen. Also bleibt bitte beim Thema. Für die wirtschaftlichen Aspekte gibt es einen extra Thread.
Technik muss sich immer am Markt verkaufen lassen. Wenn AMD für die Vitrine und Technik-Geschichtsbücher produziert, gehen sie unter.

Es ist natürlich sehr bequem zu behaupten, dass die Leistung 'Klassische(r) Prozessoren [sind] für Allerweltsrechner doch auch völlig ausreichend' ist. Das widerspricht allen Erfahrungen der letzten Jahrzehnte ("Niemand wird jemals mehr als 640 kB RAM benötigen") und ist schlichtweg falsch.

In dieser Industrie erzielt man Margen nicht durch 20 % günstigere Herstellungskosten, sondern in dem man schneller und/oder sparsamer als die Konkurrenz rechnet und so dem Kunden 20 % mehr Geld abknöpft.
Da mag ein CMT-Chip etwas kleiner als der Vorgänger sein (ist er nicht) und auch sparsamer (*lol*), letztendlich muss er schneller rechnen, sonst klingelt es nicht in der Kasse. Wenn es dann das 125 W Top-Model im 'Büro-Simulator' Sysmark 07 weder über die Vorgänger noch über Intels Pentium Holzklasse hinaus schafft, ist etwas schief gelaufen.

(Sysmark ist relativ nah an der Realität und wird auch häufig verwendet. Wenn man z.B. im öffentlichen Dienst einen größeren IT-Auftrag ausschreiben will, ist eine Sysmark 07 Angabe quasi Pflicht. Erreicht ein Prozessor + SSD / Festplatte eine Punktzahl X nicht, ist er draußen, und leider betrifft das die meisten AMD-Systeme. Und nur um es klar zu stellen: Die Empfehlung für die Punktzahl X wurde unter anderem auch von AMD getroffen und seit Windows 7 müsste man den Wert sogar noch weiter anheben. Praktische Folge z.B. bei meinem Arbeitgeber: Es gibt keine AMD-Rechner mehr, alles neue kommt mit Intel-CPU. Deren Doppelkerne sind relativ günstig, leise zu kühlen und trotzdem flott im Büroalltag.)

CMT ist hinter diesem Hintergrund (mindestens zwei Kerne hat heute eh quasi jede Prozessor) leider nicht sinnvoll. Es sind für den Massenmarkt genug Threads pro CPU vorhanden, diese müssen nur auch endlich konkurrenzfähig schnell rechnen. Und schneller werden sie nicht, indem man die Die-Fläche pro Kern verringert.
 
(Sysmark ist relativ nah an der Realität und wird auch häufig verwendet. Wenn man z.B. im öffentlichen Dienst einen größeren IT-Auftrag ausschreiben will, ist eine Sysmark 07 Angabe quasi Pflicht. Erreicht ein Prozessor + SSD / Festplatte eine Punktzahl X nicht, ist er draußen, und leider betrifft das die meisten AMD-Systeme. Und nur um es klar zu stellen: Die Empfehlung für die Punktzahl X wurde unter anderem auch von AMD getroffen und seit Windows 7 müsste man den Wert sogar noch weiter anheben. Praktische Folge z.B. bei meinem Arbeitgeber: Es gibt keine AMD-Rechner mehr, alles neue kommt mit Intel-CPU. Deren Doppelkerne sind relativ günstig, leise zu kühlen und trotzdem flott im Büroalltag.)
a) AMD hat das Babco Konsortium mit entsprechender Kritik an Sysmark bereits Mitte 2011 verlassen:
BAPCo-Konsortium: Neue Benchmark-Version und AMD-Austritt | c't
b) Sogar ein uralter amd x2 4000 ist leise zu kühlen und meistert den Büroalltag flott. Was macht ihr im Büro?
c) AMD's LLano verkauft sich ausgezeichnet - das wird mit Trinity nicht anders werden.
 
@TaipanX
woher willst du wissen dass sich der gut verkauft?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh