2. APU-Generation: AMD stellt "Trinity"-Prozessoren vor

Ich habe mir mal die Mühe gemacht die Cinebench R10 32Bit Ergebnisse der 25 W und 17 W TDP-Version von Tinity mithilfe der Messwerte von Notebookcheck abzuschätzen und ein paar weiteren Subnotebook-CPUs gegenüber zu stellen. Rot sind die getesteten 35 W Trinitys, grün sind 25 W Typen und blau / orange sind 17/18 W CPUs. Wichtig ist der blaue Balken (Single-Threaded).
Bezieht man es speziell auf normale Anwendungssoftware ist der neue A6-4455M auf jeden Fall ganz in Ordnung und liegt in etwa auf Core-i3 ULV Niveau. :)
Die 17 W Top-CPUs von Intel plätten aber in CPU-Angelegenheiten auch weiterhin das gesamte Mobilsegment von AMD.

Trinity_CBR10_x86_Abschaetzung.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Cinebench in 32Bit ist imho nicht ganz optimal, da bei Trinity die Differenz zwischen 32 und 64Bit besonders groß ist. Auf der anderen Seite wird der Gegner natürlich auch nicht Sandy Bridge, sondern vielmehr Ivy Bridge lauten, da kommen die Dualcores ja auch demnächst. Also ja, ich denke mit der Einschätzung das der A6-4455M Singlethread auf i3-Niveau liegen wird, liegst du nicht verkehrt.
Multithread wird er mit einem Modul natürlich wenig ausrichten können, und auch die stark beschnittene GPU wird klar unter HD4000 Niveau liegen. Preislich sollten entsprechende Subnotebooks/"Ultrabooks" darum sicherlich auch etwas billiger werden.
 
BulliSabber schrieb:
im CB-Forum bekommt dafür der Autor des Tests seins Fett weg, da er eigentlich nur das Asus NB getestet hat.

Nein, nichrt deswegen, sondern weil die gesamte Trinity Architektur aufgrund der ziemlich biased anmutenden Formulierungen gleich mal unnötig schlecht dargestellt wird.
Ich teste auch kein drittklassiges Gerät um daraus dann eine Ivy Bridge Performance abzuleiten.

AMD hätte sich aber- so denke ich- mehr einen gefallen getan, wenn man erst die Desktop Trinity Modelle mittels Paperlaunch vorgestellt hätte.
 
Wenn sich die bisherigen Tests wesentlich bestätigen, dann sind das ja Fortschritte auf sehr bescheidenem Niveau, da hat man doch deutlich mehr im AMD-Lager erhofft.
Aber wie immer kann man ja vieles über den Preis regulieren. Macht AMD seit phenom so und das scheint geradezu AMD-Credo geworden zu sein:
"Es gibt keine schlechten Produkte, es gibt nur schlechte Preise."

Allerdings sind bei der Strategie so Finessen wie Rapid Start, SSD-Caching, Smart Connect oder auch Thunderbolt oder WLan-Modul, mit denen Intel das mobile Ultrabook Leben noch ein bisschen süßer macht, bei AMD wohl kaum drin. Bisweilen soll es bei AMD-Produkten ja sogar an der Speicherausstattung oder am Panel hapern ..

Allmählich stellt sich daher aber die zentrale Frage, wann der Zeitpunkt gekommen ist, an dem Intel die iGPU Leistung von AMD hinter sich lässt (das Spiel heisst ja nach wie vor noch "leaving AMD in the dust ..").
Wird es schon mit Haswell soweit sein, der eine neue Architektur bringt mit erheblichen Optimierungen, auch im Speicherbereich, wohl mit L4 Cache eigens für die Grafik kommt, und im mobilen Bereich ein Ein-Chip-Design sein wird, das neue absolute und leistungsbezogene Energiesparrekorde vorweisen wird.
Oder wird es erst mit dem 14nm-Haswell-Nachfolger in 2014 soweit sein?
 
Mich würde einfach interessieren, was bei den mobilen Trintys noch per Übertaktung raus zu holen ist.
Schon geringe paar Reserven könnten die mobilen Trinitys zu den Low-Budget-Gaming-Kisten schlechthin machen, wie es schon bei den Llanos der Fall war dank K10Stat etwas Spieltrieb seitens des Besitzers der Fall war.

Keine Frage ich giere persönlich auch schon auf die Desktop Trinitys, ein leeres Gehäuse steht bei mir auch schon rum, das auf eine Trinity oder einen 2 Kern Ivy wartet.
Aus den bisherigen Tests lese ich zumindest, dass mit gutem Preismanagment seites AMD ein schönes Produkt kommen könnte.
 
Zuletzt bearbeitet:
Mobile Llanos/Trinitys übertakten? Wie das, der Multi ist doch gelockt? Edit: Oder doch nicht? Das wäre interessant.
 
Zuletzt bearbeitet:
Die Llanos konnte man selbst noch hoch peitschen, ich hatte die Hoffnung, dass es bei den Trinitys im Mobile-Bereich auch irgendwie wieder machbar ist.
Aber bisher gibt es keine Anzeichen in die Richtung, zumindest habe ich bisher keinen Review diesbezüglich gefunden..:heul:
 
Zuletzt bearbeitet:
Wenn sich die bisherigen Tests wesentlich bestätigen, dann sind das ja Fortschritte auf sehr bescheidenem Niveau, da hat man doch deutlich mehr im AMD-Lager erhofft.
Aber wie immer kann man ja vieles über den Preis regulieren. Macht AMD seit phenom so und das scheint geradezu AMD-Credo geworden zu sein:
"Es gibt keine schlechten Produkte, es gibt nur schlechte Preise."

Siehs mal so statt einer starken CPU kannst du dir eine schnelle SSD kaufen und dann hast du tatsächlich Performance Gewinne von 200-300%

Natürlich außer reinen CPU Anwendungen!
 
Mit einer SSD gewinnt man in den meisten Anwendungen, die für dieses Segment relevant sind, keine Anwendungs-Performance, da eine SSD nur Ladezeiten verkürzt. ;)
 
Allmählich stellt sich daher aber die zentrale Frage, wann der Zeitpunkt gekommen ist, an dem Intel die iGPU Leistung von AMD hinter sich lässt (das Spiel heisst ja nach wie vor noch "leaving AMD in the dust ..").
Wird es schon mit Haswell soweit sein, der eine neue Architektur bringt mit erheblichen Optimierungen, auch im Speicherbereich, wohl mit L4 Cache eigens für die Grafik kommt, und im mobilen Bereich ein Ein-Chip-Design sein wird, das neue absolute und leistungsbezogene Energiesparrekorde vorweisen wird.
Oder wird es erst mit dem 14nm-Haswell-Nachfolger in 2014 soweit sein?


Das ist nur eine Frage der Zeit. Das Problem für AMD wird sein, dass Intel mit Haswell eine GT3 Variante bringt. Diese stellt keine gewöhnliche Weiterentwicklung dar. AMD muss sich langsam was einfallen lassen. Mit ansteigender GPU Leistung wird zum einen der Bandbreitenbedarf immer höher, um die Leistung auf die Straße zu bringen, zum anderen ist gleichzeitig eine immer stärkere CPU erforderlich. Intel hat das CPU Problem nicht. Das Bandbreitenproblem geht Intel mit dem stacked Speicher an. Der 14nm shrink ein Jahr später könnte letztendlich Platz für noch größere iGPUs schaffen (Broadwell mit GT4 Grafik?). Im ULV Segment hat Intel mit der HD4000 übrigens auf dem Papier schon jetzt die stärkere iGPU. Bei dem 17W Gegenstück von AMD sehe ich das nur eine Modul als Problem. Es gibt genügend Spiele, die mit 1-2 Kernen sehr zäh laufen und wie wir wissen bringt 1 Modul nicht die Leistung zweier vollwertigen Kerne. Man könnte sich das als 1,5 Kern CPU vorstellen. Das kann echt zum Problem werden für einige Spiele. Ich denke da an die Codemasters Spiele. Der A6-4455M mit 2,1 Ghz @1 Modul ist hier sehr unterbelichtet ausgestattet.
 
Also über Kaveri würde ich mir keine Sorgen machen. Nicht nur dass die CPU dann ordentlich aufgebohrt wird, da jedes Modul dann 2 Decoder hat. Sondern auch die igp Performance richtung 7750 kommen soll.
AMD arbeitet ja daran, dass zwischen CPU und GPU nicht unterschieden wird, und könnte soviel ich verstanden habe trotz DDR3 noch gut in die Performance einer 7750 rauskitzeln.
Weieres wartet mal auf das Desktop Modell, denn dann wird man sehen ob noch etwas aus der igp zu holen ist.
 
Die Decoder-Nummer muss sich erst mal zeigen.
 
Mit einer SSD gewinnt man in den meisten Anwendungen, die für dieses Segment relevant sind, keine Anwendungs-Performance, da eine SSD nur Ladezeiten verkürzt. ;)

Du wartest genauso, und wann die CPU anfängt zu rechnen und wann nicht hängt ja eben auch von den anderen Komponenten ab!
 
Du wartest genauso, und wann die CPU anfängt zu rechnen und wann nicht hängt ja eben auch von den anderen Komponenten ab!

Die SSD Diskussion habe ich im Prozessoren Unterforum nie so ganz verstanden. Wenn ich zwischen zwei CPUs, einer schnellen und einer langsamen, wählen kann, beide das gleiche kosten - klar würde mir eine SSD immer noch einen größeren Geschwindigkeitsvorteil als die schnelle vor der langsamen CPU bringen - also kaufe ch mir die SSD - nur muss ich mir nach dem Kauf der SSD dann immer noch eine CPU kaufen. Und gebe ich den Betrag dann für eine schnelle oder eine langsame CPU aus? Leute, eine SSD hat doch eh jeder, der Wert auf Geschwindigkeit legt. Aber hier geht es doch um CPUs.
 
Zuletzt bearbeitet:
Du wartest genauso, und wann die CPU anfängt zu rechnen und wann nicht hängt ja eben auch von den anderen Komponenten ab!

Natürlich, aber die viel beschworene SSD verkürzt meist nur die Programmladezeiten. Wie schnell das Programm dann "Läuft" hängt eher vom Restsystem ab, dessen Kern die CPU ist. CPU-Rechenleistung kann man durch nichts ersetzen. Eine Atom-/Brazos-Krücke bleibt auch mit einer SSD eine Krücke. ;)
 
Es gibt genügend Spiele, die mit 1-2 Kernen sehr zäh laufen und wie wir wissen bringt 1 Modul nicht die Leistung zweier vollwertigen Kerne.

Natürlich bringt es die Leistung zweier vollwertiger Kerne. Aber eben durch mehr Takt, welcher bei 2 vollwertigen Kernen nicht möglich wäre.
Davon abgesehen muss man sich jetzt aber mal langsam von dem Gedanken verabschieden, dass es kein vollwertiger Kern sei, zumindest im Bezug auf die Funktion. 1 Modul läuft nicht zäher als ein dualcore mit 10% weniger Takt.

Was ist denn, wenn Steamroller oder Excavator die IPC beide male nochmal um 10% steigern? Dann redet doch plötzlich niemand mehr von 1,5 "Kernen".


Das kann echt zum Problem werden für einige Spiele. Ich denke da an die Codemasters Spiele. Der A6-4455M mit 2,1 Ghz @1 Modul ist hier sehr unterbelichtet ausgestattet.

Nicht wirklich, Balzon.
Eine hochgetakete Integer Einheit würde mir Kopfschmerzen bei Spielen bereiten, ein Modul mit hohem Takt eher weniger.
Ich glaub ein FX-2500 ( oder ähnlich) mit 2x 5ghz ( natürlich mit Piledriver Kernen), würde für ~ 70 Euro reißenden Absatz finden.
 
Zuletzt bearbeitet:
Die SSD Diskussion habe ich im Prozessoren Unterforum nie so ganz verstanden. Wenn ich zwischen zwei CPUs, einer schnellen und einer langsamen, wählen kann, beide das gleiche kosten - klar würde mir eine SSD immer noch einen größeren Geschwindigkeitsvorteil als die schnelle vor der langsamen CPU bringen - also kaufe ch mir die SSD - nur muss ich mir nach dem Kauf der SSD dann immer noch eine CPU kaufen. Und gebe ich den Betrag dann für eine schnelle oder eine langsame CPU aus? Leute, eine SSD hat doch eh jeder, der Wert auf Geschwindigkeit legt. Aber hier geht es doch um CPUs.

Na mir gehts nur um Preis/Leistung, würde sonst auch Ivy bevorzugen
 
Schaffe89 schrieb:
Eine hochgetakete Integer Einheit würde mir Kopfschmerzen bei Spielen bereiten, ein Modul mit hohem Takt eher weniger.

2,1GHz sind in dem Fall allerdings nicht wirklich viel, die Performance entspricht etwa einem 6 Jahre alten Turion-Dualcore. Immerhin ist die für das Ansprechverhalten wichtige Singlethreadleistung im Verhältnis ganz akzeptabel.
 
Undertaker1 schrieb:
2,1GHz sind in dem Fall allerdings nicht wirklich viel, die Performance entspricht etwa einem 6 Jahre alten Turion-Dualcore.

Ich meinte damit eher allgemeines, dass das Modul Design nicht zum Problem wird.
Ein so niedrig getaktetes Modul kankt halt nicht am Design, sondern an der Taktrate.
 
Du hast wie üblich nicht den ganzen Inhalt zitiert und nur einen Teil, außerdem ich habe nicht von Skalierung gesprochen, sondern von Leistung.
Vishera wird wohl leistunsgmäßig zwei vollwertige Phenom II Kerne übertreffen bei einem aktiven Modul --> Zie erfüllt.
Du willst uns hier erzählen wollen, AMD habe per se mit dem CMT Design ein Problem bei einem 1 Moduler, und das ist mit Nichten so.
 
Einige haben von einem ausgebauten Abstand der GPU Performance mit Trinity fabuliert. Herausgekommen ist dies...

3jbexih8.png

AnandTech - The AMD Trinity Review (A10-4600M): A New Hope


...genau das Gegenteil.

Vielleicht meinten die auch die Desktop-APUs und keine 35W Notebook varianten.
Der verglichene Ivy Bridge hat immerhin 45W TDP, das macht bei dem knappen TDP Rahmen schon nen bisschen was aus denke ich.
Außerdem würde ich gern mal Screenshots von den tests sehen, die letzten Spiele die ich auf einer Intel GPU gesehen habe liefen teilweise mit eingeschränkten Effekten, weil bestimmte Funktionen nicht zur Verfügung standen.
Es mag genug Fälle geben wo Ivy mit sicherheit das interessantere Gesammtpaket bietet, aber nach dem Benchmark ohne weitere Informationen die Grafikeinheiten als gleichwertig zu bezeichnen halte ich für gewagt.
Die sollen mal schnell machen, was die Desktop Varianten angeht, oder die Notebook APUs auf Boards mit kleinen Formfaktoren packen und verkaufen. Mein HTPC setzt schon Staub an und braucht dringend ein Update ;-)
 
Vielleicht meinten die auch die Desktop-APUs und keine 35W Notebook varianten.
Der verglichene Ivy Bridge hat immerhin 45W TDP, das macht bei dem knappen TDP Rahmen schon nen bisschen was aus denke ich.

Der nur mit 35W spezifizierte i7-3520M besitzt den selben GPU-Takt wie der von Anandtech getestete 3720QM, dessen schnellere CPU in die Spielebenchmarks wohl ohne Einfluss war. Darüber hinaus hat selbst das schnellste 17W Modell noch 92% der GPU-Taktrate des 3720QM.

Außerdem würde ich gern mal Screenshots von den tests sehen, die letzten Spiele die ich auf einer Intel GPU gesehen habe liefen teilweise mit eingeschränkten Effekten, weil bestimmte Funktionen nicht zur Verfügung standen.

Das kann dann höchstens die HD 3000 gewesen sein, die kein DX11 unterstützte. Auf der HD 4000 sollte alles dargestellt werden können, inkl. Tesselation o.ä.

Insgesamt hat Trinity natürlich die bessere GPU, aber dafür müssen insbesondere im Notebook die Bedingungen auch bis ins Detail passen. Das bedeutet schneller Dualchannel-RAM und möglichst das Topmodell A10, das glatt 50% mehr Shadereinheiten als der nächstkleinere A8 besitzt. Andernfalls ist der Vorsprung schnell dahin oder kehrt sich gar ins Gegenteil.
 
Auf CB gibts einen Diablo 3 Test wo HD4000 ziemlich schwächelt das heißt in kleinen Notebooks machen die Ivys eh nicht viel sinn, und auch der Anschaffungspreis ist hoch, bei den amds werden noch 25W Modelle folgen.
 
Naja kann auch Treiberbedingt sein, das ist ja nicht so Intels stärke... Fehlen bestimmt die monetären Ressourcen zu... :d
 
Da HD2000 bis HD4000 auf einem Niveau liegen und selbst mit AA/AF nicht langsamer werden, ist das klar ein Treiberproblem. Trotzdem schwach, dass man für so einen Titel nicht gleich zum Launch ein passendes Update parat hat.
 
Also über Kaveri würde ich mir keine Sorgen machen. Nicht nur dass die CPU dann ordentlich aufgebohrt wird, da jedes Modul dann 2 Decoder hat.
Das mit den Decodern ist bisher nur Spekulatius. Ich persönlich würde nicht darauf wetten, weil es:
1. den Energiebedarf erhöht
2. nicht bei singlethreaded hilft
3. nur für mulithreaded interessant ist; man dort aber bereits mit CMT sehr gut aufgestellt ist


Vielleicht meinten die auch die Desktop-APUs und keine 35W Notebook varianten.
Zum einen das. Zum anderen sagen die Diagramme zur GPU auch nicht viel aus. Dort wird praktisch nur die Systemperformance wiedergegeben. Was also konkret auf die GPU abfällt, ist dabei nicht ersichtlich. Anandtechs HD 4000 Vergleiche beziehen sich auf den i7-3720QM. Und der hat CPU-seitig halt doppelt so viele Threads wie Trinity. Bei Spielen, die gut mit Threads skalieren, ist das natürlich ein Vorteil.
 
Gerade bei Fudzilla gelesen, es kommt sogar ein 35W-Modell mit einer 100 MHz schnelleren GPU als der 3720QM bei Anandtech:

Mobile Core i7 3525M comes in Q3 2012

Das Modell dürfte bei gleicher TDP-Klasse wie Trinity (A10-4600M) also nochmal einen kleinen Leistungsschub bringen, was den durchschnittlichen Vorsprung (Anandtech) der 7660G von 20 auf dann vielleicht noch 15 Prozent drücken könnte. Noch wichtiger wäre natürlich, dass man die Treiber mal richtig in den Griff bekommt, das ist wohl der größte Vorteil der Trinity-GPU. Ansonsten ist das Grafikduell mit dieser Generation wohl nochmals ein wenig enger geworden.
 
ich habe nicht von Skalierung gesprochen, sondern von Leistung.

Ich bezog mich auf die Skalierung.

AMD FX-8150 - Bulldozer im ausfhrlichen Test - Was bringt Core Multithreading (CMT)? (Seite 16) - HT4U.net

Die Skalierung beim Großteil von multithreaded Programmen liegt bei 50-70%. Für mich ist das eine Modul eine 1,5 Kern CPU.


Llano hatte den besseren Stand letztes Jahr gegenüber Sandy Bridge im mobile Segment. Die Grafik Performance sowie die Features (dx11, besseres AF, GPU-OpenCL etc.) machten einen viel größeren Unterschied aus. Den riesen Vorteil hat AMD nicht mehr während die CPU Performance kaum näher gekommen ist. AMD muss über den Preis punkten, aber das ist nichts neues mehr. Und die 17W Variante gut und schön, aber 1 Modul empfinde ich nicht als zeitgemäß. Wenn es wenigstens zwei vollwertige Kerne wären, wäre multithreading für eine 17W CPU nicht zu beanstanden. Das ist ein Nachteil der Modulbauweise.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh