2. APU-Generation: AMD stellt "Trinity"-Prozessoren vor

Noch weiß keiner so richtig, wie der CPU-Turbo in der Praxis arbeitet - man kann es halt noch nicht auslesen. Gesetzt den Fall, dass ein 2-Moduler bei vielen Anwendungen durchschnittlicher Parallelisierung wohl nur mit der (bei 17W wohl extrem niedrigen) Basistaktrate arbeiten würde, hätte das eine extrem geringe pro-Thread-Leistung zur Folge. Ob man so dann noch sinnvoll damit arbeiten könnte? Mag sein das das der Grund ist, nur 1 Modul im 17W-Bereich anzubieten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du hast aber von einem Problem der Modulbauweise gesprochen un des gibt es erg nur bei einem Modell mit schlicht zu wenig Takt, nicht generell wegen der schlechteren skalierung.
Vielleicht hab ich dich diesbezüglich auch etwas missverstanden.

Balzon schrieb:
Und die 17W Variante gut und schön, aber 1 Modul empfinde ich nicht als zeitgemäß.

Wusste ichs doch, dass ich es doch richtig verstanden habe.
Natürlich ist ein Modul zeitgemäß, aber auch nur wenn der Takt ausreichend ist.

Wenn es wenigstens zwei vollwertige Kerne wären, wäre multithreading für eine 17W CPU nicht zu beanstanden. Das ist ein Nachteil der Modulbauweise.

Ja und diese CPU bei 2 vollwertigen kernen braucht dann mehr Strom und ist deswegen multithreaded auch nicht schneller, irgendwo haperst bei dir mit der Logik.
CMT ist per se nicht problematisch. :rolleyes:

Du kannst ja dann mal Trinity 17 Watt mit Bobcat 18 watt TDP vergleichen und dann gegenüberstellen wär multithreaded schneller ist.
Wird wohl Trinity sein, trotz "nicht zeitgemäßem Kern".

Undertaker schrieb:
Mag sein das das der Grund ist, nur 1 Modul im 17"-Bereich anzubieten.

Ich denke auch.
Lieber zwei höher taktende Threads als 4 langsam taktende, vor allem bei solchen Low Power Lösungen.
 
Zuletzt bearbeitet:
Vielleicht meinten die auch die Desktop-APUs und keine 35W Notebook varianten.

Richtig, kann ich ebenfalls bestätigen, dass es um Desktop-APUs ging. Und ich kann es sogar belegen: http://www.hardwareluxx.de/communit...ty-apu-amd-a10-5800k-880547.html#post18615806
In dem Thread ist klar ersichtlich, dass es um das Desktop-Modell A10-5800K (& A8-3850) geht, damit ist auch offensichtlich dass man sich nicht auf Ivy Bridge Mobile Modelle bezieht. Allerdings wurde von dem einen oder anderen User versucht die Diskussion auf die Mobile-Sparte zu lenken, auch wenn die News/der Thread-Titel bereits das Thema definitiert hatte.

MMn sind IGP-Vergleiche im Mobile-Segment ohnehin schwieriger, unzuverlässiger und auch weniger reproduzierbar oder zumindest schlechter nachvollziehbar, da bei den Mobile-APUs/CPUs viel häufiger und stärker ein CPU-Limit, Speicher-Bandbreiten-Limit (-> Single-Channel, DDR3-1333/1600 statt DDR3-1866) oder TDP-Limit (Stichwort: Turbo voll ausfahren) vorliegt als bei den Dekstop-APUs/CPUs. Diese Hemmschuhe hat man im Desktop-Bereich einfach seltener und falls, nicht so stark ausgeprägt. Die Bewertung der Leistung einer neuen GPU(Generation) geht mit Desktop-Modellen also besser.

Vielleicht kann uns Balzon noch sagen welche User er mit "fabuliert" konkret meint? Denn ich beispielweise habe deutlich gemacht, dass Trinity die Führung gegenüber Ivy Bridge bei der GPU ausbauen würde, wenn die 65% Performance-Steigerung zwischen Llano und Trinity denn stimmt. Nachher hat sich herausgestellt, dass die Llano Werte offenbar mit DDR3-1333 entstanden ware: http://www.hardwareluxx.de/communit...-apu-amd-a10-5800k-880547-2.html#post18664815

Mit DDR3-1866 auf Llano-Seite dürfte der Abstand zu Trinity also vermutlich geringer als 65% ausfallen (es sei denn Trinity wurde auch mit DDR3-1333). Es könnte(!) aber dennoch knapp für einen Führungsausbau der Trinity GPU gegenüber Intel reichen, da die Ivy Bridge GPU HD4000 (i7 3770K) gegenüber der HD3000 (i7 2600K) im Schnitt laut Computerbase nur max. 32% und laut HT4U 37% an Leistung zugelegt hat. Und dabei gingen einige bei Ivy Bridge schon von einer ungefähren Leistungsverdoppelung gegenüber Sandy Bridge bezüglich GPU aus (sogar von Llano-Niveau war bereits die Rede):
http://www.hardwareluxx.de/communit...-apu-amd-a10-5800k-880547-2.html#post18634022
http://www.hardwareluxx.de/community/f11/haswell-wird-ein-grafikmonster-charlie-d-871718-2.html

Dabei hat es bei der HD4000 (i7 3770K) noch nicht mal für die deutlich abgespeckte HD 6530D (A6-3650) gereicht:
Intel Core i7 3770K - "Ivy Bridge" im ausfhrlichen Test - Prozessorvergleich [iGPU] (Seite 61) - HT4U.net

Und selbst wenn man den Mobile-Bereich berücksichtig, hat die HD4000 gegenüber der HD3000 im Schnitt auch nur um max. 40% zugelegt, das sagt zumindest Computerbase und Notebookcheck. Ich hätte mir von Balzon deshalb eher einen rückblickenden Hinweis gewünscht als Ivy Bridge vorgestellte wurde, da hätte der Ausdruck "fabuliert" möglicherweise gepasst.
 
Zuletzt bearbeitet:
Weder die starken 3DMark-Ergebnisse der HD 4000 noch von Trinity konnten sich in der Praxis bestätigen - wo manche synthetischen Benchmarks in der Tat zum Teil Steigerungen von fast 100 (3DMark Vantage!) bzw. 65 Prozent (3DMark 11 kommt da zumindest nah heran) zeigten, haben wir nun im Mobilsektor die von dir erwähnten 30-40 Prozent bzw. bei Trinity etwa 20 Prozent. Nun, da sind wir beide wohl nicht die einzigen, die etwas vorschnell den Herstellerversprechen Glauben geschenkt haben. ;)

Grundsätzlich erfordern GPU-Vergleiche im Mobilbereich vielleicht mehr Sorgfalt, sind wohl aber für noch mehr Geräte interessanter als der schrumpfende Desktop-Markt. Das es z.B. durch TDP-Grenzen dabei zu Leistungseinbußen kommen kann ist vollkommen legitim - was nützt schon ein gigantischer Turbo, wenn der in der Praxis nicht ausgeschöpft werden kann?
 
Du hast aber von einem Problem der Modulbauweise gesprochen un des gibt es erg nur bei einem Modell mit schlicht zu wenig Takt, nicht generell wegen der schlechteren skalierung.
Vielleicht hab ich dich diesbezüglich auch etwas missverstanden.

Nein das habe ich nicht. Denn die Sorgen habe ich explizit nur beim 1 Moduler.

Wusste ichs doch, dass ich es doch richtig verstanden habe.

Jedenfalls den Punkt mit der Skalierung hast Du falsch verstanden.

Richtig, kann ich ebenfalls bestätigen, dass es um Desktop-APUs ging.

Den Thread habe ich mit keiner Silbe erwähnt, keine Ahnung was Du damit aussagen willst. Davon abgesehen wurde schon immer davor gewarnt, dass man mobile und Desktop trennen muss. Das haben viele nicht getan. Dabei sollte klar sein, dass das mobile Segment bei AMD und Intel klar die höhere Priorität genießt und in dem Segment die integrierte Grafikleistung eine größere Bedeutung darstellt. Diese user haben es ständig verallgemeinert, von einer expliziten Desktop Erwähnung kann keine Rede sein, zumal AMD von Anfang an die größere GPU Steigerung im mobile Segment versprochen hat. Im Desktop sprachen die Folien von 20-30%. Auch wenn der ein oder andere die 50%+ Nennungen von AMD bezüglich des mobilen Trinity gerne auf den Desktop Trinity übertragen wollte.

Vielleicht kann uns Balzon noch sagen welche User er mit "fabuliert" konkret meint? Denn ich beispielweise habe deutlich gemacht, dass Trinity die Führung gegenüber Ivy Bridge bei der GPU ausbauen würde, wenn die 65% Performance-Steigerung zwischen Llano und Trinity denn stimmt.

Wenn Du dich angesprochen fühlst, ist das nicht mein Problem. Es gab in diversen Foren Leute die von einem ausgebauten Abstand fabuliert haben. Zwei Beispiele:

Planet 3DNow! Forum - Einzelnen Beitrag anzeigen - Kann AMD mittelfristig noch mithalten?
SemiAccurate Forums - View Single Post - ivy clocks

Nachher hat sich herausgestellt, dass die Llano Werte offenbar mit DDR3-1333 entstanden ware: http://www.hardwareluxx.de/communit...-apu-amd-a10-5800k-880547-2.html#post18664815

Das hat sich nicht nachher rausgestellt, das war von Anfang an klar. Die Werte waren zu niedrig, woran das lag ist unerheblich. Und nein, 3dmark Steigerungen müssen nicht zwangsläufig etwas mit durchschnittlichen Steigerungen im Spiel zu tun haben von der wir reden.

Dabei hat es bei der HD4000 (i7 3770K) noch nicht mal für die deutlich abgespeckte HD 6530D (A6-3650) gereicht:

Mit ht4u haste dir schön das beste rausgesucht, Gratulation. In anderen Tests bestätigt sich eher das Bild von Computerbase mit ~35-40% zum 3850 und eine Differenz im einstelligen Prozentbereich zum A6-3650.

Und selbst wenn man den Mobile-Bereich berücksichtig, hat die HD4000 gegenüber der HD3000 im Schnitt auch nur um max. 40% zugelegt, das sagt zumindest Computerbase und Notebookcheck.

Und Anandtech sagt 50% in einer weit größeren Spieleauswahl. In der gleichen Spieleauswahl liegt Trinity nur 20% vor Llano. Das ist mit Sicherheit deutlich weniger als die meisten erwartet haben. Dabei hat AMD nur das eine Modell was sich nennenswert absetzen kann. Die anderen Varianten sind bereits abgespeckt. Wie gesagt, Llano hatte hier mit der 50-80% schnelleren GPU +DX11+OpenCL+WU-AF ein deutlich größeres Alleinstellungsmerkmal.
 
Weder die starken 3DMark-Ergebnisse der HD 4000 noch von Trinity konnten sich in der Praxis bestätigen - wo manche synthetischen Benchmarks in der Tat zum Teil Steigerungen von fast 100 (3DMark Vantage!) bzw. 65 Prozent (3DMark 11 kommt da zumindest nah heran) zeigten, haben wir nun im Mobilsektor die von dir erwähnten 30-40 Prozent bzw. bei Trinity etwa 20 Prozent. Nun, da sind wir beide wohl nicht die einzigen, die etwas vorschnell den Herstellerversprechen Glauben geschenkt haben. ;)

Herstellerversprechen (ich weiß noch nicht mal nicht mal was AMD bei Desktop-Trinity gegenüber Desktop-Llano an GPU-Leistungssteigerung versprochen hat) und Mobile-Ergebnisse sind mir persönlich ziemlich egal, denn ich habe mich nie darauf bezogen. Vom ersten Posting an stets nur auf den Desktop-Bereich. Da der Desktop-Trinity noch nicht mal gelauncht wurde und somit keine GPU-Ergebnisse vorliegen, kann man nicht davon reden, dass ich vorschnell jemanden Glauben geschenkt habe (wenn überhaupt, dann den Benchmarks eines chinesischen Users). Ich habe jedoch ohnehin im Konjunktiv geredet und nur eine Prognose (Ausbau der Führung) abgegeben unter der Voraussetzung, wenn die 65% Steigerung stimmen sollten.
Da sie aber mit DDR3-1333 entstanden sind, kann man bezweifeln, dass der Abstand zwischen Desktop-Llano und Desktop-Trinity tatsächlich so große sein wird, womit auch die Voraussetzung für die Prognose nicht erfüllt ist und damit hinfällig wäre. Allerdings besteht immer noch die Möglichkeit dass AMD die Führung gegenüber Intel bei den GPUs ausbaut, es würde bereits reichen wenn die Trinity-GPU im Desktop-Bereich ca. 40% gegenüber der Llano-GPU zulegt.

Grundsätzlich erfordern GPU-Vergleiche im Mobilbereich vielleicht mehr Sorgfalt, sind wohl aber für noch mehr Geräte interessanter als der schrumpfende Desktop-Markt. Das es z.B. durch TDP-Grenzen dabei zu Leistungseinbußen kommen kann ist vollkommen legitim - was nützt schon ein gigantischer Turbo, wenn der in der Praxis nicht ausgeschöpft werden kann?

Zum schrumpfenden Desktop-Markt: Ob das auch auf Märkte wie China zutrifft, wo noch hohes Wachstumspotential herrscht und die sehr wichtig für AMD sind, wäre ich mir nicht sicher. Es gab generell relativ wenig Llano Notebook-Modelle, daher könnte man zumindest vermuten, dass viele oder sogar mehr APUs als Desktop-Modelle in China verkauft wurden. Möglicherweise will AMD mit dem überraschend späten Launch der Desktop-Trinitys genug APUs produzieren/ansammeln um diesmal die immense Nachfrage in China & Co. befrieden zu können. Man würde den PC-Herstellern damit auch mehr Planungssicherheit bieten.

Wie gesagt, die Benchergebnisse der Notebooks sind mir viel zu inkonsistent und scheinen zum Teil sogar von der Güte des einzelnen CPU-Exemplars und/oder der Qualität der Notebook-Kühlung abzuhängen (-> Turboschaltung). Ausserdem sind wir bereits mit den Llano/Trinity-Topmodellen an einem Punkt angelangt, wo selbst Dual-Channel mit DDR3-1600 (noch dazu idR CL11) die integrierten GPUs deutlich ausbremst. Das kann ich z.B. mit meinem A8-3820 (GPU auf Mobile-Niveau getaktet) nachstellen. Für mich bleiben daher die Desktop-Modelle relevant.
Es kann bezügliche Testergebnisse ohnehin schon genug bei Desktop-Plattformen gelenkt und manipuliert werden, da kann ich gerne auf das Chaos bei den Mobile-Plattformen verzichten um eine neue Architektur/Generation zu beurteilen.
 
dass ich vorschnell jemanden Glauben geschenkt habe (wenn überhaupt, dann den Benchmarks eines chinesischen Users). Ich habe jedoch ohnehin im Konjunktiv geredet und nur eine Prognose (Ausbau der Führung) abgegeben unter der Voraussetzung, wenn die 65% Steigerung stimmen sollten.
Da sie aber mit DDR3-1333 entstanden sind, kann man bezweifeln, dass der Abstand zwischen Desktop-Llano und Desktop-Trinity tatsächlich so große sein wird, womit auch die Voraussetzung für die Prognose nicht erfüllt ist und damit hinfällig wäre. Allerdings besteht immer noch die Möglichkeit dass AMD die Führung gegenüber Intel bei den GPUs ausbaut, es würde bereits reichen wenn die Trinity-GPU im Desktop-Bereich ca. 40% gegenüber der Llano-GPU zulegt.

Es war von Anfang an beim Vergleich mit den Benchmarkwerten anderer Seiten klar, dass die Llano Werte zu niedrig waren - und wenn man diese ohne entsprechende Verifikation für weitere Prognosen nutzt, ist das in der Tat etwas vorschnell, dass kann man nicht leugnen. ;) Trifft übrigens genauso auf den Versuch zu, die 3DMark Vantage Scores der HD 4000 auf andere Fälle zu übertragen - warum der GPU dieser Benchmark so extrem gut liegt (endlos optimiert war er auch schon bei der HD 3000, das kanns kaum sein), ist wohl immernoch unklar. Daraus folgte dann die Schlussfolgerung, dass Ivy für einen konstanten Abstand 140% zulegen müsste - das leuchtet mir heute noch nicht ein, aber das ganze Thema sollte man auch abhaken. Hier wirds schon interessanter:

Zum schrumpfenden Desktop-Markt: Ob das auch auf Märkte wie China zutrifft, wo noch hohes Wachstumspotential herrscht und die sehr wichtig für AMD sind, wäre ich mir nicht sicher. Es gab generell relativ wenig Llano Notebook-Modelle, daher könnte man zumindest vermuten, dass viele oder sogar mehr APUs als Desktop-Modelle in China verkauft wurden. Möglicherweise will AMD mit dem überraschend späten Launch der Desktop-Trinitys genug APUs produzieren/ansammeln um diesmal die immense Nachfrage in China & Co. befrieden zu können. Man würde den PC-Herstellern damit auch mehr Planungssicherheit bieten.

Dem Hersteller kann es letztlich relativ egal sein, wo seine CPU verkauft wird - sofern das denn überhaupt geschieht. Im Gesamtmarkt, und das zählt, überwiegen mittlerweile auch bei AMD die Notebooks und wachsen weiter - da ist China natürlich als eines von vielen Ländern mit eingeschlossen, selbst wenn es im Einzelfall Abweichungen gibt. Zu den höheren Stückzahlen kommen die idR auch höhere ASPs im Notebookmarkt, damit ist dieser insgesamt klar der Wichtigere.

Wie gesagt, die Benchergebnisse der Notebooks sind mir viel zu inkonsistent und scheinen zum Teil sogar von der Güte des einzelnen CPU-Exemplars und/oder der Qualität der Notebook-Kühlung abzuhängen (-> Turboschaltung). Ausserdem sind wir bereits mit den Llano/Trinity-Topmodellen an einem Punkt angelangt, wo selbst Dual-Channel mit DDR3-1600 (noch dazu idR CL11) die integrierten GPUs deutlich ausbremst.

Da hast du ja in allen Punkten vollkommen Recht. ;) Aber wie schon gesagt: Für reale Produkte sind genau solch praxisnahe Ergebnisse immens wichtig. Und nur um das noch klar zu stellen: Die Benchmarks von AMDs A10-Notebook sind das Ergebnis eines höchst optimierten Systemes und bzgl. ihrer Konsistenz zwischen verschiedenen Seiten auch sehr eindeutig - da lässt sich nichts dran mäkeln. Im Vorfeld wurde das sogar so weit getrieben, das Systeme schon außerhalb der nun bekannten Spezifikation betrieben wurden, wodurch unrealistisch hohe Scores erzielt wurden:

Meet the 2nd Generation AMD A- Series APU codenamed

Hier wurde das 17W Modell mit Dualchannel DDR3-1600 gefüttert. Über das zweite Modul will ich dabei mal gar nicht so sehr meckern - obwohl du das in einem "AMD-Ultrabook" (man setze den offiziellen Namen ein, ka) wohl nie so finden wirst. DDR3-1600 ist für dieses Modell jedoch nichteinmal freigegeben, sondern höchstens DDR3-1333.

Letztendlich haben wir gestern den Vergleich eines gestellten Herstellersystem gegen eine bunte Sammlung mehr oder weniger optimierter Retailnotebooks gesehen - und da wird sich dann noch beschwert, wenn einige Seiten ein ebensolches auch auf AMD-Seite einsetzen? Sry, aber da legst du zweierlei Maß an. Vergiss von mir aus auch die komischen CB-Ergebnisse, Notebookcheck hat realistischere Werte für das Asus-Gerät. Der von dir geforderte, isolierte Architektur-Vergleich ist durchaus ein interessanter Aspekt, das gilt aber ebenso für die Beurteilung praxisnaher Systeme. Beides hat seine Berechtigung, ähnlich wie lowres-Tests bei CPUs. Eine Forderung nach solchen habe ich von dir aber noch nicht lesen können. ;)
 
Balzon schrieb:
Nein das habe ich nicht. Denn die Sorgen habe ich explizit nur beim 1 Moduler.

Warum?
Meinst du ein Llano wäre effizienter als Pileriver mit CMT multithreaded bei nur 17 Watt TDP?
CMT ist doch dafür da die Effizienz zu verbessern bei nur ~12 % mehr Fläche 80% mehr Performance durch den zweitern Integer Kern.
 
Zuletzt bearbeitet:
Die Notebook Apu's stehen schon ganz gut da weils auch eine 25W Variante gibt, so ein Chip kostet maximal 60 Euro und hat noch Potential.
 
Den Thread habe ich mit keiner Silbe erwähnt, keine Ahnung was Du damit aussagen willst. Davon abgesehen wurde schon immer davor gewarnt, dass man mobile und Desktop trennen muss. Das haben viele nicht getan.

Wenn Du dich angesprochen fühlst, ist das nicht mein Problem. Es gab in diversen Foren Leute die von einem ausgebauten Abstand fabuliert haben. Zwei Beispiele:

Planet 3DNow! Forum - Einzelnen Beitrag anzeigen - Kann AMD mittelfristig noch mithalten?
SemiAccurate Forums - View Single Post - ivy clocks

Es tut mir ja leid, aber nach dem Posting deines tollen Einzeilers, habe ich versucht nachzuvollziehen, wen du hier gemeint haben könntest und mir die Mühe gemacht nach Threads zu suchen, die dieses Thema überhaupt behandelt haben. Das waren die zwei Threads, die ich vorhin schon verlinkt habe:
http://www.hardwareluxx.de/communit...von-der-trinity-apu-amd-a10-5800k-880547.html
http://www.hardwareluxx.de/community/f11/haswell-wird-ein-grafikmonster-charlie-d-871718.html
Die Vermutung, dass User aus diesen Threads gemeint waren, lag doch nahe.
Ich wäre niemals auf die Idee gekommen, dass du dich auf andere Foren beziehst. Manchmal ist es besser man adressiert Kritik (oder was das auch war) weniger allgemein und nennt einfach Roß und Reiter. Sonst kann das etwas deplaziert wirken.
Du kannst auch gerne konkrekt werden, wer Desktop und Mobile nicht getrennt hat. Wobei wenn es wieder nichts mit diesem Forum hier zu tun hat, interessiert es vermutlich kaum jemanden.

Interessant ist übrigens auch, dass du die über Ivy Bridge "fabulierenden" Leute (Stichwort: verdoppelte GPU-Leistung) nach dem IB-Launch nicht mit einem schnittigen Kurzkommentar auf den Boden der Tatsachen geholt hast.


Das hat sich nicht nachher rausgestellt, das war von Anfang an klar. Die Werte waren zu niedrig, woran das lag ist unerheblich. Und nein, 3dmark Steigerungen müssen nicht zwangsläufig etwas mit durchschnittlichen Steigerungen im Spiel zu tun haben von der wir reden.

Wenn es von Anfang an klar war, warum hast du die Llano-Werte dann erstmal als nicht korrekt bezeichnet? Welcher RAM-Takt gefahren wurde, konnte erst mit der Benchübersicht von emissary42 nachvollziehbar aufgezeigt werden. Dort kann man auch wunderbar sehen wann RAM-, CPU- oder GPU-Takt limitieren.
Interessant ist zum Beispiel, dass die 3DMark-Werte des A8-3870K selbst mit ~33% GPU-OCing nur sehr moderat zunehmen und auch mit zusätzlichem ~20% CPU-OCing nicht an die Trinity 3DMark06-Werte heranreichen. Vielleicht wurde der Trinity sogar GPU-seitig übertaktet.


Mit ht4u haste dir schön das beste rausgesucht, Gratulation. In anderen Tests bestätigt sich eher das Bild von Computerbase mit ~35-40% zum 3850 und eine Differenz im einstelligen Prozentbereich zum A6-3650.

Ich habe mir HT4U herausgesucht, weil HT4U einen direkten Vergleich zwischen HD4000 und HD 6530D (A6-3650) zu bieten hat, den habe ich bei Computerbase nicht finden können. Vielleicht waren sie zu faul, hatten zu wenig Zeit dazu oder wollten die direkte Gegenüberstellung vermeiden, wer weiß?


Und Anandtech sagt 50% in einer weit größeren Spieleauswahl. In der gleichen Spieleauswahl liegt Trinity nur 20% vor Llano.

Für mich persönlich lese ich Anandtech Artikel eigentlich nie, nur gelegentlich wenn ich bei Diskussionen speziell auf Testabschnitte hingewiesen werde. Und fast jedes Mal wenn ich mir daraufhin die entsprechende Artikel anschaue, finde ich Ungereimtheiten, fragwürdige Konfigurationen/Konstellationen oder ähnliches. So auch nun beim Trinity-Test, z.B. der Skyrim Benchmark:


Quelle: AnandTech - The AMD Trinity Review (A10-4600M): A New Hope

Wie recht gut zu erkennen, lässt man mittels der gewählten Einstellung die AMD-APUs in CPU-Limit laufen, eine HD 7660G kann sich dadurch selbst von der HD3000 nur um 17,5% (i7-2820QM) bzw. 23% (i5-2410M) absetzen. Eine HD4000 ist dort sogar über 15% schneller als die HD 7660G, das aber nur nebenbei, ich konzentriere mich jetzt mal auf den Vergleich zur HD3000.

Das sieht z.B. bei THG mehr als deutlich andere aus:
Benchmark Results: The Elder Scrolls V: Skyrim : AMD A10-4600M Review: Mobile Trinity Gets Tested
Teilweise ist die HD 7660G (A10-4600M) 110%-140% schneller als die HD3000 (i5-2450M), also mehr als doppelt so schnell. Nur bei der letzten Einstellung mit FXAA enable liegt die HD 7660G (A10-4600M) bloß noch 67% vor der HD3000 (i5-2450M). THG meint dazu übrigens (keine Ahnung obs stimmt):
At 1600x900, MSAA is turned off in favor of FXAA, a CPU-based anti-aliasing algorithm...

Aber auch Notebookcheck bescheinigt der HD 7660G bei mittlerer Einstellung min. 120% (im Schnitt sogar 190%) mehr Leistung gegenüber der HD3000 bei Skyrim (auch die HD4000 wird souverän mit durchschnittlich 60% geschlagen):
AMD Radeon HD 7660G - Notebookcheck.com Technik/FAQ
Intel HD Graphics 3000 - Notebookcheck.com Technik/FAQ
Intel HD Graphics 4000 - Notebookcheck.com Technik/FAQ
Und selbst wenn man das "Min.-Preset" bei Notebookcheck heranzieht, kann sich die HD 7660G in jedem Fall mindesten 50% von der HD3000 absetzen und ist mit der HD4000 wenigstens gleichauf.



@Undertaker 1
Den Rest schau ich mir morgen an, habe noch bissl was anderes zu tun. :) Kommt mir jetzt schon wie Zeitverschwendung vor den Quatsch von Anandtech, Computerbase und Co. zu analysieren und kommentieren...
 
Zuletzt bearbeitet:
Wäre wieder mal bezeichnend für Anandtech. Für AMD vs Intel Vergleiche halt völlig unbrauchbar. Ich denke, die iGPUs lassen sich erst besser vergleichen, wenn die IB i3 auf dem Markt sind.
 
@che new
die einen nennen es CPU limit, die anderen spielbare settings.
 
Sehe ich auch so.
Skyrim ist nunmal in Außenbereichen oft CPU-limitiert. Soll AT da groß rumspielen, bis für Trinity ein klarer Vorteil herauskommt? Höhere Auflösung geht nicht, mehr Details macht das Spiel zu langsam. 20fps vs 10fps interessiert keinen und ist nicht praxisnah - worauf ja gerne gepocht wird. Man hätte zwar auch einen Dungeon benchen können, aber hier sind die fps fast immer doppelt so hoch. Da Außenbereiche je nach Spielweise bis zu 50% der Spielzeit ausmachen, ist es natürlich sinnvoller, diese anzuschauen.
Bezeichnend ist eher die künstliche Aufregung :)
 
Zuletzt bearbeitet:
@che new
die einen nennen es CPU limit, die anderen spielbare settings.

Die Settings von THG (siehe ob), Notebookcheck (siehe ob), Techreport: AMD's A10-4600M 'Trinity' APU - The Tech Report - Page 10 oder PCPerspective: AMD A10-4600M Trinity For Mobile Review: Trying To Cut The Ivy | Performance - Synthetic 3D, Real World Gaming
liefern ebenso spielbare Skyrim-Settings, zum teil sogar noch besser spielbare (mehr FPS). Mit etwas mehr Substanz, wäre dein lockerer Kommentar vielleicht wirklich witzig geworden, so taugt er aber nur zum Musterbeispiel eines Nichtarguments.


Sehe ich auch so.
Skyrim ist nunmal in Außenbereichen oft CPU-limitiert. Soll AT da groß rumspielen, bis für Trinity ein klarer Vorteil herauskommt? Höhere Auflösung geht nicht, mehr Details macht das Spiel zu langsam. 20fps vs 10fps interessiert keinen und ist nicht praxisnah - worauf ja gerne gepocht wird. Man hätte zwar auch einen Dungeon benchen können, aber hier sind die fps fast immer doppelt so hoch. Da Außenbereiche je nach Spielweise bis zu 50% der Spielzeit ausmachen, ist es natürlich sinnvoller, diese anzuschauen.
Bezeichnend ist eher die künstliche Aufregung :)

Wie schon gesagt und belegt, min. 4 andere Magazine haben ebenfalls spielbare Sykrim-Settings (zum Teil mit gleicher Auflösung + Mittleren Details) verwendet und diese zeigen die HD 7660G deutlich in Front (HD3000) oder mindestens auf einem Niveau mit der HD4000 bzw. nicht selten komfortabel darüber. Jetzt könnte man unterstellen, dass die Tester aller anderen Magazine "groß herumgespielt haben, bis für Trinity ein klarer Vorteil herauskam". Aber wäre das realitischer als dass Anandtech mit dem eigenen Setting und/oder Spielszene ein Szenario erwischt hat, das AMD nicht liegt und Intel in die Karten spielt? Ob das Zufall oder Absicht bei Anandtech war, das lass ich mal dahingestellt. Soll ruhig jeder selbst entscheiden, ganz unaufgeregt^^



Zum Schluss noch allgemein zum Thread hier, wenn es generell nervt oder kaum jemand lesen will, was ich zum Thema zu sagen haben, kann ich es auch gerne sein lassen. Ich muss mir nämlich nicht unbedingt die/den zum Teil unterschwellige(n) Häme/Spot hier geben, wenn es sowieso nicht erwünscht ist, dass man etwas nachbohrt oder hinterfragt.
 
Zuletzt bearbeitet:
Nochmal:
Innenbereiche sind üblicherweise GPU-limitiert, Außenbereiche CPU-limitiert. Da gibt es kein richtig oder falsch oder Benachteiligung - beides gehört zum Spiel. Das ist kein Spezialfall, der selten vorkommt. So ist das halt mit Benchmarks, die sind nicht immer vergleichbar. Das darf man nicht automatisch annehmen.
 
Das habe ich schon verstanden, das Problem was ich aber dabei sehe ist das ausgerechnet mit einem Test, der solche massiven CPU-Limits aufweist argumentiert wird, dass die HD 7660G kaum schneller als die Vorgänger- oder Konkurrenz-GPU sei.

Edit: Sind deiner Einschätzung nach die Sykrim-Benches der vier anderen Magazine im Innenbereich entstanden?
 
Zuletzt bearbeitet:
Leider wird weder bei notebookcheck noch bei THG angegeben, wo gebencht wird. Sowas hasse ich, total undurchsichtlich. Auch bei Anandtech müsste man mal schauen. Es gibt auch in Außenbereichen GPU-Limits übrigens, hauptsächlich wenn die Sichtweite gering ist und man überall Vegetation um sich hat. Was da jeweils gebencht wurde, kann man also nicht wirklich sagen. Es gibt je nachdem wo man ist eben beide Fälle. Sogar die Perspektive hat Auswirkungen, 1st Person ist idR schonender.
 
Mit etwas mehr Substanz, wäre dein lockerer Kommentar vielleicht wirklich witzig geworden, so taugt er aber nur zum Musterbeispiel eines Nichtarguments.
von mir aus diskutiert ihr euch das hirn aus dem kopf. bei mir sieht es so aus: aktuell werkelt ein i3 530 @4ghz in meinem office pc und ich bekomme nicht mal dungeon keeper 2 flüssig (1997 erschienen?)
und die testen ernsthaft aktuelle spiele oder skyrim mit 4xAA ....das thema onboard GPU + gaming ist für mich einfach nur lächerlich. und wenn man noch dazu wie AMD schwache CPUs verbaut braucht man sich über niedrige fps oder lange wartezeiten wundern.
 
Naja, aber die meisten Spiele sind von der GPU abhängig, nicht von der CPU ... ich bin mir 100% sicher, dass du locker Top Titel wie FarCry2 oder zumindest welche wie Need for Speed ordentlich auf einer APU von AMD zocken kannst. Dazu noch die OpenCL beschleunigung, wenn sie denn unterstützt wird. AMD geht imho genau den richtigen Weg. Genauso wie heutige x86 CPU's seit dem Pentium Pro hybride RISC und CISC Prozessoren sind und jetzt integriert AMD halt noch die Shader einer Grafikkarte.
 
Zuletzt bearbeitet:
Gut zu wissen, danke. Es ist immer gut, wenn sowas ordentlich dokumentiert wird.
 
Innenbereiche sind üblicherweise GPU-limitiert, Außenbereiche CPU-limitiert.
Ich denke, hier irrst du. Ich will jetzt keine Grundsatzdiskussion lostreten, aber mEn ist es eher umgekehrt. Aussenbereiche sind idR viel GPU intensiver, weil je nach Sichtweite viel mehr Objekte berechnet und angezeigt werden müssen. Bei Innenbereichen können mehr Berechnungen eingespart werden, weil Objekte oft verdeckt hinter Wänden oder was auch immer und damit nicht im Sichtfeld liegen. Grundsätzlich lässt sich das aber nicht pauschalisieren. Im Endeffekt hängt es immer vom Aufwand der jeweiligen Szene ab.
 
Zuletzt bearbeitet:
von mir aus diskutiert ihr euch das hirn aus dem kopf. bei mir sieht es so aus:

Was hat deine Config mit dem genannten vorherigen Szenario zu tun?
Jedenfalls kann man, wenn man im CPU Limit steckt mehr Details für die Grafikkarte einstellen.

das thema onboard GPU + gaming ist für mich einfach nur lächerlich. und wenn man noch dazu wie AMD schwache CPUs verbaut braucht man sich über niedrige fps oder lange wartezeiten wundern.

Sry, aber sogut wie jeder Titel ist mit verminderten Einstellungen gut spielbar. Du hast zu dem Thema eine viel zu indifferente Sicht der Dinge.
Selbst Anno 1404 macht bei mir bei niedrigen bis mittleren Settings auf meinem 2x1,9 ghz Llano dualcore Notebook richtig spaß und da ist nur ne HD 6620G drinn verbaut.
 
Ich denke, hier irrst du. Ich will jetzt keine Grundsatzdiskussion lostreten, aber mEn ist es eher umgekehrt. Aussenbereiche sind idR viel GPU intensiver, weil je nach Sichtweite viel mehr Objekte berechnet und angezeigt werden müssen. Bei Innenbereichen können mehr Berechnungen eingespart werden, weil Objekte oft verdeckt hinter Wänden oder was auch immer und damit nicht im Sichtfeld liegen. Grundsätzlich lässt sich das aber nicht pauschalisieren. Im Endeffekt hängt es immer vom Aufwand der jeweiligen Szene ab.

Ich hab das Spiel über 100h gespielt, ich weiß, wovon ich rede. Es geht hier nur um Skyrim.
 
Wenn es von Anfang an klar war, warum hast du die Llano-Werte dann erstmal als nicht korrekt bezeichnet?


Weil die Werte eben zu niedrig waren für einen fairen Vergleich mit gleichem RAM. Es ist ja nicht so als gäbe es zu wenig Vergleichswerte vom 3dmark von Llano. Das sieht man sofort. Wenn man Llano mit langsamen RAM ausbremst und so eine Steigerung suggeriert, die bei gleichen RAM so nicht gegeben wäre, sind das für mich keine korrekten Vergleiche.
 
Also nächstes Jahr kommt 22nm und GCN, außerdem kommen 3 neue Befehlssätze hinzu

Quelle bring ich später
 
^^dachte das werden 28nm
bin gespannt was "Heterogeneous System Architecture" bringt und dann auch genutzt wird
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh