2. APU-Generation: AMD stellt "Trinity"-Prozessoren vor

Shrinks sind ja immer relativ, der Llano 3870k ist 32nm und läuft standardmäßg mit 1,4v...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es schon Daten zu den Standard-VCore-Werten der Trinitys (egal ob Notebook oder Desktop)? Wäre interessant zu wissen, ob sie von Werk aus immer noch sehr hoch ist und man viel undervolting-potential besitzt.
 
Ich hatte vor einem bekannten einen HTPC auf APU Basis zusammenzustellen. Gespielt werden soll damit eigentlich nicht, aber man soll ja niemals nie sagen. Und wenn Spiele dann wahrscheinich eher nicht sehr Grafikintensiv. Eigentlich soll das Ding nur HD Filme etc. abspielen. Hatte zu Testzwecken einen PC an seinem Plasma und dagegen hat der AC Ran was die Bildquali bei Filmen anging total abgestunken. Rechner war ein Athlon X2 mit ner GTX 260. Meine Frage ist jetzt ob ich den momentan dicksten Llano nehmen soll oder ihn auf Trinity vertrösten. 3 Quartal ist ja mal ne Hausnummer. Was würdet ihr machen?
 
Ich würde den dicksten Llano nehmen, ist ja auch relativ günstig inzwischen. Falls Trinty am Anfiang knappe Verfügbarkeit vorweist, bist du bestimmt schon in Q4 zu vernünftigen Preisen.
 
Also über Kaveri würde ich mir keine Sorgen machen. Nicht nur dass die CPU dann ordentlich aufgebohrt wird, da jedes Modul dann 2 Decoder hat.
Die Kaveri APU muss sich dann aber mit "Haswell" messen, Ivy Bridge ist dann wieder ein altes Thema ;)
Bzgl. CPU Thread Performance wird es sehr schwierig für AMD, besonders wenn man auch die Leistungaufnahme berücksichtigt :)
Durch IPC, Takt & Turbo Verbesserungen erwarte ich bei Haswell 30% mehr Leistung als Ivy Bridge.
Wird Kaveri 30% mehr Thread Leistung als Trinity haben? Wie soll AMD den Abstand zu Intel sonst verringern können? :wink:
Die Decoder-Nummer muss sich erst mal zeigen.
Genau, sonst gibt es nicht viel zu erwarten.
 
Zuletzt bearbeitet:
Ich denke, hier irrst du. Ich will jetzt keine Grundsatzdiskussion lostreten, aber mEn ist es eher umgekehrt. Aussenbereiche sind idR viel GPU intensiver, weil je nach Sichtweite viel mehr Objekte berechnet und angezeigt werden müssen. Bei Innenbereichen können mehr Berechnungen eingespart werden, weil Objekte oft verdeckt hinter Wänden oder was auch immer und damit nicht im Sichtfeld liegen. Grundsätzlich lässt sich das aber nicht pauschalisieren. Im Endeffekt hängt es immer vom Aufwand der jeweiligen Szene ab.

Draußen ist es öfter CPU-Lastig als drinnen. Viele Engines arbeiten deferred mittlerweile, das spart Renderleistung aber nicht CPU-Leistung. Drinnen kommt es auf die Beleuchtung an. Gibt es komplexe Beleuchtung mit vielen Lichtquellen wird es sehr grafiklastig. Aber mit Grafiklast kommt immer auch CPU-Last. Man muss immer bedenken: Der Computer ist der Prozessor, die Grafikkarte ist Beiwerk. Die Spielgeschwindigkeit hängt also vom Prozessor ab, die Grafikkarte sorgt nur dafür, dass die Ausgabe schnell genug erfolgt. Diese "Grafiklast"-Diskussionen sind meist nicht zielführend. Priorität ist immer erst der Prozessor.
 
Zuletzt bearbeitet:
Oh Mann, gehen mir diese Diskussionen AMD vs. Intel auf den Sack. In jedem AMD Thema kommen unsachliche Kommentare (Bawder ahoi), die mit dem eigentlichen Thema überhaupt nichts zu tun haben. CPU seitig hat AMD doch selbst gesagt, dass sie nicht mehr mit Intel konkurrieren müssen/wollen. Der Bereich APU ist mMn einfach ein genialer Schritt, sobald er sich einmal vervollständigt haben wird (CPU/GPU symbiose, GPU als Co-Prozessor, etc.). Bulldozer war ein mutiger Schritt in die richtige Richtung (wobei es beim ersten und zweiten Schritt schinbar noch nicht richtig geklappt hat) und wird auf lange Sicht sicherlich Früchte bringen. Trinity ist/wird besser als LLano, Kaveri wird noch eins drauf legen und sobald man mit der CPU Leistung an den Punkt kommen wird, wo man mit jeder neuen Generation bereits so schnell ist, dass man bei gewöhnlichem Arbeiten keinen Unterschied merkt, oder nur einen geringen, wird sich die VS. Konfrontation erübrigen (hoffentlich). Bei Spielen ist es heute bereits beinahe egal welche CPU man drin hat (SC 2, SLI, CF mal ausgenommen, ), wenn man mit hochwertigen Grafikeinstellungen spielt (1920iger Auflösung, AA, etc.). Wird man auch hier an den 60FPS mit hochwertigen Grafikeinstellungen angelangt sein (shooter), dann ist es mir wirklich (sorry) scheißegal, welche CPU drin werkelt. Vielleicht werde ich dann jene auswählen, welche weniger verbraucht? Mehr Zusatzfunktionen hat? Billiger ist?
 
Draußen ist es öfter CPU-Lastig als drinnen.
Nun ja, ich habe halt andere Erfahrungen gemacht. Gerade mit älteren Rechnern, die noch nicht so viel CPU und GPU Leistungsfähigkeit hatten wie aktuelle, musste ich öfter mal Auflösung und Sichtweite runterschrauben, damit es in Aussenbereichen flüssig läuft. In Innenbereichen hat das kaum eine Rolle gespielt.

Die Spielgeschwindigkeit hängt also vom Prozessor ab, die Grafikkarte sorgt nur dafür, dass die Ausgabe schnell genug erfolgt.
Ich denke, so kann man das nicht sagen. Im Endeffekt hängt es von beiden ab. Engine, Settings, Auflösung, AA/AF, Szene, etc, bestimmen dann, was zuerst zum Flaschenhals wird. Und in der Praxis wird eher die Grafikkarte zuerst ausgereizt. Eben weil man deren Belastung direkter beeinflussen kann.
 
... CPU seitig hat AMD doch selbst gesagt, dass sie nicht mehr mit Intel konkurrieren müssen/wollen. Der Bereich APU ist mMn einfach ein genialer Schritt, sobald er sich einmal vervollständigt haben wird (CPU/GPU symbiose, GPU als Co-Prozessor, etc.). ..... Bei Spielen ist es heute bereits beinahe egal welche CPU man drin hat (SC 2, SLI, CF mal ausgenommen, ), wenn man mit hochwertigen Grafikeinstellungen spielt (1920iger Auflösung, AA, etc.). Wird man auch hier an den 60FPS mit hochwertigen Grafikeinstellungen angelangt sein (shooter), dann ist es mir wirklich (sorry) scheißegal, welche CPU drin werkelt. Vielleicht werde ich dann jene auswählen, welche weniger verbraucht? Mehr Zusatzfunktionen hat? Billiger ist?

Vor allem haben die meisten wohl noch nicht kapiert dass die CPU Leistung in den meisten Notebooks wohl ausreicht für office und surfen. Die meisten user spielen ja außerdem nichts anspruchsvolles.(viele vielleicht mal ein browsergame)

Was ich aber noch viel interessanter finde ist die Allianz für eine einheitliche CPU Architektur (HSA) die AMD,TI,Imagin Tech. Und Arm beschlossen haben.
Ich erhoffe mir dadurch,dass der Stromverbrauch stark sinkt. Was denkt ihr was die Käufer sich holen wenn sie vor einem Notebook kauf stehen und der akku des Intel Notebook hält 6stunden,der Akku des AMD soll aber drei Tage halten? Stromverbrauch wird viel zu stiefmütterlich betrachtet.


Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Nun, ich denke, wenn man von Trinity spricht, spricht man von einem aktuellen System. Außer man hat eine wirklich schwache Grafiklösung ist Skyrim außen CPU-limitiert, das lässt sich wunderbar an der GPU-Auslastung z.B. per MSI Afterburner erkennen. Und gerade weil man die CPU-Leistung in Spielen nicht so großartig beeinflussen kann wie die Grafikleistung, kann es wichtig sein, von ersterer genug zu haben. Ist die GPU zu langsam, stellt man AA/AF zurück oder nimmt die Auflösung herunter. Hapert es bei der CPU-Leistung, hat man in der Regel deutlich weniger Möglichkeiten.
 
Das kann ich aus praktischer Erfahrung nur bestätigen. Als ich damals mein altes Notebook mit 2,0GHz Turion X2 und Radeon HD 3650 verkaufte gab es diverse Spiele, die in 640x480 bis 1024x768 bei minimalen Details die praktisch gleichen fps lieferten - nur eben leider alles unspielbar, weil der Prozessor limitierte. Ähnliche Erfahrungen habe ich mit dem E-450 gemacht: Auflösungsreduzierung bringt häufig kaum fps-Gewinne; Obwohl man mit der GPU (entspricht ja etwa einer HD 54xx) noch so manches Spiel bei minimalen Einstellungen gut spielen könnte, verhindert dies der zu langsame CPU-Part.
Ähnliches könnte auch Trinity blühen. Das deutet sich in einigen Benchmarks bereits an.
 
Das kann ich aus praktischer Erfahrung nur bestätigen. Als ich damals mein altes Notebook mit 2,0GHz Turion X2 und Radeon HD 3650 verkaufte gab es diverse Spiele, die in 640x480 bis 1024x768 bei minimalen Details die praktisch gleichen fps lieferten - nur eben leider alles unspielbar, weil der Prozessor limitierte. Ähnliche Erfahrungen habe ich mit dem E-450 gemacht: Auflösungsreduzierung bringt häufig kaum fps-Gewinne; Obwohl man mit der GPU (entspricht ja etwa einer HD 54xx) noch so manches Spiel bei minimalen Einstellungen gut spielen könnte, verhindert dies der zu langsame CPU-Part.
Ähnliches könnte auch Trinity blühen. Das deutet sich in einigen Benchmarks bereits an.

würde eher speicherbandbreiten limtierung verdächtigen. 1333 ram etc.
 
Bei dem A10-Trinity? Das AMD-Muster hat afair Dualchannel DDR3-1600, ist also optimal bestückt. Max Payne 3 dürfte schlicht mehr CPU-Leistung fordern, darum liegt z.B. auch die alte Radeon HD 5650 mit Arrandale-i5 vor Trinity.
 
Das Whitebook hat Dualchannnel mit 1600er-Speicher, japp. Das ist in Sachen Leistung best case innerhalb der Specs. Es mangelt an CPU-Leistung ... es ist lustigerweise so, dass bei AMD das Pendel Richtung iGPU und bei Intel Richtung CPU pendelt ... die goldene Mitte wäre schick.
 
Na das wäre im Desktop dann aber keine 25% Verbesserung gegenüber Llano in der Leistung und der Last-Verbrauch ist auch nicht eklatant gesunken. Abwarten und Tee trinken...
 
Wieso sieht doch ganz gut aus Zitat:"Beginnen wir mit der Piledriver-Architektur, von der viele hoffen, dass sie eher früher als später auch in einer Desktop-CPU zu finden sein wird. Laut unseren Tests dürfte dieses überarbeitete Design pro Takt etwa 15 Prozent schneller sein als Bulldozer.."

Wenn da jetzt noch nen paar Mhz mehr gehen durch eine hoffentlich verbesserte Fertigung sind die doch erreichbar.

lg
 
Das die Leistung Pro Takt besser sein soll, hab ich auch gelesen, leider haben sie keine Bulldozer CPU dazu genommen. Was man sieht st, dass Trinity oft ca 10 - 15% Schneller als der Llano ist, dies aber mit 30% mehr Takt als dieser. Ich geb jetzt nicht viel auf einen Preview-Test, weil da noch zu viel an Board und Bios nicht stimmen kann. Aber so ist das kein riesen Sprung. Das bezieht sich jetzt ausschließlich auf den GPU-Part...
 
Nunja, auch davon ausgehend das Piledriver keinen L3 Cache besitzt hoffe ich doch mal das Vishera noch ne kleine Schippe richtung 20% drauflegt - schlecht wäre es auf jeden Fall nicht...
 
Was man sieht st, dass Trinity oft ca 10 - 15% Schneller als der Llano ist, dies aber mit 30% mehr Takt als dieser.
Hier sollte man allerdings bedenken, dass die Performance nicht immer linear mit dem CPU-Takt skaliert. Also ein 30% höher getakteter Llano muss nicht zwangsläufig 30% mehr Performance haben. Je nach Anwendung kann das deutlich weniger sein.


Und wie im anderen Thread schon gepostet wurde:
Understanding the Bulldozer Architecture through the LINPACK Benchmark | insideHPC.com

Das verdeutlicht nochmal recht gut, ohne FMA Support läuft die Bulldozer FPU im Moment nur mit halber Kraft. Das sollte man auch immer im Hinterkopf behalten, wenn man alte und neue Architektur vergleicht. Was AMD hier gemacht hat, ist ein Paradigmenwechsel, der seine Zeit braucht, um am Markt zu greifen. Das wird aber auch notwendig sein, wenn man die FPU irgendwann mal durch die GPU-Shader ersetzen möchte. Die bestehen im Grunde ja auch nur aus FMA Rechenwerken.
 
Mich wundert das ja auch primär, weil die mobilen Tests doch auf einen etwas höhern Sprung hinwiesen. Ich warte mal richtige Reviews ab...
 
Llano hatte oftmals Turbo-Probleme bzw. generell extrem wenig Singlethreadleistung in Notebooks. Trinity verbessert diese, tritt dafür aber bei Multithreading nur auf der Stelle. Oftmals ist leider sogar ein A8-Llano schneller als ein A10-4600M. :(
 
Dürfte am CMT liegen, das sind ja jetzt eigentlich nur Dual-Cores mit 4 Threads...
 
CMT ist nicht so tragisch, die IPC ist das Problem.
 
CMT ist nicht so tragisch, die IPC ist das Problem.
Doch ist es, CMT ist schwächer als K10 & CMP. Logisch das die IPC kleiner ausfällt.

CMT = Integer Cores müssen sich Ressourcen teilen, 2 Kerne nur 1 FPU oder 2 Kerne nur 1 Decoder.
ob2il8ttu.jpg


CMP = Dual Core (jedes Modul hat eigene Ressourcen, doppelt soviele Decoder, FPU Einheiten usw.)
ipvqh6nrfk87.jpg
 
Zuletzt bearbeitet:
Danke, mir ist bekannt, was CMT und CMP sind - die IPC ist aber auch sehr schwach, wenn nur ein Thread läuft und hier hat CMT gegenüber CMP keinen Nachteil.
 
Doch ist es, CMT ist schwächer als K10 & CMP.
Letztendlich ist IPC wurscht, wenn man zwei völlig verschiedene Architekturen wie K10 und BD vergleicht. Wie heisst es so schön, es zählt, was hinten rauskommt. Wie man an Trinity vs Llano sieht, ist BD & CMT nicht schwächer als K10 & CMP. Und das wird in Zukunft sicherlich nicht schlechter für BD ausfallen. CMT hat auch nichts mit zu wenig IPC zu tun. CMT ist theoretisch besser für hohe IPC geeignet, zumindest was singlethreaded betrifft, weil diverse Einheiten shared sind und für 2 Threads entsprechend aufgebohrt wurden, natürlich aber auch komplett von einem Thread genutzt werden können. Ist bei SMT ja nicht viel anders. Nur fehlen hier noch zusätzliche EUs. Der Punkt an Bulldozer ist, dass man sich irgendwann für ein Serverdesign entschieden hat. Da hatte hohe IPC wenig Priorität, sondern vielmehr die Threadskalierung, also CMT. AMD wird sich des IPC Problems schon bewusst sein und hier in Zukunft nachlegen. Trinity scheint ja schon ein gutes Stück besser zu sein und fast wieder auf K10 Niveau. Wobei ich das Problem vor allem auch im Softwaresupport sehe und weniger in der Hardware. Wenn jede Anwendung bereits soweit für Bulldozer optimiert wäre wie für ältere Architekturen, wäre IPC sicherlich nicht so ein Thema bei einigen.

CMT = Integer Cores müssen sich Ressourcen teilen, 2 Kerne nur 1 FPU oder 2 Kerne nur 1 Decoder.
Wie gesagt, genau diese Ressourcenteilung ist alles andere als kontraproduktiv für IPC. Dass es nominell nur eine FPU gibt, ist auch nicht wichtig. Die FPU wurde so üppig dimensioniert, dass sie von einem Thread gar nicht ausgelastet werden kann. Bis 4 Threads und korrektem Scheduling ist das momentan nicht problematisch. Problematisch wird es erst darüber hinaus. Und da fehlt es eben noch an FMA Support, vor allem im Client Markt. Bei Servern ist das weniger ein Problem, da Software schnell angepasst wird. C-Ray hat gezeigt, dass FMA mal locker 1/3 mehr Performance bringen kann. Stell dir mal Cinebench mit entsprechendem Support vor. Dort würde ein X6 locker abgehängt werden und selbst SB hätte das Nachsehen. Ebenso betrifft das die Decoder. Ausreichend breit dimensioniert, sind die nicht der Flaschenhals. Ich sehe daher auch keinen Grund, in Zukunft zwei Decoder-Blöcke pro CU zu implementieren. Auch wenn das als Möglichkeit für Steamroller/Excavator im Raum steht.

CMP = Dual Core (jedes Modul hat eigene Ressourcen, doppelt soviele Decoder, FPU Einheiten usw.)
Ja. Bei singlethreaded IPC hilft dir das aber auch nicht weiter. Doppelt so viel heisst auch nicht automatisch doppelt so stark. Bulldozer besitzt zB 4 Fastpath/Microcode Decoder pro CU. K10 besitzt 3 Fastpath/Microcode Decoder pro Kern, also 6 für zwei Kerne, was nur 50% mehr ist. Hinzu kommt auch die Flexibilität, mit der Einheiten arbeiten können. Ebenso ist Flächenbedarf und Leistungsaufnahme zu beachten, die praktisch linear mit CMP steigen. Es wird also nichts an Effizienz gewonnen. Das ist bei Techniken wie CMT oder SMT anders. Dort gewinnt man Effizienz.
 
Zuletzt bearbeitet:
Letztendlich ist IPC wurscht, wenn man zwei völlig verschiedene Architekturen wie K10 und BD vergleicht. Wie heisst es so schön, es zählt, was hinten rauskommt.

Genau, gucken wir doch mal, was im Cinebench 11.5 1-Kern Benchmark hinten dabei rauskommt (mehr ist besser):

FX-4100 @ 3,8 Ghz: 0,93*
Phenom II @ 3,8 Ghz: 1,12**

FX-8150 @ 4,2 Ghz: 1,03*
Phenom II @ 4,2 Ghz: 1,24**

* lt. HT4U
** gemessen

D.h. man müsste die FX um 20% OC, um gleich zu ziehen...
 
Du weißt schon dass der Vergleich zwischen Llano und Trinity gezogen wurde?
Sollte Vishera mit Piledriver Kernen 10 bis 15% an IPC zulegen, dann ist man mehr oder weniger schon gleichauf mit dem Phenom bei deutlich mehr Takt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh