[Sammelthread] AMD Fusion "Llano" APU-2011 (K10 Cores & VLIW5 GPU) A4 / A6 / A8 Series

Ich habe Llano mehrfach im Mobile-Bereich gelobt. Für den Desktop aber ist es ein Prodult, in dem ich für mich persönlich keinen Sinn sehe. Davon solltest du mal lesen lernen *SCNR*
y33H@ schrieb:
da Llano ansonsten echt ein cooler Chip ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe Llano mehrfach im Mobile-Bereich gelobt. Für den Desktop aber ist es ein Prodult, in dem ich für mich persönlich keinen Sinn sehe. Davon solltest du mal lesen lernen *SCNR*

Warum soll er im Desktop-Bereich keinen Sinn machen? Wir dürfen nicht immer von uns ausgehen. Ich brauche ihn auch nicht, aber es gbit ja noch andere Menschen auf der Welt.
 
Wie gesagt, für einen HTPC bei dem auch mal ein halbwegs aktuelles Spiel gezockt werden soll, ist die APU eine gute Wahl :bigok:
 
So sehe ich das auch. Dürfte sicher auch i nder Kühlung & für leise Systeme extrem interessant sein.
 
Warum soll er im Desktop-Bereich keinen Sinn machen? Wir dürfen nicht immer von uns ausgehen. Ich brauche ihn auch nicht, aber es gbit ja noch andere Menschen auf der Welt.
Deswegen sagte ich ja auch "für mich persönlich" ...
 
Ich kennzeichne Behauptungen, wenn ich solche aufstelle. Wir werden ja sehen, wer als letztes lacht
Ja. Der A8-3850 braucht trotz zusätzlicher 100 MHz weniger als der X4 630. Darf ich jetzt lachen? :lol: Aber gut, wie ich schon sagt, ohne Ergebnisse bei Teillast ist das nur die halbe Wahrheit. Etwas mehr hatte ich allerdings schon erwartet. Da scheint wohl die iGPU trotzdem einiges auszumachen, auch wenn nur die CPU beansprucht wird. Bei der Spannung ist sicherlich auch noch Spielraum nach unten. Wobei ich das weniger kritisch gegenüber den 45 nm Modellen sehe. Der X4 840 wurde zuletzt auch mit 1,38 V gemessen. So viel weniger als die 1,4 V für den A8 ist das auch nicht.


Interessant auch nochmal die Speicherskalierung. Wie im Vorfeld schon angedeutet, oberhalb von DDR-1600 gibt's wenig bis kaum Gewinne. Undertaker 1 lag also wieder mal falsch.
 
Deswegen sagte ich ja auch "für mich persönlich" ...

Eine persönliche Meinung darf man ja wohl noch besitzen. ;)

Btw, weißt du eigentlich genauer welche Modelle jetzt am 3.7. gelauncht werden und welche nicht? Computerbase schreibt etwas unsicher, dass es womöglich wohl zunächst nur der A6-3650 und A8-3850 sind... Und gibt es mehr als einen Die oder sind alle Modelle (teildeaktivierte) Quadcores?

Btw, hat hier nicht ein gewisser mr.dude noch Anfang des Monats gesagt, es kommen nur 65W Modelle im Desktop? ;) Das selbst die 100W TDP des Topmodells wohl locker ausgereizt werden, hätte ich allerdings auch nur schwerlich erwartet.
 
Ich klau jetzt mal ganz dreist aus der ht4u Newsmeldung:
 

Anhänge

  • amd_llano_roadmap_by_msi.jpg
    amd_llano_roadmap_by_msi.jpg
    75,1 KB · Aufrufe: 76
Deine I/O-Theorie wird von dir ständig verwendet
Von "voll i/o-limitiert" habe ich trotzdem nichts gesagt. Ich sagte lediglich, Performance = CPU + GPU + I/O. Und das ist nunmal ein Fakt. Das kannst du in jeder entsprechenden Fachlektüre nachlesen. Auch wenn du noch so sehr auf stur schaltest. Daran ändert sich nix. Die von dir oft zitierten absoluten Limits gibt es nicht, weder CPU noch GPU noch I/O. Alles ist abhängig voneinander, mal mehr und mal weniger stark.
 
Zuletzt bearbeitet:
Natürlich gibt es (fast) absolute Limits, man muss sie nur provozieren. Auch das lässt sich in jeder entsprechenden Fachlektüre nachlesen.
 
Auch wenn du es in Klammern schreibst, mit deinem "fast" bestätigt du doch, es gibt keine absoluten Limits. Die Frage ist, wie stark wirken sich einzelne Komponenten aus. Und auch das sind keine Konstanten. Aber anstatt dem mal ausführlich auf den Grund zu gehen, und damit meine ich fachlich und nicht nur empirische FPS Balken Deutungen, werden lieber andere permanent persönlich angegriffen. Ist das deine Vorstellung von Journalismus?
 
Zuletzt bearbeitet:
Natürlich gibt es (fast) absolute Limits, man muss sie nur provozieren. Auch das lässt sich in jeder entsprechenden Fachlektüre nachlesen.

Es ist sogar eher andersherum: Innerhalb eines Frames wird es praktisch nie mehrere Limits geben - das wäre ein enormer Zufall oder nur per aufwändiger Abstimmung von CPU und GPU zu erreichen. In längeren und abwechslungsreichen Benchmarks kann es dann natürlich schon Mischformen geben. ;)

Übrigens: Ein Bauteil namens "I/O" gibt es in meinem PC gar nicht. :d Da gibt es CPU, GPU, verschiedene Bus- oder Punkt-zu-Punkt Verbindungen, die jeweils (mit unterschiedlicher Häufigkeit) limitieren können, aber kein geheimes und dieser Theorie folgendes "Ding".
CPU- und GPU-Limits lassen sich leicht belegen und sind belegt. Ein simpler Skalierungstest mit CPU- und GPU-Taktraten genügt. Und seit dem FSB-Abschied vor einigen Jahren sind das in 99% aller Fälle die beiden einzigen relevanten Limits.

Edit:

Zwei ganz interessante Speicherskalierungstests:

http://www.hardware.fr/articles/837-3/architecture-gpu-memoire-partagee.html
http://www.hexus.net/content/item.php?item=30964&page=10

DDR3-1866 sollte es also schon sein, wenn man nicht nennenswert Leistung verschenken möchte.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Für den Desktop aber ist es ein Prodult, in dem ich für mich persönlich keinen Sinn sehe.

PCGH schrieb:
Dafür hat die Intels in die CPU integrierte Grafikeinheit HD Graphics 3000 der Radeon HD 6550D in der Fusion-APU A8-3850 nichts entgegen zu setzen: Die Leistung der Radeon ist bedeutend höher, die Bildqualität bei aktiver anistroper Filterung weitaus besser und das Feature-Set deutlich vielseitiger sowie aktueller. In Sachen Performance ordnet sich die Radeon HD 6550D zwischen einer dedizierten HD 5550 und HD 5570 ein, mit klarer Tendenz zu letzterer - Nvidias Geforce GT 430 liegt im Mittel nahezu gleichauf. Der Einfluss der Speicherbandbreite hält sich zumindest bei den von uns bisher getesteten Spielen in Grenzen, Sie müssen also nicht zwingend teuren DDR3-1866-Speicher verwenden. Hinsichtlich des Stromverbrauchs weiß der A8-3850 durchgehend zu gefallen: Im Leerlauf oder im Blu-ray-Betrieb liegt die APU gleichauf mit dem sehr sparsamen Core i3-2105, unter 3D-Last benötigt der A8 klar mehr - in Relation zur (Spiele-)Leistung aber ist der Energiekonsum erstklassig. Einzig die Leistungsaufnahme bei reiner CPU-Last ist vergleichsweise schlecht, vor allem angesichts des Core i3.

Ein weiterer Vorteil liegt bei der Plattform: Der A75-Mainboard-Chip bietet nativ USB 3.0 und erlaubt in der Theorie die Koppelung der APU-eigenen HD 6550D mit bestimmten dedizierten Grafikkarten - die beiden Chips rechnen dann im Crossfire-Verfahren, die Kommunikation erfolgt via PCI-Express. Uns ist es jedoch nicht gelungen, das "Dual Graphics" genannte Gespann zu testen, da die Technik zwar gestartet werden konnte, bei Spielen aber trotzdem nur eine GPU statt beiden verwendet wurde - die Kollegen, bei denen es lief, berichten zudem über sehr starke Mikroruckler. Auch Probleme wie sporadisches Bildflackern auf dem Windows-Desktop (und auch nur hier) - das auch bei Kollegen anderer Redaktionen auftrat - trüben das ansonsten exzellente Abschneiden von AMDs "Lynx"-Plattform.

Keinen Sinn? Warum siehst du denn keinen Sinn? Kann man das irgendwie mit Argumenten hinterlegen?

Ich sehe in jedem Produkt das gewisse Vorteile für jedes Segment hat, einen Sinn, selbst wenn man fürs Surven nen Atom verbaut.
Keinen Sinn habe ich bisher nur in Midrange Dual-Gpu´s gesehen, wenn diese für Spiele und nicht für Brechnungen genutzt werden.

I/O hat überhaupt keine Bedeutung, ich hab noch nie Benches gesehen, wo I/O in irgendeiner Form reingespielt hat, wenn überhaupt dann im Bereich der Messungenauigkeit und das ist egal.

Mr. Dude schrieb:
Die von dir oft zitierten absoluten Limits gibt es nicht, weder CPU noch GPU noch I/O. Alles ist abhängig voneinander, mal mehr und mal weniger stark

Nur interessiert die I/O Theorie niemanden, oder kannst du auch nur einen Test verlinken der das irgendwie behandelt?
Wenn es etwas ähnliches gibt, dann war es der NAchteil der Intel CPu´s im GPU- Limit.
 
Zuletzt bearbeitet:
Interessant auch nochmal die Speicherskalierung. Wie im Vorfeld schon angedeutet, oberhalb von DDR-1600 gibt's wenig bis kaum Gewinne. Undertaker 1 lag also wieder mal falsch.


Du glaubst tatsächlich, dass Llano nur zusätzlich 2% mit 1866 skaliert? :haha:

Was auch immer CB da getestet hat, das kann nie und nimmer stimmen. Der Test von hardware.fr sieht um einiges stimmiger aus, und belegt erneut, dass Llano stark mit der Bandbreite skaliert und die Rechenleistung erst ab einer gewissen Bandbreite zur Geltung kommt.

Architecture GPU, mmoire partage - AMD A8-3850 : Le pari APU - HardWare.fr

Mal sehen ob AMD mit Trinity einen anderen Weg geht. Mit der immer weiter steigenden Rechenleistung wird das Problem nicht kleiner. DDR4 ist in naher Zukunft keine Lösung, dauert noch ein paar Jährchen.

---------- Beitrag hinzugefügt um 18:08 ---------- Vorheriger Beitrag war um 18:05 ----------

Nur interessiert die I/O Theorie niemanden, oder kannst du auch nur einen Test verlinken der das irgendwie behandelt?
Wenn es etwas ähnliches gibt, dann war es der NAchteil der Intel CPu´s im GPU- Limit.


Schuld ist imo der Turbo gewesen. Im vollsten GPU Limit verliere ich mit Turbo aktiv ein klein wenig Leistung. Mit Sandy Bridge hat sich das stark verflüchtigt, aber auch hier kann ich 1-2% Verlust messen. Ist aber kaum der Rede wert.
 
Keinen Sinn? Warum siehst du denn keinen Sinn? Kann man das irgendwie mit Argumenten hinterlegen?
Ich zocke auf 25x14 mit SGSSAA und nutze das System auch um am 46er Blu-rays zu schauen. Ergo benötige ich kein Desktop-Low-End-System ... was ich eindeutig sagte mit FÜR MICH PERSÖNLICH. Für ein Subnotebook dagegen erachte ich Llano als sehr interessant.

. Aber anstatt dem mal ausführlich auf den Grund zu gehen, und damit meine ich fachlich und nicht nur empirische FPS Balken Deutungen [...]
Du stellst diese These auf, ich widerlege sie seit Jahren fachlich immer und immer wieder mit GPU- oder CPU-limitierten Benchmarks. Von dir kommt NICHTS, was deine These stützt - ist das deine Art zu "argumentieren"? Rhetorische Frage, denn du hast kaum Praxiserfahrung - und ohne die kommst du mit Theorie eben auch nur bedingt voran. Sah man ja zB an der CPU-Leistungsaufnahme von Llano, die wie aufgezeigt oberhalb eines Deneb liegt und damit die Theorie Lügen straft.
 
Du stellst diese These auf, ich widerlege sie seit Jahren fachlich immer und immer wieder mit GPU- oder CPU-limitierten Benchmarks.
Seit wann sind Benchmarks fachliche Beweise? Genau das sind empirische Deutungen, sonst nichts. Zumal die meisten wissen sollten, wie sehr Ergebnisse auch von der Software abhängen und nicht nur von der Hardware. Was ich dagegen sage, sind Fakten, keine Theorien. Diese Fakten kannst du in jedem entsprechenden Fachmaterial dazu nachlesen.

Von dir kommt NICHTS, was deine These stützt - ist das deine Art zu "argumentieren"? Rhetorische Frage, denn du hast kaum Praxiserfahrung - und ohne die kommst du mit Theorie eben auch nur bedingt voran.
Ach Jungchen, ich habe mit Sicherheit mehr Praxiserfahrung als du, weil ich grafische Anwendungen schon programmiert habe und wesentlich mehr Einblick in die Materie habe als du. Was sind denn deine Praxiserfahrungen? Spiel A zu starten und Benchmark-Button B zu drücken? :rolleyes: Deine "Kompetenz" sah man ja auch wieder bei Llano, dessen Leistungsaufnahme nachgewiesen unterhalb von Propus liegt und damit deine Theorie Lügen straft. Aber so ist das halt. Du machst oder siehst irgendwas und glaubst, das hätte Allgemeingültigkeit. Hat es aber nicht. Und das solltest du langsam mal begreifen und akzeptieren. Deine "Erfahrungen" haben noch lange nichts mit Fakten zu tun.
 
Zuletzt bearbeitet:
Du stellst diese These auf, ich widerlege sie seit Jahren fachlich immer und immer wieder mit GPU- oder CPU-limitierten Benchmarks. Von dir kommt NICHTS, was deine These stützt - ist das deine Art zu "argumentieren"? Rhetorische Frage, denn du hast kaum Praxiserfahrung - und ohne die kommst du mit Theorie eben auch nur bedingt voran. Sah man ja zB an der CPU-Leistungsaufnahme von Llano, die wie aufgezeigt oberhalb eines Deneb liegt und damit die Theorie Lügen straft.

Propus meinst du sicher. ;) Bei dem muss man auch beachten, dass die letzten Modelle trotz höherem Takt sparsamer waren als die allerersten Modelle X4 620 und 630.

AMDs Llano-APU A8-3850 im Test - Gelegenheitsspieler aufgepasst - (Seite 29)

93W bei 3,2GHz für den X4 840, davon ist Llano ein gutes Stück entfernt. Aber erwarte von einer gewissen Person hier nicht, dass sie darauf eingeht. ;) Oder das auf Nachfragen zu bestimmten Theorien, für die es nicht nur im gesamten Internet keine weiteren Anhänger gibt, mehr Quellen als "bekanntermaßen" und "Fachpresse" kommen. Wenns konkret wird, kommt da erstaunlich wenig. :d
 
Bei HT4U braucht der A8-3850 im idle 7W und unter Last 6W weniger als der X4-630, welcher ja auch 100MHz weniger Takt hat.

Wo kommt diese Diskrepanz zum CD-Test her?
 
Board ist das gleiche, BIOS-Version minimaler Unterschied, wobei CB sich hier scheinbar anfangs gerirrt hatte und die Version nochmal korrigiert hat.

HT4U nimmt Linpack, CB Prime...dürfte jeweils ausreichend vergleichbar sein.

Bei xbitlabs verbraucht ein A8-3800 deutlich weniger als ein X4-630. Vorallem der Idle-Verbrauch von 16.2W sieht da lecker aus :drool:
 
Zuletzt bearbeitet:
Es sind im Prinzip immer die gleichen Probleme wenn es um die Einschätzung des Stromverbrauchs geht. Die Boards/Spawa/Biose haben ebenso wie die Lasttools merklichen Einfluss, der Knackpunkt ist aber wie immer die VID bzw. anliegende Vcore und eine mögliche Diskrepanz zwischen beiden. Ich weiß nicht woran es liegt, aber die Inkonsistenz und Verwirrung bezüglich Spannungen von AMD-CPUs nimmt scheinbar mit jedem Launch immer stärker zu.

Es gibt Exemplare mit (angeblichen) 1,4 VID oder lediglich real anliegender Vcore (wer weiß das schon genau? die Tester? mittlerweile wie es scheint nicht mal mehr die Boardhersteller...), aber es gibt auch Samples mit 1,25-1,275V (wo allerdings dennoch zum Teil fast 0,1V mehr anliegt als eigentlich sollte).

Llano, die zweite Stufe der Fusion - Prozessoren - Planet 3DNow! Forum
Ein weiteres Problem stellt die oben zu erkennende Versorgungsspannung für die APU da. Laut VID sollten es nur 1,275 V sein, stattdessen stellte das Board 1,36 V ein.



Oder hier das Sampel bei dem das Board doch tatsächlich unglaubliche 1,26V@Load anlegt:
Llano & Lynx: Neue APU & Plattform von AMD : AMD A8-3850 APU (Llano) - Artikel Hartware.net

Dementsprechend liegt der Stromverbrauch auch etwa auf 65W TDP CPU Niveau:
Llano & Lynx: Neue APU & Plattform von AMD : Stromverbrauch - Artikel Hartware.net


Ich weiß nicht wie AMD die Sache mit den Spannungen in den Griff kriegen soll? Müssten sie die Board-Hersteller wie Intel mal an die Leine nehmen und etwas mehr Befehle in Form von strengeren Auflagen erteilen? Oder liegt es am CPU-Hersteller selbst, spielen die dort Zufallsgenerator bei der Selektion und Einteilung der CPUs? Ansonsten frag ich mich wie sowas zustande kommt: AMDs Llano-APU A8-3850 im Test - Gelegenheitsspieler aufgepasst - Undervolting (Seite 31)

Unter Last hingegen macht sich der Vorteil durchaus bemerkbar. So sinkt der Verbrauch bei CPU-Last von fast 96 Watt auf phänomenale 54 Watt. Da fragt man sich doch ernsthaft, warum AMD eine solch hohe Spannung von Haus aus anlegt. Sicherlich bedarf es Sicherheitsmargen, aber fast ein Viertel Volt?



In dieser Form ist die A8-3850 CPU doch ein No-Go für alle Leute die auf Effizienz Wert legen. Bekommt man beim Kauf eine CPU mit 1,25VID oder 1,4VID? Legt das Board A, B oder C die richtige Spannung an oder nicht? Das ist ja mittlerweile fast wie bei der Lotterie... :fresse:

Edit: Ich verstehe einfach nicht wieso AMD nicht ebenfalls wie Intel einen gewissen Vdroop vorschreibt, so würde selbst eine 1,4VID CPU unter Volllast z.B. mit lediglich ca. 1,32-1,34V versorgt werden. Die Board-Hersteller könnten das aber auch auf eigene Faust machen (ASUS hatte das bereits bei den AM3-Boards mit AMD 700er und 800er Chipsatz gemacht), aber wenn ich ehrlich bin kommt es mir so vor, als ob die noch "mit Genuß" bei AMD-CPUs extra Spannung auf die VID daufhauen (mit zum Teil irrwitzigen Begründung).

---------- Beitrag hinzugefügt um 21:53 ---------- Vorheriger Beitrag war um 21:42 ----------

Bei xbitlabs verbraucht ein A8-3800 deutlich weniger als ein X4-630. Vorallem der Idle-Verbrauch von 16.2W sieht da lecker aus :drool:

Ja die 65W TDP Modelle sind auch erstmal die einzigen Llanos die für mich in Frage kommen, vor allem ist die GPU genau so stark wie bei den 100W TDP Modellen.
 
Zuletzt bearbeitet:
Vielleicht wäre es schlauer gewesen, sich auf den A8-3800(und darunter) zu konzentrieren und für weitere Taktsteigerungen auf ein neues Stepping zu warten. Der A8-3800 ist doch nur unwesentlich langsamer, verbraucht dafür ein ganzes Stück weniger.
 
Ich weiß nicht wie AMD die Sache mit den Spannungen in den Griff kriegen soll? Müssten sie die Board-Hersteller wie Intel mal an die Leine nehmen und etwas mehr Befehle in Form von strengeren Auflagen erteilen?

Neuen Standard entwickeln: Boards haben nurnoch eine genormte Schnittstelle, über diese stellt sich die CPU selbst die Spanungen ein :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh