[Sammelthread] AMD Fusion "Llano" APU-2011 (K10 Cores & VLIW5 GPU) A4 / A6 / A8 Series

Oh, das ist natürlich extrem unsauber. Das wertet den 1333->1600 Zugewinn um einiges ab. Gar nicht bemerkt, wichtiger Hinweis.
Ich kann mich an einen gewissen Undertaker 1 erinnern, der vor vielen Monden behauptet hat, dass Latenzen bei GPUs praktisch irrelevant sind. Ach da haben wir es ja.
Aber jetzt sollen Latenzen natürlich trotzdem relevant sein? Halt immer so wie man es braucht. Ist ja nichts neues, gell? Was für ein episches Eigentor. :haha:

Übrigens, wo sind denn die Infos zu den Latenzen her? Ich sehe zumindest nichts im Diagramm.

Und mal abgesehen davon, DDR3-1333 CL7 hat eine schlechtere Latenz als DDR3-1866 CL9. Wenn die Speicherlatenzen wirklich so viel ausmachen würden, dann würden sich die Ergebnisse weiter zusammen schieben, was noch weniger für eine grundlegende Bandbreitenlimitierung spricht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zwei Punkte: Zum einen erhöht eine niedrigere Speicherlatenz die Effizienz, d.h. auch die Bandbreite steigt, Größenordnung etwa 5%. Weiterhin haben wir es mit teilweisen CPU-Limits zu tun - und die CPU-Leistung wird durchaus von der Speicherlatenz beeinflusst.

[mr.dude.mode]Mal wieder epic fail.[/mr.dude.mode]

Schaffst du auch mal ein Posting ohne Polemik? Das hätte ich dir auch auf simple Nachfrage erzählen können.

Und mal abgesehen davon, DDR3-1333 CL7 hat eine schlechtere Latenz als DDR3-1866 CL9. Wenn die Speicherlatenzen wirklich so viel ausmachen würden, dann würden sich die Ergebnisse weiter zusammen schieben, was noch weniger für eine grundlegende Bandbreitenlimitierung spricht.

Wir haben bereits Ergebnisse in der Größenordnung von 30% zwischen DDR3-1333 und DDR3-1866. Klarer kann man ein Bandbreitenlimit nicht aufzeigen. Es ist auch vollkommen unklar, warum du diese Problematik so krampfhaft abzustreiten versuchst. Die IGp-Performance ist doch dennoch ordentlich.
 
Zuletzt bearbeitet:
Unterlasst mal bitte diese ständigen Sticheleien und bleibt sachlich.
 
Zwei Punkte: Zum einen erhöht eine niedrigere Speicherlatenz die Effizienz, d.h. auch die Bandbreite steigt, Größenordnung etwa 5%.
Nee, Bandbreite ist Bandbreite. Und die wird nur durch Takt und Datenbreite des Speicherinterfaces bestimmt. Aber schon klar, um Ausreden bist du nie verlegen. :haha: Was übrigens trotzdem nichts an deiner Behauptung ändert, dass Latenzen praktisch irrelevant sind und nur Bandbreite zählt. Also entweder stehe dazu oder gib zu, dass deine Behauptung damals falsch war.

Weiterhin haben wir es mit teilweisen CPU-Limits zu tun - und die CPU-Leistung wird durchaus von der Speicherlatenz beeinflusst.
Ich dachte, es ging um die GPU? Jetzt doch plötzlich wieder CPU? Du kannst dich auch nicht entscheiden, oder?

Wir haben bereits Ergebnisse in der Größenordnung von 30% zwischen DDR3-1333 und DDR3-1866.
Die Grafik zeigt im Schnitt lediglich 20%. Wenn nach euren Aussagen die Latenz solchen Einfluss hat, dann noch weniger. Bei 40% mehr Bandbreite kein wirkliches Bandbreitenlimit. Schon seltsam, warum du ständig irgendwas heraufbeschwören willst, was gar nicht existiert. Was bezweckst du damit?
 
Zuletzt bearbeitet:
Nee, Bandbreite ist Bandbreite. Und die wird nur durch Takt und Datenbreite des Speicherinterfaces bestimmt.

Theoretisch korrekt. Praktisch, das lässt sich leicht nachmessen, steigt die Bandbreite bei niedrigeren Latenzen wenig, aber reproduzierbar an. Die Größenordnung nannte ich.

Ich dachte, es ging um die GPU? Jetzt doch plötzlich wieder CPU?

Die Grafik zeigt im Schnitt lediglich 20%. Wenn nach euren Aussagen die Latenz solchen Einfluss hat, dann noch weniger. Bei 40% mehr Bandbreite kein wirkliches Bandbreitenlimit.

Fast hast du es, jetzt nur noch 1 und 1 zusammenzählen. :) Wir haben mehrere Benchmarks, die teils CPU-limitiert sind. Wir haben verschiedene Speicherlatenzen, die ihren Einfluss auf die (L3-lose!) CPU haben. Und nun haben wir, oh Wunder, im Schnitt noch 20% Differenz... Na?

Ob wir nun 20% oder 30% Zugewinn haben: Für die prinzipielle Fragestellung ist das relativ egal. Im CPU-Bereich sehen wir was passiert, wenn wir praktisch keinerlei Bandbreitenlimitierung haben: Bis auf die speicherlastigen Packprogramme macht die Nutzung von 1, 2 (oder 3) Speicherkanälen einen Leistungsunterschied von <5%. <5% bei bis zu 3-facher Bandbreite. Oder ein Beispiel aus der GPU-Welt: Bei gleichem GPU-Takt lagen HD4850 und HD4870 trotz 80% mehr Bandbreite letzterer unter 10-15% auseinander.

Jetzt haben wir, CiV und SC2 ausgenommen, bei 40% mehr Bandbreite knapp 25% Mehrleistung, teils auch um die 30% - und da können wir Restlimits der CPU noch nichteinmal ausschließen. Ja, das ist mehr als ein klares Speicherlimit. So what, ist trotzdem die schnellste IGP. Ich glaube du bist der einzige Mensch im ganzen Netz, der das leugnet. Dabei noch viel Spaß, ich bin raus.
 
Ich möchte das speicherthema nicht noch weiter anheizen, aber ich hab mal ddr3 mit gddr3 (ddr2) verglichen. Das ganze ist ja ein witz. Und alles nicht wegen Takt sondern speicheranbindung. 256bit vs 64bit. Ist der controller wirklich soo teuer, dass es sich nicht rentiert? Oder kann man dimms nicht mit breiterem si ansprechen? Weshalb nicht 4 bänke mit quadchannel? Oder gleich festverlöteter ram. Muss ja nicht viel sein und in nb's sogar noch platzsparend... wie sieht es später mit ddr4 aus? Steigen da die geschwindigkeiten stark an? Sry schreibe mit dem handy deswegen die schreibweise...
 
Der Preis ist schon der Hauptgrund. Die Mehrkosten entstehen dabei gleich an mehreren Stellen: Zusätzliche Deifläche für den größeren Speichercontroller, zusätzliche Pins, aufwändigere Boards mit mehr Layern - das geht in der Summe richtig ins Geld, zumindest im angepeilten Preisbereich Llanos ist soetwas schlicht nicht realisierbar - auch wenn es deutlich Mehrleistung brächte.
 
Von dem Latenzvorteil profitiert CPU+GPU bei Llano, logisch. Das kann durchaus ein paar Prozent ausmachen, was in so einer Rechnung eine große Gewichtung hätte. Die Beweiskraft liegt hier jedoch bei demjenigen, der trotz dieser Unstimmigkeit die Folie erstmalig ins Spiel brachte. Schauen wir uns die Speicherpreislisten an. Es hat sich CL9 für DDR3-1600 und DDR3-1866 durchgesetzt. Diese Timings sind die praxisnähsten. Man könnte höchstens noch CL8/CL9 oder CL9/CL10 durchgehen lassen, CL7/CL9 geht auf keinen Fall.

Schauen wir uns ein paar der wenigen verwertbaren Benchmarks an wo sich die CPU Limitierung im Rahmen halten dürfte.

Metro 2033
1333= 19,5
1600= +15,4 von 1333
1866= +8,9% von 1600

15,4% Anstieg nur bei knapp 21% mehr Bandbreite. Klingelt es langsam? Eine perfekte Skalierung gibt es nur selten. Also wird es von 1600 auf 1866 eben nicht besser aussehen. Zur Erinnerung, der Bandbreitenanstieg von 1600 auf 1866 liegt 4,4% geringer. Diese 6,5% Differenz bei geringeren Bandbreitenanstieg und trotz Latenzungleichgewichts sind richtig gut. Das ist eindeutig der Beleg für die starke Bandbreitenabhängigkeit. Genauso sieht es in Mass Effect 2 aus und kaum anders in Hawx. Starcraft wird völlig CPU limitiert sein, Dirt 2 und Civ 5 sind auch bekannt für die starke CPU Abhängigkeit. Da kann man selbst mit Sandy Bridge und HD3000 eine nahezu 100 prozentige CPU Limitierung erreichen wenn mans drauf anlegt (Benchmark Units). Das ist einfach unbrauchbar. Ja selbst Crysis wird gerne unterschätzt. 1-2 fps hin oder her durch eine kleine Limitierung kann das Skalierungsergebnis stark verfälschen.
 
Zuletzt bearbeitet:
Wobei ich glaube, die Latenzen hat sich Mirko nur aus den Fingern gesaugt.

Könntest du es unterlassen mich mit fremden usern zu verwechseln?

Dann solltest du mal im Twitter nachschauen, dort hat Theo Valich schon nach den Timings gefragt. Und wieso erkundigst du dich nicht selber nach den Timings wenn es dir so sehr an der Folie gelegen ist? Das wäre dein erstes Opfer gewesen. Bis jetzt hat mir Anand immer geantwortet.

http://www.abload.de/img/beweisfy6b.png

Die Folie ist nicht nur ein Teaser auf Twitter, die wurde auch im Forum des Artikels verlinkt.
 
Zuletzt bearbeitet:
Ich hatte bereits gefragt, woher die Latenzen stammen. Wenn du es nicht für nötig hältst darauf zu antworten, muss ich davon ausgehen, dass du dir das nur ausgedacht hast. Auf Twitter stand jedenfalls nichts. Und welcher Artikel? Das Desktop Review ist, wie ich bereits sagte, noch gar nicht online.
 
Ich zitiere Anands Twitter vom 15. Juni.

@theovalich same latency at 1333 & 1600, 1866 pushes CL up to 9 - 10% higher latency

@theovalich agreed, the memory i was using wouldn't do CL7 at 1866 but i will have some in house this week that will

Zur endgültigen Absicherung habe ich ihn daraufhin angefragt, worauf er CL7 für 1333/1600 und CL9 für 1866 bestätigte.

Und welcher Artikel?

Der bereits verlinkte A8-3850 Artikel. Ich zitiere Anand aus den Comments dieses Artikels:

 
Zuletzt bearbeitet:
Konnte die ersten Llano Modelle bei Onlineshops ausfindig machen.
Der A8-3850 kostet demnach zwischen 125-135 €.
Angeblich sind die Teile ab 28.6.2011 verfügbar.
mfg
 
Zuletzt bearbeitet:
Da es keinen expliziten Thread für Bobcat gibt, poste ich es einfach mal hier, da es im Wesentlichen auch zu AMD Fusion gehört.

Im XS hat der User mAJORD einen Architekturvergleich zwischen K8, K10 und Bobcat gemacht. Der Testparcours ist sicherlich begrenzt, gibt aber zumindest einige Anhaltspunkte.

Bobcat Core performance analysis - Bobcat vs K10 vs K8

Sehr interessant, wie flott Bobcat bei Integer unterwegs ist, trotz lediglich 2-fach superskalarer Pipeline. Bei FP-lastigen Anwendungen fällt Bobcat dann erwartungsgemäss ab aufgrund der auf Verbrauch getrimmten schwachbrüstigen FPU, speziell gegenüber K10.
 
Quad-Core Llano@4,35GHz^^

Edit: A8-3800 müsste die 65W TDP Version mit 2,4GHz (Turbo 2,7GHz) sein, es wird zum Übertakten auch der 27er Multi verwendet.



Quelle: MSI Global ? News
 
Zuletzt bearbeitet:
Da Llano in 32nm gefertigt wird erwarte ich bis zu 4,6Ghz OC Potential gegenüber einen Deneb in 45nm.
 
Naja so einfach ist die Gleichung (32nm > 45nm) aber nicht Duplex, wenn die Desktop-Llano DIEs die selben Core-Steppings besitzen und die gleichen Transistoren zum Einsatz kommen wie bei den Mobile-Llanos, dann sind die DIEs auf möglichst niedrigem Stromverbrauch bei moderaten Taktraten ausgelegt. Die werden im oberen Bereich relativ schnell ineffizient oder limitieren.

Falls aber wie in der Vergangenheit (z.B. bei den K8 CPUs) auch Desktop Core-Steppings zum Einsatz kommen, die im unteren Bereich etwas höhere Spannungen benötigen aber spürbar höher takten können, dann sollten es kein Problem sein. Fragt sich nur ob AMD bereits ab den ersten Chargen verschiedene Core-Steppings ausliefert, denn sein wir mal ehrlich 2,9GHz beim 100W TDP Top-Modell ist jetzt nicht sooo prickelnd (auch wenn die GPU davon vielleicht 20-30W TDP für sich beansprucht).
 
Zuletzt bearbeitet:
Wäre mal interessant zu wissen, ob die angezeigte Spannung korrekt ist. Etwa 1,15 V bei fast 4,4 GHz wäre zumindest super. Diese Spannung braucht mein X2 240 für seine lediglich 2,8 GHz.
 
Die Spannung stimmt nicht, Auslesefehler - tritt beim Takt auch gerne auf und freier Multi (der tatsächlich auch umgesetzt wird) wäre ebenfalls sehr überraschend ;) Also diesen Wert bitte mit Vorsicht behandeln .
 
der multi passt doch für nen 3800er, oder ? 27x100=2700 mhz.
wenn das teil wirklich so geht läuft mirs wasser im mund zusammen ^^ frage mich aber was der bei den einstellungen an strom verbrät.
mfg
 
Zuletzt bearbeitet:
Die Spannung kann schon stimmen, solche Werte sind z.B. aufgrund von Clock Gating möglich (wobei die CPU dann allerdings intern deutlich heruntertaktet). Beim Zacate gibt es ähnliche Beobachtungen:

Idle P2 State -> 800MHz@1,000V
Idle P0 State -> 1600MHz@1,300V

Wenn Cool and Quiet jedoch deaktiviert wird, läuft die CPU laut CPU-Z mit 1600MHz@1,000V im Idle. Natürlich muss sie dabei dennoch intern heruntertakten (Clock Gating), denn die CPU schafft die vollumfänglichen 1600MHz nur mit minimal 1,175V (eigenen Tests).

Die Llano-CPU wird wohl mindestens etwas über 1,3V für 4,35GHz benötigen: Link
 
Zuletzt bearbeitet:
Llano wird mehr als 1,3V für den Standardtakt (!) benötigen - das sah man man an der VID bei den BIOS-Bildern, die iirc Coolaler oder OBR gezeigt hatten. Muss suchen ...
 
@che new

Ok, das wäre natürlich eine plausible Erklärung. Etwas über 1,3 V wäre aber immer noch gut für diesen Takt. Zumindest ein deutlicher Schritt nach vorne gegenüber den 45 nm Modellen. Das lässt für den 32 nm Prozess und Bulldozer hoffen.


@y33H@

Womit ein Prozessor ab Werk ausgeliefert wird und was OC/UV betrifft, sind doch zwei verschiedene Paar Schuhe. Mein X2 240 wird zB mit 1,4 V VID ausgeliefert, läuft seit 2 Jahren aber völlig stabil mit 1,15 V.
 
@y33H@
Ich schrieb ja auch mindestens, was so viel wie keines Falls darunter bedeutet. Und was ist für dich Standardtakt? Dass selbst ein 65W TDP-Modell mit 2,4GHz mehr als 1,3V benötigt bezweifle ich mal. Das wäre doch lächerlich, 32nm HKMG sollte die Spannung gegenüber 45nm eher senken als erhöhen.
 
Zuletzt bearbeitet:
Womit ein Prozessor ab Werk ausgeliefert wird und was OC/UV betrifft, sind doch zwei verschiedene Paar Schuhe. Mein X2 240 wird zB mit 1,4 V VID ausgeliefert, läuft seit 2 Jahren aber völlig stabil mit 1,15 V.
Wenn du deine CPU außerhalb ihrer Specs betreibst, ist das deine Sache. AMD liefert den A8-3850 mit einer VID von rund 1,4 Volt für den Standardtakt aus - klar geht idR weniger, aber der Hersteller gibt diesen Wert (inkl. Sicherheitspuffer) nun mal vor :rolleyes:

Und was ist für dich Standardtakt?
2,9 GHz für den A8-3850.
 
Zuletzt bearbeitet:
Dieser A8-3800 hat ja mal richtig Power...nicht schlecht! :drool:
 
@y33H@

Bevor wir wieder aneinander vorbeireden und eine Diskussion vom Zaun brechen, einige wir uns doch bitte auf folgende Punkte:

1. Es geht bei Coolaler um einen A8-3800 mit 2,4GHz Standardtakt, der vermutlich mit ~1,15V Vcore läuft (wenn Clock Gating greift mit ~1,00V im Idle): Link

2. Coolaler betreibt die CPU nicht nach Herstellerspezifikationen, es liegt nahe dass er nur so viel Vcore draufgelegt habe wird wie nötig.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh