Wir reden auch nicht von PCIe. Der RAM ist direkt an den Prozessor angebunden. Und das seit der Direct Connection Architecture bei AMD (K8). Schau dir doch einfach mal das
Systemdiagramm von Kabini an. PCIe kommt erst dann zum Tragen, wenn du noch eine dGPU zusätzlich ranhängst. Da diese aber ihren eigenen VRAM mitbringt, hält sich der PCIe Datenverkehr natürlich in Grenzen. Deshalb siehst du momentan auch wenig Unterschied zwischen PCIe 2 und 3. Mit APU <-> RAM und dGPU <-> VRAM hat das wenig zu tun.
Den Zusammenhang hast du aber schon verstanden?
Ich ging damit auf deine Aussage von oben ein, nämlich: "Transfers zwischen RAM und VRAM fallen weg, da CPU und GPU auf einen gemeinsamen Adressraum zugreifen"
Und ich brachte einen Vergleich zu einer dedizierten GPU Lösung, wo genau so das selbe Verhalten gezeigt wird. Nämlich "Transfer zwischen RAM und VRAM". Im Vergleich sagte ich, verringert man die PCIe Bandbreite, um einen Flaschenhals zu erzeugen, ändert sich an der Performance sogut wie nix.
Das es an der Stelle bei der APU nicht über PCIe läuft, spielt doch absolut gar keine Rolle um den Vergleich dedizierte GPU zu APU zu tätigen. Wäre der Transfer zwischen RAM und VRAM eine Performancebremse, müssten dedizierte GPUs stark einknicken, wenn man ihnen die Bandbreite nimmt. -> machen sie aber nicht. -> ergo kann dies nicht primär ein Problem sein.
Dann verrate mir doch mal, weshalb APUs bis zu einem gewissen Grad recht gut mit schnellerem RAM skalieren, wenn dort nicht Texturen, Vertexdaten, etc die ganze Zeit übertragen werden. Wofür geht die ganze Bandbreite dann drauf?
Ein gemeinsamer Adressraum im RAM wirkt letztendlich wie ein Cache. Solange die erforderlichen Daten vorhanden sind, muss nichts transferiert bzw nachgeladen werden. Dann ist der einzige Flaschenhals der Zugriff, also die Latenz. Und jetzt frage dich mal, warum Caches erfunden worden? Dann hast du auch die Antwort, was hUMA im Endeffekt bringt, nur halt ein Level darüber.
Ja warum skaliert der GPU Teil wohl mit schnellerem RAM?
Wohl vielleicht, weil dieser keinen eigenen schnellen und dedizierten Speicher wie eine dedizierte GPU hat?
Aber fragen wir mal anders, welchen Effekt würde diese Technik denn bringen, wenn die Daten schon im "VRAM" Bereich der APU drin sind? -> keinen nennenswerten mehr. Oder etwa nicht?
Du kannst so viel schätzen wie du willst, wenn du starr an aktuellen Programmierweisen festhältst, wirst du nur minimale Vorteile erkennen können. Ob daraus mal mehr wird, muss die Zeit zeigen. Durch hUMA soll die zusätzliche Power bei der GPU besser und effizienter genutzt werden können. Dazu müssen die Progammierer aber teilweise umdenken und AMD muss auf unterstützende Effekte durch die Konsolen hoffen.
Womit wir wieder bei dem Problem sind, das AMD lange nicht in der Lage ist, so eine Marktmacht auszuüben um dort zum Umdenken bzw. anpassen zu treiben.
Es gab schon ganz andere Sachen, welche am Markt nur MIttelmaß waren oder gar nicht angenommen wurden, weil die Software nicht mitspielte.
Für mich bleibt abermals der kleine Beigeschmack, dass AMD sich auf Sachen stützt, die aktuell nicht umsetzbar sind.
Im P3D Artikel stand ähnliches zum Bulldozer, nämlich das die überall genutzte Wald und Wiesensoftware eben weder spezielle Befehlssätze unterstützt noch auf viele Cores hin optimiert ist...
Und ja, für mich sind das hinhalte Parolen... Warum soll ich als Kunde warten? Ich kaufe dann, wenn ich Leistung brauche. Sicher aber nicht dann, wenn irgendwann in x Jahren mal die Software da mitmacht.
Aktuell sehe ich weder in Wald und Wiesensoftware einen Vorteil durch die GPU in der APU, noch sehe ich in näherer Zukunft dort einen massiven Vorteil. Bleibt unterm Strich also das Spielen. Und dafür halte ich die APUs für zu langsam