Computex 2013: AMD zeigt "Kaveri" in Aktion

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="AMD" src="/images/stories/logos/AMD.jpg" height="100" width="100" />Auf der <a href="index.php/news/allgemein/vor-ortmessen/25140-ces-2013-amd-gibt-ausblick-auf-die-naechsten-monate.html" target="_blank">Consumer Electronics Show zu Beginn des Jahres rückte AMD nähere Details zu „Kaveri“</a> heraus. Im Rahmen der heutigen Pressekonferenz während der Computex 2013 setzte man einen drauf und zeigte die nächste Generation der APUs erstmals in Aktion. Ackern musste das vierte Semester der AMD-APUs in einer Grafik-Demo von Devl May Cry, die ohne Ruckler und in schicker Grafikpracht auf der kommenden Generation ihre Dienste tat. Mit „Kaveri“ wagt AMD den Sprung auf die 28-nm-Fertigung und stellt bei der Grafikeinheit endlich auf die...<br /><br /><a href="/index.php/news/hardware/prozessoren/26584-computex-2013-amd-zeigt-qkaveriq-in-aktion.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kaveri wird whrscheinlich kaum schneller werden als Richland, denn es wid weiterhin DDR3 verwendet.
Gut, wichtiger wird hier wahrscheinlich GCN und die CPU Leistung sein.
 
nach ein bisschen vergleichen frag ich mich was bringt ddr5/4 in der anfangs faße,
für einen Vorteil gegenüber ddr3-2666.

ausser der Strom verbrauch

edit:

ausm pcgh-artikel

"Uns gegenüber erläuterte man uns, dass AMD auf den Sockel FM2+ setzt, welcher vor allem die Stromversorgung gegenüber dem FM2 verändert und eine andere Pin-Anzahl mit sich bringt. Kaveri passe zwar mechanisch in den Sockel FM2 und es soll auch entsprechende UEFI-Updates geben, die Hersteller sind nach den FX und angeblicher AM3-Kompatibiliät jedoch vorsichtiger geworden."

ergo, sollte es Mainboards geben, die kompatibel sind. Einfach einen Hersteller nehmen, der für gute Updates bekannt ist.
 
Zuletzt bearbeitet:
:confused:
Kaveri wird whrscheinlich kaum schneller werden als Richland, denn es wid weiterhin DDR3 verwendet.
Gut, wichtiger wird hier wahrscheinlich GCN und die CPU Leistung sein.
Also du versprichst dir mehr GPU-Leistung durch GCN und mehr CPU-Leistung, aber er soll kaum schneller werden als Richland? :confused:

Abgesehen davon dachte ich, dass Kaveri auch mit GDDR5 kommt (FM3?).
 
Wird sicher ein FM2+ Sockel werden. Und die Grafikleistung sollte schon hoch gehen mit der GCN-Architektur, allerdings muss man dann ma beim RAM schauen, ob da irgendetwas verändert wird. Und die CPU-Performance wird hoffentlich endlich besser..
 
jockelb schrieb:
Also du versprichst dir mehr GPU-Leistung durch GCN und mehr CPU-Leistung, aber er soll kaum schneller werden als Richland?

Ich meine GCN als ganzes, wo vor allem die Achitektur mitschwingt, die wichtig ist für HSA.

mr.dude schrieb:
Kaveri wird über hUMA verfügen. Das kann einiges bewirken, selbst ohne schnelleren RAM.

Wie soll Huma die Leistung in Spielen steigern?
 
Durch Huma muss man die Speicherbereiche nichtmehr verschieben, damit die GPU darauf zugreifen kann. Wenn das gut umgesetzt wird (Treiber) und nicht von der Software unterstützt werden muss, kann das schon Leistung bringen, da weniger Bandbreite für die GPU verwendet wird. -> mehr kann verwendet werden.

Die Frage ist aber, lässt es sich so einfach im Treiber unterbringen und wie viel Leistung kann man aus der frei gewordenen Bandbreite herausholen.
 
Da wird ja gar keine Bandbreite frei, die Aufgaben für CPU und GPU sind klar definiert, außer man schreibt den Code um, ich sehe da kurzfristig gar keinen Vorteil.

Zudem HSA scheinbar im Keim erstickt wird, hab ich leider leider so das Gefühl, es gibt bisher nicht eine vorzuzeigende Anwendung.
 
Zuletzt bearbeitet:
In einem Normalen PC gehen die Daten folgenden weg.
Festplatte -> in RAM laden -> evtl in CPU laden -> in grafik RAM laden -> in GPU laden

Mit der neuen Architektur kann der schritt "in grafik RAM laden" weg gelassen werden.

Um das zu nutzen ist eine Änderung in der art und weiße wie die Grafikkarte genutz wird nötig.
Ob dies mit einem passenden Treiber erledigt ist weiß ich nicht.
 
Wie soll Huma die Leistung in Spielen steigern?
Wie andere schon gesagt haben, Transfers zwischen RAM und VRAM fallen weg, da CPU und GPU auf einen gemeinsamen Adressraum zugreifen. Oder in anderen Worten, du hast zwar nicht mehr Bandbreite, diese kann aber effizienter genutzt werden.
 
Nur was bringt das effektiv?

Ich wage zu bezweifeln, das der Performancegewinn, speziell auf Spiele bezogen, sehr sehr gering ausfallen dürfte bzw. wird.
Einfach aus dem Grund, am Zusammenspiel von GPU und CPU bzw. RAM und VRAM gibt es ja quasi keinen Unterschied zwischen dedizierter Grafikkarte und einer APU Lösung.
Verringert man aber den Flaschenhals PCIe Bandbreite bei einer aktuellen HighEnd Grafikkarte deutlich (von PCIe 3.0 16x auf 2.0 8x), ändert sich an der Performance bestenfalls im messbaren Bereich etwas...

Somit dürfte ersichtlich sein, das der Bandbreitenbedarf für derartige Übertragungsaktionen bestenfalls minimal einzuschätzen ist. Sonst müssten dedizierte GPUs deutlich in der Performance wegbrechen, wenn man ihnen die Bandbreite stark kürzt.



Interessant wird das ganze ggf. aber dann, wenn man den VRAM dynamisch zuweisen kann. Ich glaub, aktuell geht das wohl so nicht. Sprich keine "harten" Einstellungen von wegen 1GB VRAM + Rest an die CPU. Sondern je nach Bedarf eben fließend.
 
Re: Computex 2013: AMD zeigt "Kaveri" in Aktion

Jup, das würde ich auch sagen... einfach abwarten :)

Lg Marti

Gesendet von meinem MB526 mit der Hardwareluxx App
 
Die 100W APU kommt auf ~1000 Gflops (CPU+GPU). AMD wird mit einer 35W oder 45W APU Intels Iris Pro sehr wahrscheinlich nicht erreichen. Die normale Iris wird schon schwer genug.
 
Die normale Iris hat 1600mhz DDR3 als Bandbreite, das schließt schonmal aus, dass die normale Iris schneller ist, die 40 Eu´s verpuffen.
 
Re: Computex 2013: AMD zeigt "Kaveri" in Aktion

Hm, denke ich auch... aber das muss man wohl abwarten.

Gesendet von meinem MB526 mit der Hardwareluxx App
 
Meinst du nicht, dass man da einfach abwarten muss?

Was ist daran verkehrt, wenn man im Vorfeld das Feature versucht einzuschätzen?
Nenn mir doch mal einen Grund, der hier auf echten Performancezugewinn schließen lässt...

Für mich schaut das bestenfalls nach minimalem Vorteil aus.
Und dementsprechend kann ich ehrlich gesagt auch solche hinhalte Parolen wie deine nicht gut heißen...
 
Ich wage zu bezweifeln, das der Performancegewinn, speziell auf Spiele bezogen, sehr sehr gering ausfallen dürfte bzw. wird.
Ja, das wage ich auch zu bezweifeln. :haha:

Einfach aus dem Grund, am Zusammenspiel von GPU und CPU bzw. RAM und VRAM gibt es ja quasi keinen Unterschied zwischen dedizierter Grafikkarte und einer APU Lösung.
Doch, gerade das. Erst recht mit HSA.

Verringert man aber den Flaschenhals PCIe Bandbreite bei einer aktuellen HighEnd Grafikkarte deutlich (von PCIe 3.0 16x auf 2.0 8x), ändert sich an der Performance bestenfalls im messbaren Bereich etwas...
Wir reden auch nicht von PCIe. Der RAM ist direkt an den Prozessor angebunden. Und das seit der Direct Connection Architecture bei AMD (K8). Schau dir doch einfach mal das Systemdiagramm von Kabini an. PCIe kommt erst dann zum Tragen, wenn du noch eine dGPU zusätzlich ranhängst. Da diese aber ihren eigenen VRAM mitbringt, hält sich der PCIe Datenverkehr natürlich in Grenzen. Deshalb siehst du momentan auch wenig Unterschied zwischen PCIe 2 und 3. Mit APU <-> RAM und dGPU <-> VRAM hat das wenig zu tun.

Somit dürfte ersichtlich sein, das der Bandbreitenbedarf für derartige Übertragungsaktionen bestenfalls minimal einzuschätzen ist.
Dann verrate mir doch mal, weshalb APUs bis zu einem gewissen Grad recht gut mit schnellerem RAM skalieren, wenn dort nicht Texturen, Vertexdaten, etc die ganze Zeit übertragen werden. Wofür geht die ganze Bandbreite dann drauf?

Ein gemeinsamer Adressraum im RAM wirkt letztendlich wie ein Cache. Solange die erforderlichen Daten vorhanden sind, muss nichts transferiert bzw nachgeladen werden. Dann ist der einzige Flaschenhals der Zugriff, also die Latenz. Und jetzt frage dich mal, warum Caches erfunden worden? Dann hast du auch die Antwort, was hUMA im Endeffekt bringt, nur halt ein Level darüber. ;)
 
Jaguar existiert im Moment nur als "Low-Power"-Chip, das ist in der Form zu schwachbrüstig in dem Segment. Was dieses Jahr raus kommt ist schon lange in Entwicklung, selbst wenn AMD von der Bulldozer-Architektur abkehren würde, würden wir das nicht dieses Jahr sehen.
 
Was ist daran verkehrt, wenn man im Vorfeld das Feature versucht einzuschätzen?
Nenn mir doch mal einen Grund, der hier auf echten Performancezugewinn schließen lässt...

Für mich schaut das bestenfalls nach minimalem Vorteil aus.
Und dementsprechend kann ich ehrlich gesagt auch solche hinhalte Parolen wie deine nicht gut heißen...
Hinhalteparolen :haha: (tolle Stammtischparole :stupid:)

Du kannst so viel schätzen wie du willst, wenn du starr an aktuellen Programmierweisen festhältst, wirst du nur minimale Vorteile erkennen können. Ob daraus mal mehr wird, muss die Zeit zeigen. Durch hUMA soll die zusätzliche Power bei der GPU besser und effizienter genutzt werden können. Dazu müssen die Progammierer aber teilweise umdenken und AMD muss auf unterstützende Effekte durch die Konsolen hoffen.
 
Wir reden auch nicht von PCIe. Der RAM ist direkt an den Prozessor angebunden. Und das seit der Direct Connection Architecture bei AMD (K8). Schau dir doch einfach mal das Systemdiagramm von Kabini an. PCIe kommt erst dann zum Tragen, wenn du noch eine dGPU zusätzlich ranhängst. Da diese aber ihren eigenen VRAM mitbringt, hält sich der PCIe Datenverkehr natürlich in Grenzen. Deshalb siehst du momentan auch wenig Unterschied zwischen PCIe 2 und 3. Mit APU <-> RAM und dGPU <-> VRAM hat das wenig zu tun.
Den Zusammenhang hast du aber schon verstanden?
Ich ging damit auf deine Aussage von oben ein, nämlich: "Transfers zwischen RAM und VRAM fallen weg, da CPU und GPU auf einen gemeinsamen Adressraum zugreifen"
Und ich brachte einen Vergleich zu einer dedizierten GPU Lösung, wo genau so das selbe Verhalten gezeigt wird. Nämlich "Transfer zwischen RAM und VRAM". Im Vergleich sagte ich, verringert man die PCIe Bandbreite, um einen Flaschenhals zu erzeugen, ändert sich an der Performance sogut wie nix.
Das es an der Stelle bei der APU nicht über PCIe läuft, spielt doch absolut gar keine Rolle um den Vergleich dedizierte GPU zu APU zu tätigen. Wäre der Transfer zwischen RAM und VRAM eine Performancebremse, müssten dedizierte GPUs stark einknicken, wenn man ihnen die Bandbreite nimmt. -> machen sie aber nicht. -> ergo kann dies nicht primär ein Problem sein.

Dann verrate mir doch mal, weshalb APUs bis zu einem gewissen Grad recht gut mit schnellerem RAM skalieren, wenn dort nicht Texturen, Vertexdaten, etc die ganze Zeit übertragen werden. Wofür geht die ganze Bandbreite dann drauf?

Ein gemeinsamer Adressraum im RAM wirkt letztendlich wie ein Cache. Solange die erforderlichen Daten vorhanden sind, muss nichts transferiert bzw nachgeladen werden. Dann ist der einzige Flaschenhals der Zugriff, also die Latenz. Und jetzt frage dich mal, warum Caches erfunden worden? Dann hast du auch die Antwort, was hUMA im Endeffekt bringt, nur halt ein Level darüber. ;)

Ja warum skaliert der GPU Teil wohl mit schnellerem RAM?
Wohl vielleicht, weil dieser keinen eigenen schnellen und dedizierten Speicher wie eine dedizierte GPU hat?

Aber fragen wir mal anders, welchen Effekt würde diese Technik denn bringen, wenn die Daten schon im "VRAM" Bereich der APU drin sind? -> keinen nennenswerten mehr. Oder etwa nicht?

Du kannst so viel schätzen wie du willst, wenn du starr an aktuellen Programmierweisen festhältst, wirst du nur minimale Vorteile erkennen können. Ob daraus mal mehr wird, muss die Zeit zeigen. Durch hUMA soll die zusätzliche Power bei der GPU besser und effizienter genutzt werden können. Dazu müssen die Progammierer aber teilweise umdenken und AMD muss auf unterstützende Effekte durch die Konsolen hoffen.

Womit wir wieder bei dem Problem sind, das AMD lange nicht in der Lage ist, so eine Marktmacht auszuüben um dort zum Umdenken bzw. anpassen zu treiben.
Es gab schon ganz andere Sachen, welche am Markt nur MIttelmaß waren oder gar nicht angenommen wurden, weil die Software nicht mitspielte.
Für mich bleibt abermals der kleine Beigeschmack, dass AMD sich auf Sachen stützt, die aktuell nicht umsetzbar sind.

Im P3D Artikel stand ähnliches zum Bulldozer, nämlich das die überall genutzte Wald und Wiesensoftware eben weder spezielle Befehlssätze unterstützt noch auf viele Cores hin optimiert ist...
Und ja, für mich sind das hinhalte Parolen... Warum soll ich als Kunde warten? Ich kaufe dann, wenn ich Leistung brauche. Sicher aber nicht dann, wenn irgendwann in x Jahren mal die Software da mitmacht.
Aktuell sehe ich weder in Wald und Wiesensoftware einen Vorteil durch die GPU in der APU, noch sehe ich in näherer Zukunft dort einen massiven Vorteil. Bleibt unterm Strich also das Spielen. Und dafür halte ich die APUs für zu langsam ;)
 
Den Zusammenhang hast du aber schon verstanden?
Ich ging damit auf deine Aussage von oben ein, nämlich: "Transfers zwischen RAM und VRAM fallen weg, da CPU und GPU auf einen gemeinsamen Adressraum zugreifen"
Und ich brachte einen Vergleich zu einer dedizierten GPU Lösung, wo genau so das selbe Verhalten gezeigt wird. Nämlich "Transfer zwischen RAM und VRAM". Im Vergleich sagte ich, verringert man die PCIe Bandbreite, um einen Flaschenhals zu erzeugen, ändert sich an der Performance sogut wie nix.
Das es an der Stelle bei der APU nicht über PCIe läuft, spielt doch absolut gar keine Rolle um den Vergleich dedizierte GPU zu APU zu tätigen. Wäre der Transfer zwischen RAM und VRAM eine Performancebremse, müssten dedizierte GPUs stark einknicken, wenn man ihnen die Bandbreite nimmt. -> machen sie aber nicht. -> ergo kann dies nicht primär ein Problem sein.
Reduzier die Bandbreite noch weiter. PCIe 2.0 8x hat 4GB/s Lass es 2GB/s sein, die am ende mehr zur Verfügung stehen.

Wenn man Computerbase glauben darf, schaufelt Richland 13GB/s aus dem RAM, das wären dann grob 20%. Natürlich ist das eine rein theoretische Überlegung, aber man könnte so ein wenig mehr Bandbreite herausholen und eine stärkere GPU in Kaverie einbauen, bis DDR4/GDDR5 kommt.

Ja warum skaliert der GPU Teil wohl mit schnellerem RAM?
Wohl vielleicht, weil dieser keinen eigenen schnellen und dedizierten Speicher wie eine dedizierte GPU hat?

Hier wiedersprichst du dir doch grad selber. Auf der einen Seite bringt mehr Bandbreite nichts, aber auf der anderen Seite schnellerer RAM schon, also was denn jetzt?

Aber fragen wir mal anders, welchen Effekt würde diese Technik denn bringen, wenn die Daten schon im "VRAM" Bereich der APU drin sind? -> keinen nennenswerten mehr. Oder etwa nicht?
Es geht nicht darum, was mit den Daten im VRAM passiert, sondern wie sie dahin kommen. Wobei mit Huma wird es diesen vermutlich nichtmehr geben.

Die frage ist eigentlich, wie wird es aktuell gemacht. Rechnet die CPU direkt im VRAM der iGPU (kann ich mir nicht vorstellen wegen Kohärenz) oder wird alles im nennen wir es CPU-RAM berechnet und dann in den VRAM geschoben?
Die zweite Variante würde durch Huma beschleunigt werden, die erste nicht. Ich hab davon aber keine Ahnung, deswegen kann ich das auch nicht beurteilen, ist wie gesagt, alles theoretisch.

Womit wir wieder bei dem Problem sind, das AMD lange nicht in der Lage ist, so eine Marktmacht auszuüben um dort zum Umdenken bzw. anpassen zu treiben.
Es gab schon ganz andere Sachen, welche am Markt nur MIttelmaß waren oder gar nicht angenommen wurden, weil die Software nicht mitspielte.
Für mich bleibt abermals der kleine Beigeschmack, dass AMD sich auf Sachen stützt, die aktuell nicht umsetzbar sind.
Für das oben angesprochene Verhalten der GPU, also mehr Bandbeite für die GPU, ist AMD selbst verantwortlich, durch die Treiber. Da wird kein Hersteller selbs optimieren müssen, damit ein Spiel schneller läuft oder wie auch immer. Das ist einzig und allein Treiber sache.

Im P3D Artikel stand ähnliches zum Bulldozer, nämlich das die überall genutzte Wald und Wiesensoftware eben weder spezielle Befehlssätze unterstützt noch auf viele Cores hin optimiert ist...
Und ja, für mich sind das hinhalte Parolen... Warum soll ich als Kunde warten? Ich kaufe dann, wenn ich Leistung brauche. Sicher aber nicht dann, wenn irgendwann in x Jahren mal die Software da mitmacht.
Aktuell sehe ich weder in Wald und Wiesensoftware einen Vorteil durch die GPU in der APU, noch sehe ich in näherer Zukunft dort einen massiven Vorteil. Bleibt unterm Strich also das Spielen. Und dafür halte ich die APUs für zu langsam ;)
Jetzt wirst du persönlich.
Das dir eine APU zu schwach ist, ist dein problem, aber ich kann hier auf einer A10 APU wunderbar zocken. Als Zweitrechner, Lan-PC, HTPC,... ist es eine schöne CPU und die P/L ist top.
Klar ist ein i5 schneller, aber das behauptet auch niemand und wer mit einer APU BF3 auf ultra mit 4k Auflösung spielen will, hat das Prinzip nicht verstanden. Ich lehn mich jetzt mal etwas aus dem Fenster und behaupte, das eine APU für 90% aller Haushalte, mehr als ausreichend ist.
 
Und ja, für mich sind das hinhalte Parolen... Warum soll ich als Kunde warten? Ich kaufe dann, wenn ich Leistung brauche. Sicher aber nicht dann, wenn irgendwann in x Jahren mal die Software da mitmacht.
Ich glaub du verwechselst mich irgendwie...seh ich so aus als wöllte ich dir irgendwas verkaufen?

Es geht hier doch um die allgemeine Abschätzung welchen Vorteil hUMA bringen könnte. Und da bin ich nach wie vor der Meinung, dass man da einfach mal abwarten muss.


Bleibt unterm Strich also das Spielen. Und dafür halte ich die APUs für zu langsam ;)
Also Richland schafft z.B. spielbare FPS in Skyrim in FullHD und bei hohen Details, Kaveri dürfte da noch mehr oder weniger einen draufsetzen(sollten die mit hUMA ausgestatteten APUs Vorteile aus Konsolenports ziehen, dann eher deutlich mehr).

Ich überleg nun schon die ganze Zeit, ob ich mein Gamingsystem durch einen 6800K ersetze und dann schaue was ein Umsteig auf Kaveri bringt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh