AMD schaltet AFR Frame Pacing unter DirectX 12 frei

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.960
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" alt="amd radeon 2013" style="margin: 10px; float: left;" />Die Ausgabe auf modernen Grafikkarten ist keinesfalls eine gleichmäßige Folge an Bildern pro Sekunde. Verschiedene Faktoren sorgen dafür, dass die Anzahl der FPS bzw. die Frametimes schwanken. Zu diesen Faktoren gehört sicherlich die Dynamik in einer Spielszene, aber auch die Art und Weise wie die Grafikkarte die Berechnungen durchführt, kann dafür sorgen, dass es leichte Unterschiede gibt. Eine größere Komplexität bekommt das Thema beim Einsatz eines Multi-GPU-Systems. Auch unter DirectX 12 ist dies möglich, wenngleich die meisten Anwendungen auf den Einsatz von zwei GPUs beschränkt sind.</p>

<a target="_blank"...<br /><br /><a href="/index.php/news/hardware/grafikkarten/40615-amd-schaltet-afr-frame-pacing-unter-directx-12-frei.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Während NVIDIA schon 4K mit einer einzelnen GPU flüssig daddeln, wird in AMD-Land noch am Frame Pacing für einzelne Titel geschrubbt... :wut:





...sag ich mal als jahrzehntelanger ATI/AMD-Fanboy. Bevor jetzt wieder der übliche Kram kommt.
 
@chrisdash wüsste nicht was darum schlecht sein sollte, dass sie Sachen verbessern

Allgemeine Frage: Es behebt nicht die Mikroruckler, oder?
 
Während NVIDIA schon 4K mit einer einzelnen GPU flüssig daddeln, wird in AMD-Land noch am Frame Pacing für einzelne Titel geschrubbt...
Was nützt einem 4K auf einer Nvidia GPU, wenn die Hälfte der Details fehlt? :rolleyes: Und die Nvidia GPU, die jedes Spiel in 4K flüssig darstellt, muss auch erst noch gefunden werden. Selbst die GTX 1080 hat da noch oft genug Probleme. ;)
 
Zuletzt bearbeitet:
Cool freue mich muss ich mal ausprobieren. Beheben wird es diw mikroruckler nicht aber zumindestens sollten sie nicht mehr so oft auftreten.
 
Sehr schön - endlich mal ein Artikel, bei dem der Verfasser kapiert hat, dass Frame Pacing keine Neuerfindung ist.
Für kommende Titel ist natürlich zu hoffen, dass sie möglichst die MultiGPU- Funktionalitäten von Vulkan ausschöpfen, sodass AFR nicht nötig ist, und der kombinierte VRAM- Pool zur Verfügung steht.
 
@chrisdash wüsste nicht was darum schlecht sein sollte, dass sie Sachen verbessern

Allgemeine Frage: Es behebt nicht die Mikroruckler, oder?

Genau das sollte der Fall sein. Der einzige Nachteil wird wohl ein Delay bzw Input-lag. Irgend ein puffer muss ja da sein um die fps gleichmäßig ausgeben zu können. Wobei dieser kleiner wird je mehr fps man hat. Ein Test wäre auf jedenfall interessant.
 
Bisher scheint wohl nur eine Pascal X mit 2Ghz jederzeit flüssiges 4K liefern zu können bzw. über 60 fps zu bleiben.

Meine 1080 schafft das nicht in jedem Game. Selbst 1440p wird bei manchen Titel knapp. Wie z.B. Divison
Ein Glück läuft BF1 wie geschmiert mit 80+ Fps
 
@chrisdash wüsste nicht was darum schlecht sein sollte, dass sie Sachen verbessern

Allgemeine Frage: Es behebt nicht die Mikroruckler, oder?

Weil sie Ressourcen versenken, um ein Problem für einzelne Titel (es muss für jedes Spiel profilmäßig eingerichtet und freigeschaltet werden!) zu verringern, nicht zu beheben. Mirkoruckler treten weiterhin auf, aber seltener. Ich halte das für Ressourcenverschwendung bei einem Konzern, dem das Geld nicht gerade zu den Ohren rauskommt.

Was nützt einem 4K auf einer Nvidia GPU, wenn die Hälfte der Details fehlt? :rolleyes: Und die Nvidia GPU, die jedes Spiel in 4K flüssig darstellt, muss auch erst noch gefunden werden. Selbst die GTX 1080 hat da noch oft genug Probleme. ;)

Ich hab nicht gesagt, dass man damit alles auf Ultra spielen kann. Nur: Witcher 3 in 4K kannst du mit mehreren AMD-Karten im Crossfire auf keinen Fall vernünftig spielen. Mit dem aktuellen Treiber getestet mit zwei 290X (eigtl. drei, aber es nutzt nur zwei). Massive Mikroruckler bis hin zu Bildzuckungen. Bei Szenenwechseln ist es ganz offensichtlich. Klar ist Witcher 3 ein NVIDIA-freundlicher Titel, nur: mit einer einzelnen AMD GPU läuft es, obwohl nominell weniger fps, relativ rund. Man muss halt die Details etwas runter schrauben. Mit einer 1080 kannst du alles bis auf Hairworks (muss aus) auf Ultra stellen und es läuft gut. Nicht immer 60fps, aber nah dran. Klar ist da etwas Spielraum für Mehrleistung, aber es ist sehr gut spielbar und von "Problemen" kann keine Rede sein. AMD hat das Frame Pacing für Witcher 3 noch nicht mal freigeschaltet (s.o.).

Mir fehlt im Moment einfach sowas wie eine RX 490, oder eine Fury mit mehr Speicher. Da kommt aber nichts mehr. Und wenn man dann sieht, dass AMD für einzelne Titel am Treiber für Crossfire rumdengelt, klingt das wie Hohn.
 
@chrisdash
?
Frame Pacing ist in die API implemtiert, du kannst es auf Wunsch selbst im Profil abschalten, aber es muss nicht extra aktiviert werden im Profil.
z.B. habe ich kein Crossfire Profil im Crimson für ROTT mit DX12 trotzdem läuft Crossfire und Framepacing greift ebenfalls.
Crossfire kannst du auch im Profil abschalten aber das bringt nichts, da DX12 Crossfire in die API implemetiert ist, erst ein abschalten Global schaltet CfX bei ROTT aus und es läuft nur auf einer GPU.
 
Ich hab nicht gesagt, dass man damit alles auf Ultra spielen kann.
Du hast es pauschal formuliert, als ob es überall und zu jeder Zeit möglich wäre. Und das ist einfach Blödsinn.

Nur: Witcher 3 in 4K kannst du mit mehreren AMD-Karten im Crossfire auf keinen Fall vernünftig spielen.
Wen interessiert das? TW3 ist ein Gameworks Titel. Mach doch deinen Test mal mit zwei GTX 970 im SLI Verbund und schau ob es da besser läuft. Du vergleichst hier einfach Äpfel und Birnen. Es geht hier um mGPU bzw Frame-Pacing. Was willst du da bitteschön mit einer Grafikkarte argumentieren?
 
AMD soll lieber mehr GPU Power freischalten ist ja Peinlich irgendwie, NV ist schon über alle Berge und AMD torkelt gerade mal den Hügel hoch.
GPU Leistung passt überhaupt nicht mehr zu NVidia.

Nein ich will keine 400€ Karte die gerademal hälfte FPS zaubert wie NV Flaggschiff.
Ich Zahle dann lieber mehr, dadurch habe ich deutlich mehr FPS.

- - - Updated - - -

Was nützt einem 4K auf einer Nvidia GPU, wenn die Hälfte der Details fehlt? :rolleyes: Und die Nvidia GPU, die jedes Spiel in 4K flüssig darstellt, muss auch erst noch gefunden werden. Selbst die GTX 1080 hat da noch oft genug Probleme. ;)

Äääähm wenn GTX1080 Probleme in 4K hat, dann ist das Wahrscheinlich für AMD Karten Katastrophe ein Spiel in 4K zu Zaubern ;)
 
Zuletzt bearbeitet:
So mal ne Runde ROTT mit DX12 gespielt, ohne Profil im Crimson: http://abload.de/img/rottr_2016_10_11_20_065rjd.jpg
Einstellungen sind angepasst, nur Pure Hair und Details auf sehr hoch.

Scheint zu rocken, WDDM 2.1 ist auch am Start, jetzt kann Vega mit Shader Model 5 kommen oder wars doch Navi?
 
Zuletzt bearbeitet:
AMD soll lieber mehr GPU Power freischalten
Was sollen sie freischalten?
Ist ja nichts deaktiviert...
Wie kann es jemanden nur stören, wenn man die vorhandene Leistung effektiver nutzt, wahrscheinlich hast du nichtmal verstanden um was es hier geht!

ist ja Peinlich irgendwie, NV ist schon über alle Berge
Über welche Berge?
Immer wieder lustig, wenn eine Gamer den Markt aus SEINER BESCHRÄNKTEN SICHT beurteilt!
In der Realität hat AMD aktuell keinen Nachteil, weil sie die großen OEMs beliefern, davon kann NVIDIA mit 16FF+ aktuell nur träumen!

Nein ich will keine 400€ Karte
400€ kosten sie eh nicht, bevor du in ein Forum scheißt solltest du vielleicht mal nachsehen was die Karten kosten.
Und nein, die Preise sind nicht geheim, bei Geizhals erfährst du alle Preise;)


Äääähm wenn GTX1080 Probleme in 4K hat, dann ist das Wahrscheinlich für AMD Karten Katastrophe ein Spiel in 4K zu Zaubern ;)
Ist aber aktuell ziemlich egal, gibt eh kauf Gamer mit 4K Monitor.
Vega kommt halt erst Anfang 2017, ziemlich kindisch sich darüber jetzt bis dahin immer wieder aufzuregen...
 
Du hast es pauschal formuliert, als ob es überall und zu jeder Zeit möglich wäre. Und das ist einfach Blödsinn.
Das ist deine wilde Interpretation meines Einzeilers. Du hättest es wohl gerne so, damit du jemandem zum Angreifen hast.

AMD soll lieber mehr GPU Power freischalten ist ja Peinlich irgendwie, NV ist schon über alle Berge und AMD torkelt gerade mal den Hügel hoch.
GPU Leistung passt überhaupt nicht mehr zu NVidia.
An dieser Stelle muss ich dir mal ohne Einschränkung Recht geben, das ist genau mein Punkt: AMD versucht bei Crossfire irgendeinen Karren aus dem Dreck zu ziehen, dabei brennt bei Single GPU die Hütte. Und Übrigens @Pfirsirch "gibt eh kaum 4K" ja toll, wir sind hier im hwluxx, es gibt ansonsten auch kaum Gamer mit Crossfire. Wozu also das alles?

mr.dude schrieb:
Wen interessiert das? TW3 ist ein Gameworks Titel. Mach doch deinen Test mal mit zwei GTX 970 im SLI Verbund und schau ob es da besser läuft. Du vergleichst hier einfach Äpfel und Birnen. Es geht hier um mGPU bzw Frame-Pacing. Was willst du da bitteschön mit einer Grafikkarte argumentieren?
Nein, du ziehst meinen Post gerade sonstwo hin. Mir geht es gerade NICHT um Frame Pacing als Technik, mir geht es darum dass es sinnfrei ist, Ressourcen in die Technik Frame Pacing zu versenken, wenn man nicht mal eine aktuelle GPU hat, bei der sich Crossfire rechtfertigen ließe. Ich kaufe doch nicht zwei Midrange Karten (RX 480) um dann mit Crossfire rumzukaspern. Bevor man SLI/Crossfire in Kauf nimmt, wählt man immer erst mal die stärkste Single GPU für das was man an Leistung braucht. AMD soll also erst mal eine RX 490 anbieten, dann kann man auch wieder über CF nach denken, wenn's ohne nicht reicht. Und "reicht" ist bei jedem individuell.
 
Ich finde es immer wieder lustig, dass wenn AMD etwas verbessert oder einführt, alle nVidia Fanboys kommen und gleich mal alles schlecht machen müssen. Jahrelang wird darüber geschimpft, dass AMD Karten im Multi GPU Betrieb schlechter skalieren wie ihre nVidia Pendants, jetzt geht AMD dieses Problem an und dann ist es auch wieder falsch!?
Dann wird über die Performance von AMD Karten gemeckert, ganz ehrlich warum? Die RX480 ist nur marginal langsamer wie eine GTX1060, die restlichen Karten sind alle schon älter und sind auch fast alle gleichauf mit dem entsprechenden nVidia Gegenspieler. Die Pascal Karten in Form von einer GTX1070 und GTX1080 wischen zur Zeit den Boden mit AMD, was soweit auch richtig ist, aber die Konkurrenz für diese Karten kommt erst noch mit Vega.

@Sharif
Sorry, aber genau so stelle ich mir den typischen Fanboy vor, keine Ahnung von nix, Klappe aufreißen und dann das kaufen was, irgendeine Flitzpiepe in einem Hardwareshop empfiehlt, weil er dafür dann am meisten Provi bekommt. AMD hat aktuell nur die Midrange Karten von Polaris auf dem Markt und diese Karten sind gleichauf mit den Pascal Karten. Bei der RX480 machst du bspw sogar den besseren Griff, wenn du die kleineren Modelle davon nimmst. Auch wenn es nur 1GB Unterschied zwischen der RX480 4Gb und der GTX1060 3GB ist, die Erfahrung hat doch gezeigt, was auf lange Sicht gesehen etwas besser ist wie eine minimal höhere Leistung, siehe auch HD7970 vs GTX680. ;)
 
Generell finde ich es toll, wenn egal welcher Hersteller noch etwas verbessert!
Auch sollte die Zeit, bei AMD dafür da sein. Da es ja zu wenig neue Karten gibt, bei denen man optimieren muss ;)

Aber das die Konkurrenz zur GTX1070 und co, erst nächstes Jahr kommt, habe ich auch gedacht. Aber mittlerweile gibt es sogar schon Gerüchte um eine GTX11xx Reihe, ab Mai nächsten Jahres. Demnach hätte AMD, Nvidia das Feld ziemlich lange ohne Konkurrenz überlassen und auch weiterhin...

Wenn es so kommen würde (ich würde dann mal spekulieren, das eine GTX1170 auf dem Niveau einer 1080 rennt) dann wäre AMD mit sehr hoher Wahrscheinlichkeit direkt wieder im Hintertreffen.

Angenommen der größte Vega Ableger macht genau so einen Sprung wie die 1080, zur 980. Dann läge der größte Vega Ableger gerade so auf einem Niveau mit einer spekulierten GTX1170.

Was soll der große Vega dann kosten ?

Aber ein großes Entschuldigung, für OT. Aber auf manches muss man manchmal antworten ;)
 
@Pfirsirch "gibt eh kaum 4K" ja toll, wir sind hier im hwluxx, es gibt ansonsten auch kaum Gamer mit Crossfire. Wozu also das alles?
Weil wir heir bei HWL sidn, soll ich dne Markt anders (falsch!) beurteilen?
4K ist nunmal aktuell noch etwas für eine realtiv kleine Randgruppe, nicht meine Schuld...


Ich finde es immer wieder lustig, dass wenn AMD etwas verbessert oder einführt, alle nVidia Fanboys kommen und gleich mal alles schlecht machen müssen.
Ist leider in allen Gamerforen so.

Bei AMD ist alles Schrott, weil zu langsam, aber die 1050 Ti wird von den NVIDIA-Salafisten gerade in den Himmel gelobt!

@Sharif
Sorry, aber genau so stelle ich mir den typischen Fanboy vor, keine Ahnung von nix, Klappe aufreißen und dann das kaufen was, irgendeine Flitzpiepe in einem Hardwareshop empfiehlt, weil er dafür dann am meisten Provi bekommt.
+
 
Naja, wenn sich hier alle mal an die eigene Nase packen würden, würde so manchem auffallen, das an allen Aussagen irgendwo auch etwas dran ist. Egal, ob pro, contra AMD, Nvidia, Intel, usw.

Ich kaufe das Produkt, das in dem gewünschten Bereich halt die beste Leistung (inkl. aller für mich wichtigen Faktoren), für den Euro bietet.

Gerade in Foren ist es eher Mode, gegen Nvidia und Intel zu sein.
 
Wen interessiert das? TW3 ist ein Gameworks Titel. Mach doch deinen Test mal mit zwei GTX 970 im SLI Verbund und schau ob es da besser läuft. Du vergleichst hier einfach Äpfel und Birnen. Es geht hier um mGPU bzw Frame-Pacing. Was willst du da bitteschön mit einer Grafikkarte argumentieren?

Gegenfrage, wen interessiert hier SLI?
Hier gehts um MGPU und FramePacing... Nicht mehr und nicht weniger.

Aber WENN es dich wirklich interessiert, 2x 780TI laufen rund in TW3, 2x 980TI laufen rund in TW3 und 2x 1080 ebenso. Um so höher du einsteigst, desto mehr Settings kannst du eindrehen.
Die beiden 780TIs mit OC reichen gerade so ca. für ~30-35 FPS in UHD@maxed out (inkl. Hairworks Ultra)

Allerdings hast du offenbar die Aussage oben völlig missverstanden, denn es ging ihm doch gerade darum, dass NV (im Moment) den Spaß gar nicht notwendig hat. 2x 480er im MGPU (CF) sind nicht sonderlich schneller, wenn überhaupt als eine 1080er von NV. Während letztere kein Frame Metering notwendig hat, hat das MGPU Gespann dies allerdings... Und DAS ist durchaus ein Problem. Vor allem, wenn man überlegt, was man für Geld dafür auf den Tisch legen muss. Da biste schnell bei 500-600€ und alles andere als "Massenmarkt". Wer will da derartige Probleme haben? KEINER...

Ist aber aktuell ziemlich egal, gibt eh kauf Gamer mit 4K Monitor.
Vega kommt halt erst Anfang 2017, ziemlich kindisch sich darüber jetzt bis dahin immer wieder aufzuregen...

Warum nimmst du AMD dahingehend in Schutz?
Wenn die es nicht gebacken bekommen einen 1080/1070/TitanX Konkurenten zu liefern, Pech... Ihre Entscheidung.
Wer "oben" mitspielen will, muss halt liefern... -> und das ist EINS der Probleme, die AMD seit dem R600 hat. Irgendwas ist IMMER am Paket. Mit Polaris ist es die GPU Leistung, mit Fiji wars der VRAM, mit Hawaii wars der Verbrauch/die Effizienz usw.

Ich finde es immer wieder lustig, dass wenn AMD etwas verbessert oder einführt, alle nVidia Fanboys kommen und gleich mal alles schlecht machen müssen. Jahrelang wird darüber geschimpft, dass AMD Karten im Multi GPU Betrieb schlechter skalieren wie ihre nVidia Pendants, jetzt geht AMD dieses Problem an und dann ist es auch wieder falsch!?

Nein, es geht darum, dass NV mit der 1080 und der TitanX deutlich mehr GPU Leistung aus dem Silizium zaubern und deswegen ein MGPU Gespann dieser Modelle im Vergleich zu AMD gar nicht notwendig ist.
Egal wie viel die da "verbessern" bei AMD, MGPU ist eigentlich scheiße. Da ändert alle Optimierung nix... Ob sich das mit DX12 ändert, steht in den Sternen. Solange die MGPU Nachteile überwiegen, punktet SGPU.
Schau in die Vergangenheit, mit Tahiti war AMD "dran", mit Hawaii war AMD "dran", mit Fiji war AMD "dran" -> und Polaris? Ist grob halb so schnell wie das Top NV Produkt. Da gibts weder was schön zu reden noch unnötig zu diskutieren. AMD hat es im ersten Anlauf einfach versemmelt aus Sicht der Leute, die sich aufgrund ihrer Interessen in sogenannten Enthusiasten Foren tummeln...
 
AMD führt hier das Frame Pacing unter DirectX 12 ein, über welches sich mancher AMD Nutzer sicherlich freut und Leute starten hier ein AMD und Nvidia Scharmützel. Der Moderator macht fröhlich mit. Wenn sich jemand zwei AMD Karten gekauft hat (immerhin billiger als eine GTX1080), ist es seine Entscheidung. Warum über den Sinn von Crossfire und die Performance debattiert wird, erschließt sich mir nicht. Da Frame Pacing unter DX12 Vorteile bringt, ist der Schritt seitens AMD zu begrüßen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh