AMD schaltet AFR Frame Pacing unter DirectX 12 frei

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
RoBBe07
Wenn ich jetzt schreibe, dass ich dich unmöglich finde ist das eine Meinung. Eine Meinung ohne Fakten und Substanz. Wenn ich dir aber meine Meinung, du seist unmöglich mit Begründungen liefere, dann hat meine Meinung Substanz und erst dann kann eine sinnige Diskussion daraus werden.

Verstanden?
 
... Zumindest unterstelle ich dir das. Denn Wissen scheinst du ja nicht zu haben. AMD, solltest du doch wissen als langjähriger AMD Klatscher, .....

... Natürlich mit dem Gütesiegel eines Moderators, der den Pressesprecher von Intel spielt, oder ist.

.... Möglicherweise bist du ja Aktionär. Dann kann man deine Aktivitäten hier im Forum natürlich gut verstehen.

RoBBe07
Wenn ich jetzt schreibe, dass ich dich unmöglich finde ist das eine Meinung. Eine Meinung ohne Fakten und Substanz. Wenn ich dir aber meine Meinung, du seist unmöglich mit Begründungen liefere, dann hat meine Meinung Substanz und erst dann kann eine sinnige Diskussion daraus werden.

Verstanden?

Wie war das nochmal mit Diskussion, Fakten und Substanz? Dann fang mal selbst damit an.
 
RoBBe07
Wenn du natürlich nur einzelne Wörter aus einen Beitrag ziehst, ist es natürlich schwer, die Substanz zu erkennen.

fdsonne hat Energiegetraenk Pfirsich unterstellt, er würde den Rechtfertiger für AMD geben. Dabei ist es schon seit über einem Jahr bekannt, welche Strategie AMD fährt und Energiegetraenk Pfirsich hat die einfach nur wiederholt. Steht auch so in meinem Beitrag.

Sicherlich hast du wohl die Zusammenhänge einfach nicht verstanden.

Natürlich ziehe ich keine Samthandschuhe an, denn fdsonne hat ja auch keine an.
 
Zuletzt bearbeitet:
Red dich nicht raus und unterstell mir nicht fehlendens Verständnis. Du redest in einer Scheinheiligkeit von Fakten und Substanz, greifst aber andere Leute mit Mutmassungen und Unterstellungen an.
Auch habe ich nicht einzelnen Wörter, sondern Texpassagen von dir zitiert, um dir deine Diskrepanz zwischen deinem Verhalten und dem , was du dazu von anderen im gleichen Atemzug verlangst, zu verdeutlichen.
Hört doch einmal damit auf, Kritik und Unverständnis über bestimmte Sachverhalte eures Lieblingsherstellers als persönlich anzusehen.
 
RoBBe07
Ich muss dir schon wieder Unverständnis unterstellen, denn ich habe schon mehrfach geschrieben, dass ich keine emotionale Bindung zu den Herstellern meiner Hardware habe. Zudem scheinst du überhaupt sehr wenig zu verstehen, sonst würdest du mir nicht vorwerfen, AMD sei mein Liebling. Als Hardware nutze ich einen i5 4670K mit GTX 760. Bei meiner Freundin sitze ich an einem i5 4590 mit GTX 970, den ich ihr so erstellt habe. Die einzige AMD Hardware die ich habe ist ein kleiner Linux Kasten mit ITX FM2+ Board und ein x4 760K der mit einer GT 710 kombiniert wurde. Insofern sind das nun schon Erklärungen von dir, die eine Diskussion fördern, allerdings sind deine Erklärungen falsch.
 

Anhänge

  • Unbenannt.PNG
    Unbenannt.PNG
    45,9 KB · Aufrufe: 73
Zuletzt bearbeitet:
AFR funktioniert technisch vielleicht
Na geht doch. Ist doch immerhin sowas wie ein Eingeständnis deinerseits, dass technisch erst mal nichts dagegen spricht. Ob es jetzt sinnig ist oder nicht und ob es mit jeder iGPU/dGPU Kombo funktioniert, ist ein anderes Thema. AFR hast übrigens du ins Spiel gebracht. Um die konkrete Rendering-Technik ging es mir gar nicht. Es ging mir nur darum, dass mGPU auch bei iGPU/dGPU Kombos möglich ist und mMn auch sinnvolle Vorteile eröffnet. Gerade für Notebooks, die aufgrund ihres Formfaktors üblicherweise sowieso nicht mit den schnellsten dGPUs ausgestattet sind.

Das gerade du von Rosinen picken sprichst und direkt im Anschluss genau das machst, gut kann man machen, muss man aber nicht
Du hast das Smiley gesehen? Du weisst was Sarkasmus ist?

Schau dir einfach einen Schnitt aus allen DX12 Titeln bisher an. Dann noch die aktuellsten DX11 Titel und was passiert. AMD liegt aktuell, weit hinter Nvidia.
Davon sehe ich nichts, wenn man im gleichen Segment vergleicht.

Ist ja auch eigentlich nicht schlimm. Aber man brauch auch nichts anderes behaupten.
Hat denn jemand behauptet, dass Nvidia im Moment nicht die schnelleren sGPUs hat? Auch davon sehe ich nichts. Das ist auch so ein Problem von bestimmten Leuten. Sie phantasieren sich Sachen zusammen, die nie gesagt wurden. Gerade auch weil sie nicht beim eigentlichen Thema bleiben können.

Vielleicht ändert sich das ja wirklich mit Vega, was ich nicht glaube. Weil AMD dafür zu weit zurück liegt. Ich kann mir allenfalls ein Gleichstand vorstellen, der aber wieder auf kosten des Energiehungers, der GPUs geht. Das ist meine Meinung, was auch nicht schlimm ist, auch wenn du anderer Meinung bist.
Ist doch okay wenn's deine Meinung ist. Ich muss die nicht teilen, habe aber kein Problem damit diese zu akzeptieren, wenn es klar als Meinung gekennzeichnet ist. Das solltest du auch mal versuchen. ;)

Das Nvidia den Markt dominiert, iat dir klar.
Welchen Markt meinst du denn? Den gesamten Markt, also Mobile, Desktop und Server, dominiert Intel. AMD und Nvida sind beide gleichermassen relativ klein dagegen. Vielleicht mal abgesehen vom Konsolenmarkt. Den dominiert im Moment in der Tat AMD.

Das CF, oder SLI gut skalieren, bedeutet leider nichts, für ein flüssiges Spielgefühl. Bildverteilung ist wichtiger, als der reine Fps Balken.
Was soll denn "Bildverteilung" sein? Für mGPU sind zwei Sachen wichtig, hohe Skalierung und konstante Frameraten (Stichwort Mikroruckler). AMD hat oft genug gezeigt, dass gute Skalierung machbar ist. Die aktuelle Entwicklungsphase kümmert sich darum, dass es auch überall greift. Und konstante Frameraten hat man mit Frame Pacing in den Griff bekommen. Andere Problematiken, wie Tearing, betreffen sGPUs genauso. Aber auch dafür entwickelt man Lösungen, siehe FreeSync bzw Adaptive Sync. Wer mGPU heutzutage immer noch Zustände von vor über 5 Jahren anlasten möchte, sollte langsam echt mal aufwachen.
 
Nachtragen muss ich noch. Aktuell würde ich mir eher eine GTX 1060 6GB kaufen als eine RX 480. Die GTX 1060 passt einfach besser zu meinem Profil. DX 12 ist mir egal, weil ich eh kein W 10 nutzen werde. Was nach 2023 kommt, wenn W 8.1 keinen Support mehr bekommt, kann ich jetzt noch nicht sagen. Deswegen auch mein Ausflug auf Linux Mint 18. Möchte Linux kennenlernen und hoffe auf Vulkan für Linux, damit Windows für mich unwichtig wird.
 
Damit haben wir also bewiesen, AMDs mGPU skaliert nahezu perfekt

Der Lügenlord ist wieder da! Feiert und huldigt ihn im Glanze des edlen Lards.
Ein Performancerating anzugeben oder ein einziges Spiel als Paradebeispiel für eine gute Skalierung anzuführen ist schon eine neue Qualität das Lards.:lol:

Das Niveau erreicht damit neue Gefilde.

Du hast das Smiley gesehen? Du weisst was Sarkasmus ist?

Problem ist nur deine Bewertung das vorherigen Performanceratings und die Gleichsetzung mit einem Spiel, nicht der Sarkasmus an sich, sondern dein Verständnisproblem von AMD kombiniert mit Realität.

Nö, kommt er nicht. Vega war immer für 1H 2017 angedacht. Und daran hat sich nichts geändert.

Eingezeichnet war Vega für den Jahreswechsel, im schlimmsten Falle kommt er im Sommer, also eine Verschiebung im schlimmsten Falle von einem halben Jahr.

Problem >>AMD<< >>Realität<<

Wer zudem glaubt irgendwelche Benchmarks einer Nvidia Werbeseite

Ja du hast recht, wenn jemand in die Ecke gedrängt wird dann mit dem phösen Finger auf die Testser zeigen.:lol:
Die ganze Welt ist gegen AMD, Taschentuch bitte.

Und konstante Frameraten hat man mit Frame Pacing in den Griff bekommen.

Selbst wenn Framepacing mal ordnungsgemäßg funktioniert, sind die Frametimes immernoch nicht auf dem Niveau einer Single GPU was nunmal in der Praxis gefühlte FPS kostet, das sollte man wissen, wenn man sich mit dem Thema beschäftigt und leider ist es nunmal so, dass SLI und Multi GPU auf dem absterbenden Ast sind, wie das Gesamtrating mit einer Skalierung von nur 50% zeigt.

Directx12 ist aktuell eher eine Bremse für Multi GPU und kein Beschleuniger, ob sich das irgendwann mal ändert ist überhaupt nicht abzusehen.
 
Zuletzt bearbeitet:
Vega erscheint wohl noch dieses Jahr für den Profi-Markt. Ist also im Zeitplan für Anfang 2017.
AMDs Polaris-Nachfolger: Vega 10 erscheint angeblich noch 2016 für Profis

Die Frage ist aber: was hat Vega mit diesem Thema zu tun? Auch nvidia hat das gesamte Pascal-Linup noch nicht im Markt. Habt ihr nicht schon den DX11-Overhead-Thread wo ihr rumflammen könnt?

Es geht doch gar nicht darum, AMD irgendwie lobzuhudeln. Das weisst du ganz genau. Es geht darum, nicht alles sofort niederzumachen, nur weils von AMD kommt, und endlich mal objektiv und unvoreingenommen an die Sache ranzugehen. Da haben leider so einige Nachholbedarf, nicht nur bestimmte Moderatoren. Man kann ja gerne Vorbehalte haben, die habe ich auch. Dann sollte man die aber auch stichhaltig und plausibel darlegen können. Überholte oder gar falsche Vorurteile reichen da nicht.
 
Zuletzt bearbeitet:
Eine vages Gerücht, das absolut unwahrscheinlich ist, wird also wieder zum Fakt hingedreht, joa ok.
Vega hat insofern mit dem Thema zu tun, da sich erst mit Vega wenn überhaupt ein Multi GPU System lohnt und mit Polaris kein Multi GPU sinnvoll ist.
 
Es gibt also außer potenziellen Vega-Käufer keine Personen die CF einsetzten wollen oder bereits einsetzten? Bitte lösch dich einfach selbst. :lol:

Wenn dir vage Gerüchte zu vage sind, dann halte dich doch einfach an den Releasetermin Anfage 2017 und nicht Mitte 2017. ;)
 
Zuletzt bearbeitet:
GEnau damit ist ein CF und Sli auf Basis von AFR auch für mobile Chips der unteren Leistungsklassen völlig unsinnig. Da ich das schreibe, kann es ja nur meine Meinung sein. Da keiner von das Recht auf Allwissenheit, für sich beanspruchen kann.
Somit ist AFR und iGPU totaler Unfug. Genau wie die tolle Skalierung von CF, oder Sli egal ist, solange die Bildausgabe so ungleichmäßig ist. Bildausgabe, gleich konstante Fps. Konstant aber wirklich auf die Einzelbilderberechnungszeiten herunter gebrochen.

Wisst ihr was das Problem ist, die Verfechter von CF und SLI, ignorieren diese Probleme einfach, oder deren Wahrnehmung ist nicht dazu in der Lage, diese zu erfassen. Was auch normal ist, denn jeder ist unterschiedlich. Wenn ich mir vorstellen würde ich könnte, diese ungleichmäßige Bildausgabe nicht wahrnehmen, geil, dann würde für mich auch mGPU gehen (auf Basis von AFR). Manche sehen keinen Unterschied über 45Fps, manche über 60Fps, wieder andere über 80Fps und so weiter.

Vielleicht ist dann das Problem dieser Diskussion weniger, das andere immer "dumm" sind, sondern das man einfach sich nicht vorstellen kann, das andere diese Probleme sehen können. ;)

Zum Abschluss,
CF und SLI sind beide dank AFR Modus, für empfindliche Naturen Schrott, auch mit FP. Denn die gefühlte Leistung liegt meistens nur 25-30% höher, als die der einzel GPU. Analyse von Frametimemessungen können einem da schon einen Vorgeschmack drauf geben. Wenn man die Ausreißer, in den Frametimes nicht wahrnimmt, ist doch super. Manche schon!

Da wir hier eigentlich über Gaming GPUs reden, nehmen wir doch mal den MArkt der dGPUs ;) Wer dominiert den, das hat nichts mit Vorlieben zu tun. Sondern ist einfach nur für die Vollständigkeit, weil manche es versucht haben, anders hin zu stellen.

Und nochmal für einen ganzbestimmten. Es gibt schon einen Grund, warum bisher die Versuche, die iGPU zusammen mit einer dGPU zu kombinieren, nicht den AFR Modus genutzt haben. Man hat die iGPU nur die Postprozesse abarbeiten lassen. Was zwar zu besseren Fps geführt hat, aber die Frametimes verschlechtert hat. Den Weg finde ich gut, aber da ist noch viel Arbeit!


Auf weitere Anfeindungen werde ich nicht drauf eingehen! Wer mich direkt angreifen möchte, gerne per PN, der bekommt dann nur zu gern meine Adresse ;)
Erweitert euren Horizont, vielleicht sind ja in so einem Forum, nicht so viele Idioten ...
Genau wie es unfassbar schwierig es ist, die Leistung einer GPU überhaupt richtig zu fassen. Die stärken und schwächen der GPUs sind so ausgeprägt, das unterschiedliche Settings schon größere Unterschiede machen, genau wie unterschiedliche Szenen.

Beispiel : Habe gerade erst irgendeinen Bench gesehen, in dem regulär ohne MSAA getestet wurde, da war die Fury X minimal schneller, als die gleichteure GTX1070. Dann irgendwo klein, in einem extra kasten wurde mit MSAA getestet und schon wendet sich das Blatt. Ich denke es können sich solche Beispiel nur zu oft finden lassen, in beide Richtungen! Vielleicht wäre ich mit einer Fury X genau so zufrieden gewesen, bis auf den Energiehunger und dem zu knappen Speicher. Einzig richtig wäre nur wenn jede Kantenglättung getestet würde, weil im Moment ist es eher so, das die Tester hingehen und nach Ihrer eigenen Meinung, das subjektiv beste Verfahren testen. Aber jeder zu Hause stellt etwas anderes ein.

Das alles nur zum erweitern des Horizontes... Meine Meinung hier zum Thema habe ich mehrfach ausgeführt, kann ich aber nochmal wiederholen. Das AMD FP verbessert ist toll! Auch wenn es nur ein Problem lindert, welches mMn eigentlich komplett umgangen werden sollte.
 
Hybrid AFR gibt es schon, aber die iGPU muss auch was drauf haben! ;)
Nennt sich Dual Graphics, FP wirkt auch dort schon länger...

Hoffen wir mal auf genug Threads: http://abload.de/img/rottr_2016_10_11_20_0jcqmq.jpg
Das ist eher selten inGame und ohne "prerendered content" :)
 
Wo ist der Unterschied, von Hybrid AFR zum normalen AFR. Die iGPU wird dadurch ja nicht schneller, was bedeutet, das eigentlich Problem bleibt.
 
Wo ist der Unterschied, von Hybrid AFR zum normalen AFR. Die iGPU wird dadurch ja nicht schneller, was bedeutet, das eigentlich Problem bleibt.
Hybrid wohl deswegen weil es zwei unabhängig Speicher Pool´s sind.
Die iGPU für Latenz kritischen Code und die dGPU für Bandbreiten hungrige Aufgaben.

Wie genau was, kein Schimmer, aber Intel wirbt damit auch. (zumindest paar % sind möglich)

Ich konnte übrigens eine Crossfire Brücke eliminieren ohne größere Frame Varianz.
 
Oder meinst du Hybrid mGPU, weil Hybrid AFR wäre ja sonst eh schon, das AFR, wovon ich hier geredet habe. Die iGPU wirklich alleine ganze Bilder rechnen zu lassen, halte ich für schlecht, da die Performance zu mau ist und so die gefühlte Rate, unter die, der dGPU rutschen würde.
Ich weiß, das es Einzelfälle gibt, bei denen die iGPU, kleine Aufgaben übernimmt. Das würde zu deinen paar% passen. Aber das ist kein AFR.
 
Oder meinst du Hybrid mGPU, weil Hybrid AFR wäre ja sonst eh schon, das AFR, wovon ich hier geredet habe. Die iGPU wirklich alleine ganze Bilder rechnen zu lassen, halte ich für schlecht, da die Performance zu mau ist und so die gefühlte Rate, unter die, der dGPU rutschen würde.
Ich weiß, das es Einzelfälle gibt, bei denen die iGPU, kleine Aufgaben übernimmt. Das würde zu deinen paar% passen. Aber das ist kein AFR.
Da wird viel durcheinander gewürfelt, mGPU oder Pro Duo, Crossfire und CrossfireX, SFR und AFR, SSAA und OGSSAA... :xmas:

AFR = Alternativ Frame Rendering (wer zuerst fertig ist wird dargestellt)
SFR = Split, jede GPU die hälfte des Bild bei zwei GPUs (bei drei 33,333%, usw usf)

http://abload.de/img/rottr_2016_10_11_20_0vtpvl.jpg
Da sind schon ein paar Partikel die interagieren....
(Schnee, Funke, Rauch, Nebel, Hauch...)
 
Na unter DX12 gibt es ja mehr Möglichkeiten, wie zum Beispiel, die iGPU bestimmte aufgaben übernehmen zu lassen. Frag mich aber gerade nicht, wie man das nennt. Das wäre aber in meinen Augen das einzig sinnvolle, mit einer iGPU.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh