AMD und die bescheidene Performance im DX11 CPU Limit

...
wenn meine GPU in kritische Bereiche von, ich sag mal, 40 fps kommt, was passiert denn dann, wenn sich die AMD-Leistung entfaltet? hat man dann doch wieder 50fps, oder wie darf ich das verstehen? ...
Genauso siehts aus. Jetzt hast dus auch endlich verstanden. ...

es fällt mir wirklich sehr schwer zu glauben, dass irgendeine GPU, welche es nur auf 40fps schafft, zu eben diesem Zeitpunkt ihre Leistung entfaltet und dann 50fps raushaut. da müsste sich dann ja die GPU um ca. 25% spontan mal selber übertakten.
dein
Genauso siehts aus ...
bezieht sich ja wieder mal auf nen Zeitraum von 4 Jahren oder so, oder nicht? wenn ja, für mich persönlich ergibt es keinen Sinn dabei, meine GPU in 4 Jahren so richtig geil betreiben zu können. und ich finds irre fraglich, was ne 4 Jahre alte GPU überhaupt bei den dann aktuellen AAA-Titeln noch so wegwuppt. aber egal, G3cko, ich will! dich nicht von meinem Standpunkt überzeugen! ich hab da keine Mission.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
es fällt mir wirklich sehr schwer zu glauben, dass irgendeine GPU, welche es nur auf 40fps schafft, zu eben diesem Zeitpunkt ihre Leistung entfaltet und dann 50fps raushaut. da müsste sich dann ja die GPU um ca. 25% spontan mal selber übertakten.
dein bezieht sich ja wieder mal auf nen Zeitraum von 4 Jahren oder so, oder nicht? wenn ja, für mich persönlich ergibt es keinen Sinn dabei, meine GPU in 4 Jahren so richtig geil betreiben zu können. und ich finds irre fraglich, was ne 4 Jahre alte GPU überhaupt bei den dann aktuellen AAA-Titeln noch so wegwuppt. aber egal, G3cko, ich will! dich nicht von meinem Standpunkt überzeugen! ich hab da keine Mission.
Die 40FPS sind dann aber auch nicht das Maximum, da die Karte noch nie völlig ausgelastet wurde mit DX11.
Daher sind das nur brach liegende Resourcen die genutzt werden, Async Shaders kannst mit SMT der CPUs vergleichen.

Hier mal in Werte ROTT:
DX 12, 1920 x 1080, Texturen sehr hoch
Berggipfel: 88.91 FPS (min: 18.50, max: 157.80 )
Syrien: 72.83 FPS (min: 15.10, max: 119.24)
Geothermales Tal: 72.79 FPS (min: 19.08, max: 133.94)
Gesammtpunkte: 78.47 FPS

DX11, 1920 x 1080, Texturen sehr hoch
Berggipfel: 77.47 FPS (min: 17.51, max: 144.27 )
Syrien: 45.72 FPS (min: 3.52, max: 111.47)
Geothermales Tal: 50.52 FPS (min: 2.26, max: 126.26)
Gesammtpunkte: 58.43 FPS

Der Unterschied ist gravierend und entscheidet zwischen spielbar und nicht spielbar.
Das sind aber alte Werte, die neusten Werte schauen nochmal besser aus, vor allem CfX skaliert bei allen min, avg, max, fast 1:1. ;)
 
Good News! ;)

Denke der fred kann hier bald geschlossen werden, Problem erkannt und behoben. :d

oder wir ändern einfach die Überschrift: Nvidia und die b. Performance in DX12 oder so und diskutieren natlos weiter ... :cool:
 
Zuletzt bearbeitet:
Blöd nur, das Nvida keine generell schlechte Performance in DX12 liefert! Aber egal, sobal die AMDS schneller sind, alles gut. Wenn Nvidia schneller, dann wurde DX12 nicht richtig umgesetzt... Es wird wie immer sein, mal a schneller, mal b...

Das alles ändert nichts an den Problemen unter DX11 ;) Wobei ich auch zu denen gehöre, die hoffen das DX12 schnell eine Alternavtie mit Vorteilen wird und DX11 vergessen werden kann.
 
Für mich ändert sich da nichts, da meine Spiele alle nur DX11 haben und bleiben werden.
 
Wo siehst du denn nun eine Behebung des Problems?
Wenn du dich über DX12 Performance von NV unterhalten willst, mach nen eigenen Thread auf!

Naja die Erfahrungen mit dem aktuellen crimson 16.9.1 zb
aber GCN ist halt für dx11 nicht optimal ....

Man könnte mal 2-3 crimson Versionen noch abwarten und dann die Situation noch mal beurteilen ....
 
Zuletzt bearbeitet:
Man könnte mal 2-3 crimson Versionen noch abwarten und dann die Situation noch mal beurteilen ....

Und warum schriebst du dann, das Problem wäre behoben!???
Was soll immer der Unsinn...

Wenn ich mir den Thread bei reddit ansehe, da sind sowas von inkonsistente Ergebnisse zu sehen. Die einen melden gleich mal 25% und mehr FPS Steigerung... Ja Sicher. Bei anderen gibt/gab es effektiv keine Änderung.
Solange es da nicht wenigstens ansatzweise aussagekräftige Reviews zu diesem Treiber gibt würde ich das nicht überbewerten...
 
Warum sollte es Usinn sein, wenn man daran glaubt, dass das Problem behoben ist, muss man halt testet, könnt ihr ja mal machen ...

Ich kann selber nur insofern dazu beitragen, das ich in pcars und starcitizen eine Steigerung der FPS wahrgenommen habe, mehr Titel hab ich nicht. :wink:
 
Dann schreib halt nicht: "Problem erkannt und behoben." wenn das noch gar nicht der Fall ist... Schon gleich dann nicht, wenn du es selbst nicht testen konntest. :wink:
Das macht doch hier alle Nase lang nur böses blut, weil permanent irgendwelchen nicht belebaren Aussagen behauptet werden. Das muss nicht sein. Ebenso wieder der trollige Nachsatz mit der angeblich bescheidenen DX12 Performance mit NV GPUs. Auch das muss nicht sein und entzieht sich dazu noch jeglicher Realität.
 
Naja die Erfahrungen mit dem aktuellen crimson 16.9.1 zb
aber GCN ist halt für dx11 nicht optimal ....

Man könnte mal 2-3 crimson Versionen noch abwarten und dann die Situation noch mal beurteilen ....
Der 16.9.1 ist noch etwas buggy, sind aber keine gravierende Fehler.
DX11 ist für GCN wirklich nicht optimal, da es einfach nicht so viele Details darstellen kann (draw calls).
Bei ROTT sehe ich jedenfalls auch optisch ein unterschied, gut möglich das die bessere Bildqualität direkt die Mehrleistung auffrist.

Die neueren Werte:
DX 12, 1920 x 1080, Texturen sehr hoch
Berggipfel: 79.28 FPS (min: 50.16, max: 111.90)
Syrien: 63.12 FPS (min: 26.44, max: 84.57)
Geothermales Tal: 62.74 FPS (min: 41.08, max: 82.85)
Gesammtpunkte: 68.68 FPS

Es sind weniger Avg, aber viel mehr minimum FPS. ;)
 
dachte DX12 soll keine grafischen Änderungen mit sich bringen
 
Habe selbst schon ein Beispiel gesehen, in dem einfach mehr Details dargestellt wurden... Also die Qualität ist wie vorher, einfach mehr Objekte! Weil die CPU ja entlastet wurde.
 
@Phantomias88

die Werte sehen doch gut aus, ma ganz dumme Frage was ist ROTT ein Game? :)
 
Es scheint immer noch nicht versanden worden zu sein, daher mal einen aktuellen Benchmark von Deus Ex Mankind Divided, welcher das sehr gut verdeutlicht was ich meine:


Für Raff: Der Benchmark ist hier zufinden:
Deus Ex Mankind Divided - Aktuelle Benchmarks der Launch-Version mit 22 GPUs [Test der Woche]

Im oberen fps Bereich läuft AMD früher in den DX11 Overhead, weshalb die Karten nicht so gut ausgelastet werden. Die 980Ti ist entsprechend vor der FuryX. AMD muss quasi durch die schlechte API die Karten unter Wert also preiserwerter verkaufen. Dennoch läuft alles flüssig, aber wirkt sich negativ auf das Gesamt-Ranking aus.
high.png


Im Mittelfeld spielt die CPU schon eine kleinere Rolle, bzw fällt eben nicht so groß ins Gewicht. Hier schenken sich die GTX1060 und RX480 nicht viel. beide Karten liegen auf Augenhöhe.
mid.png


Im unteren FPS-Bereich spielt die CPU fast keine Rolle mehr. Wir reden von einem klassischen GPU-Limit. Hier trennt sich die Spreu vom Weizen, da wir mit den fps in kritische Bereiche kommen die eben über Spielbarkeit oder eben nicht entscheiden. Natürlich kann man die Einstellungen reduzieren, aber davon profitieren alle Karten.
280x ist hier 53% schneller als die gleichteure GTX770
Die 3x so teure Titan ist nur 12% schneller als die 280x
low.png


Dieses Beispiel zeigt eben sehr gut ,dass das Spiel weder Pro-Nvidia noch pro-AMD ist sondern veranschaulicht hauptsächlich das Problem mit DX11. Mit einem ausgreiften DX12 Patch verschwindet auch der Treiberoverhead und somit das Auslastungsproblem.

Nun hat dieser Titel bereits hohe Anforderungen und der CPU-Overhead wirkt sich gering auf das Ranking aus. Anders sieht es bei Games aus die keine Anforderungen haben aber eben auf beiden Herstellern gut spielbar sind. Ob nun 100 oder 200fps spielt für den Nutzer keine Rolle aber schmälert deutlich die Vergleichbarkeit, besonders im Gesamtranking.

Das sieht man zum Beispiel sehr gut an folgenden Negativbeispiel. Alle Titel sind gut spielbar hängen aber extrem im CPU-Limit. Gut zu erkennen an den extrem geringen Zugewinnen je leistungsstärker die AMD Karte. Und natürlich an der grünen Übermacht.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#diagramm-world-of-warcraft-1920-1080

Mit der Zeit rutschen GPUs mit dem Alter und steigenden Anforderungen ganz automatisch weiter in ein GPU-Limt. Zumindest unter DX11. DX12 und Vulkan sind hier ausgenommen.

Neben den Vorteilen durch GCN in den Konsolen ist DX11 ein Grund weshalb die GPUs besser altern, oder eben warum AMD die Karten in DX11 unter Wert verkaufen muss. Nicht nur ist das P/L-V beim Kauf bereits besser (VRAM gehört natürlich auch in die Betrachtung!), sondern es steigert sich ganz automatisch mit der Zeit. Davon profitiert letztendlich der Kunde, da man am Stichtag (Release) eben nicht die volle Leistung abrufen kann.

Und nocheinmal:
a) entweder der DX11 Overhead exisitert nicht und die AMD Karten werden zu jeder Zeit voll ausgelastet, oder...
b) die Karten haben nicht nur zum Release ein bessere P/L-Verhälntis sondern steigern dieses ganz automatisch.
 
Zuletzt bearbeitet:
Dieses Beispiel zeigt eben sehr gut ,dass das Spiel weder Pro-Nvidia noch pro-AMD ist sondern veranschaulicht hauptsächlich das Problem mit DX11. Mit einem ausgreiften DX12 Patch verschwindet auch der Treiberoverhead und somit das Auslastungsproblem.

Du hast den Artikel dazu aber selbst gelesen???
Nur mal ein paar Sachen die direkt ins Auge springen:
"Deus Ex: Mankind Divided gehört zu AMDs Gaming Evolved-Programm, das erkennt man nicht nur am Auftauchen des Spiels in einer AMD-Promotion, sondern auch am entsprechenden Video zu Spielbeginn sowie der Integration der CHS-Schattenfilterung."
"Sowohl die Radeon RX 480 als auch die Radeon R9 390 können sich an der Geforce GTX 1060 vorbeischieben - das hat unter DX11 Seltenheitswert."

Dann noch solche Sätze -> vielleicht kapierst du es endlich mal, dass Benches im VRAM Limit NULL Aussagekraft haben, wenn es nicht gerade um dedizierte VRAM Messungen geht?
"Die Radeon R9 Fury X zeigt im Benchmark, welche Auswirkungen das hat: Unter Full HD ist die Welt noch in Ordnung, doch ab WQHD ist das Nachladeruckeln in Form niedriger Min-Fps zu sehen und in Ultra HD wird die Karte schließlich von einigen Modellen mit größerem Onboard-Speicher überholt, die zuvor hinter ihr lagen."
-> letzteres ist sogar das völlige Gegenteil von dem, was du aus den Werte rausinterpretierst. Wer soll dir da also bitte glauben, wenn Schwarz auf Weis von den Testern das Gegenteil (sogar belegt) ausgesagt wird?


Und gegen den üblichen Kepler Bash deinerseits:
"Der große Hunger nach Grafikspeicher beim Ultra-Preset motivierte uns dazu, das Grafikkartenfeld um einige Modelle mit unterschiedlichen Speichermengen zu ergänzen. Werfen Sie einen Blick auf die Geforce GTX Titan "Classic" von 2013, welche trotz Referenzkühlung und somit geringem Boost (~950 MHz) an der GTX 780 Ti @ 1.100 MHz vorbeizieht - das verdankt sie allein ihrem 6 GiByte großen Speicher."
-> und du bringst ernsthaft wieder deine Leier mit 280X 3GB vs. 770 2GB mit ach so "tollen" 53% und im Nachsatz den ach so geringen Unterschied zwischen Kepler Titan classic und der 280X (ja wo soll es auch herkommen, da sind nichtmal 20% Rohleistungsunterschied!!!)


Ehrlich gesagt amüsiert es mich schon ein wenig, wie du dir mit deinen Behauptungen jedes mal selbst ins Bein schießt :fresse:

Neben den Vorteilen durch GCN in den Konsolen ist DX11 ein Grund weshalb die GPUs besser altern, oder eben warum AMD die Karten in DX11 unter Wert verkaufen muss. Nicht nur ist das P/L-V beim Kauf bereits besser (VRAM gehört natürlich auch in die Betrachtung!), sondern es steigert sich ganz automatisch mit der Zeit. Davon profitiert letztendlich der Kunde, da man am Stichtag (Release) eben nicht die volle Leistung abrufen kann.

Nein, andersrum wird ein Schuh draus... Das FPS pro Euro Verhältnis wird über die Leistung zum gegenwertigen Zeitpunkt definiert. Wenn das Teil damals nunmal nicht schneller war, dann ist es auch nicht unter Wert verkauft. Klingt kompliziert, ist aber ganz einfach. Wissen sollte man dabei, dass die Händler in der Preisgestaltung gehöriges Wörtchen mitreden. Karten die sich eher schlecht verkaufen, werden automatisch sinken im Preis.
Weiterhin beschreibt P/L die "Leistung" in ALLEN Details. Bevor du also über P/L urteilst, solltest du definieren, was "Leistung" ist. -> ganz sicher deckt sich meine Anforderung an "Leistung" nicht mit deinen. Oder wie bekommst du auf deiner tollen Tahiti GPU DS mit 2x2 zum laufen? Das geht selbst heute nicht (trotz Ankündigung seitens AMD für eine Softwarelösung)
 
Zuletzt bearbeitet:
Wenn ich High-End kaufe, ist es keine Überraschung, dass alles flüssig läuft. Interessant wirds hier erst nach erwartete Nutzungsdauer Jahren.

Und natürlich ist der Overhead eben auch Schuld, dass AMD die Karte unter Wert verkauft. Den Overhead kann man sich ja auch als eine art Bariere vorstellen. Irgendwann bringt einem eine schnellere GPU praktisch kaum noch fps. Das sieht man schön an den verlinkten CB Benchmarks.

Daher auch die Frage. Was soll ein DX12 Benchmark für eine Aussagekraft haben, wenn nichteinmal der CPU-Overhead reduziert wird? Da kann man sich den ganzen Aufwand mit der low-level-API auch schenken.

Und nocheinmal:
a) entweder der DX11 Overhead exisitert nicht und die AMD Karten werden zu jeder Zeit voll ausgelastet, oder...
b) die Karten haben nicht nur zum Release ein bessere P/L-Verhälntis sondern steigern dieses ganz automatisch.
 
Zuletzt bearbeitet:
Wenn ich High-End kaufe, ist es keine Überraschung, dass alles flüssig läuft. Interessant wirds hier erst nach 1 ... Jahren.
Setzt aber vorraus, dass A) eben die Nutzungsdauer entsprechend hoch angesetzt ist und B) man den Rest völlig ausklammert. Die Karte, die zum Kaufzeitpunkt die Anforderungen deckt ist doch die, die man sich kauft und nicht die Karte, die vielleicht!! irgendwann mal an der Situation irgendwas ändert...

b) die Karten haben nicht nur zum Release ein bessere P/L-Verhälntis sondern steigern dieses ganz automatisch.

Karten, die die Anforderungen nicht decken haben bei mir gar kein P/L... Denn "L" ist einfach nicht gedeckt. :wink:
Wenn allerdings JEDER nur seinen eigenen beschränkten Tellerrand in diese Diskusionen führt, wird halt kein Schuh draus. Weswegen ich dafür bin, das P/L Gesabbel außen vor zu lassen. Bestenfalls kann man von FPS pro Euro Verhältnis sprechen (mit dem Nachteil, dass der Preis nicht ausschließlich die FPS abdeckt, sondern noch andere Leistungen und Features), nicht aber von "Leistung"...
 
Oder wie bekommst du auf deiner tollen Tahiti GPU DS mit 2x2 zum laufen? Das geht selbst heute nicht (trotz Ankündigung seitens AMD für eine Softwarelösung)
Ja klar einfach SSAA im Crimson Auswählen, dann brauchst auch kein MSAA inGame, so zu sagen ein Overlay DS.
Selbst wenn es nicht im Treiber einstellbar wäre, könnte man es via Spiel Engine config erzwingen.
Aber es gibt ja inzwischen auch die "Custom Resolution" im Catalyst (bei weitere Einstellungen) könnten sie mal in die Crimson GUI einpflegen.

Mag mal kurz jemand schauen, ob WDDM 2.1 ebenso unter dxdiag vorhanden ist: http://abload.de/img/dxdiag_wddm21x6s00.png

P.S. DDI = Direct Driver Interface 12?
 
Zuletzt bearbeitet:
Und natürlich ist der Overhead eben auch Schuld, dass AMD die Karte unter Wert verkauft. Den Overhead kann man sich ja auch als eine art Bariere vorstellen.

Das Overheadproblem war bis vor ein paar Monaten nichtmal in der Community bekannt (außer eben bei Leuten, die bspw. mit Programmierung selbst in die Grenzen gelaufen sind)
Wie adaptierst du das also bspw. auf eine Tahiti GPU? Das ist doch an den Haaren herbeigezogen.
Das große Aufwachen kam doch erst mit dem 337.50er NV Treiber und BF4 mit Mantle Support. -> ab diesem Zeitpunkt ging ein Ruck durch die Community, die NVler haben sich drauf eingeschossen und die AMDler haben es unter den Teppich gekehrt.

Wie erwähnt definiert sich der Preis am Featureset und der Leistung der Karte. Für Leistungen, die nicht erbracht werden, kann folglich nur schwer Geld verlangt werden. Die Liste bei AMD wird zwar kürzer, ist aber weiterhin vorhanden (und ja, auch bei NV gibt es Sachen, die eben nicht gehen -> hier gilt es also zu gewichten!)

Wenn du endlich mal mit der Tahiti Propaganda aufhören würdest und den Spaß mal nüchtern betrachten würdest, würdest du vielleicht auch feststellen, dass die Vorzeichen damals doch etwas anders als heute standen. Ein entsprechendes Tahiti Modell ggü. einem GK104 (oder auch GK110) eben nicht so gut verkauft hat -> was auch die Verkaufszahlen, Umfragen usw. belegen.
Die FPS Unterschiede ggü. den Modellen sind je nach Game nicht sooo viel anders als damals der Fall. Einzig der Punkt, dem NV Modell geht eher der Speicher aus. Allerdings ist das nur eine Folgeerscheinung von allgemein höherem Bedarf nach VRAM. Es wird Tahiti genau so treffen, wie es die 2GB Modelle bei AMD ebenso schon traf. Alles nur eine Frage der Zeit. Nüchtern wäre also die richtige Antwort gewesen, anstatt auf die ach so super tolle "P/L Steigerung" zu fokusieren, genau solche Hinweise zu geben. In nem halben Jahr krankt Tahiti möglicherweise exakt am selben Problem wie GK104 seit ein paar Monaten schon. Die Vorzeichen sind schon zu erkennen (siehe 3GB 1060 vs. 6GB 1060)
Im VRAM Limit kannst du dir all die super Vorteile nämlich in die Haare schmieren... Egal ob NV oder AMD drin ist!

@Phantomias88
Soweit mir bekannt, geht kein natives Downsampling in 2x2 in effektiv JEDEM Spiel, was eine variable Auflösungseinstellung ermöglicht mit Tahiti und Hawaii. Oder lässt die Custom Resolution Option (die seinerzeit soweit mir bekannt mit einem Treiber für eine FirePro Karte eingeführt wurde) mittlerweile 2x2 zu? Sprich du stellst bei einem nativen FHD Monitor 3840x2160 ein und los geht?
Über Mittel und Wege (soweit mein Stand) kann man höhere Auflösungen mittels externen Tools erzwingen. Aber das geht mit VSR ja auch schon... (sogar viel bequemer)
 
Zuletzt bearbeitet:
@fdsonne
Ich konnte bisher nicht testen ob es klappt (CustomResolution), die Änderungen sind doch etwas Umfangreicher.
Liegt aber wohl am VSR und ja ist auf 1440p begrenzt bei mir (GCN 1.0)

DirectX 12 wurde 2014 auch auf iGPU getestet: Intel show off DirectX 12 performance advantage | PC Gamer
 
Setzt aber vorraus, dass A) eben die Nutzungsdauer entsprechend hoch angesetzt ist und B) man den Rest völlig ausklammert. Die Karte, die zum Kaufzeitpunkt die Anforderungen deckt ist doch die, die man sich kauft und nicht die Karte, die vielleicht!! irgendwann mal an der Situation irgendwas ändert...

Nein, eben nicht. Schraub die Anforderungen hoch dann bist du im GPU-Limit. Es hieß doch immer in hohen Auflösungen legen die AMD Karten zu. Das liegt nicht zuletzt auch am CPU-Limit. Natürlich auch an anderen Dingen wie höherer Rechenleistung oder Speicherbandbreite. Mann kann natürlich auch einfach warten bis die Zeit für einen die Anforderungen nach oben schraubt.

Das hat auch nichts mit vielleicht und irgendwann zu tun. Und auch nicht ob 3GB vielleicht mehr sind als 2GB. Die RX480 hat auch nicht vielleicht mehr VRAM und vielleicht mehr Rechenleistung als die GTX1060....


Karten, die die Anforderungen nicht decken haben bei mir gar kein P/L... Denn "L" ist einfach nicht gedeckt. :wink:
Wenn allerdings JEDER nur seinen eigenen beschränkten Tellerrand in diese Diskusionen führt, wird halt kein Schuh draus. Weswegen ich dafür bin, das P/L Gesabbel außen vor zu lassen. Bestenfalls kann man von FPS pro Euro Verhältnis sprechen (mit dem Nachteil, dass der Preis nicht ausschließlich die FPS abdeckt, sondern noch andere Leistungen und Features), nicht aber von "Leistung"...

So einfach ist das nicht. Die GTX1060 mit 3GB hat aktuell ein super P/L-V pro fps. Ob das in einem halben Jahr noch so ist wage ich zu bezweifeln. Man muss nun wirklich kein Hellseher sein um zu erkennen, dass der Treiberoverhead dafür verantworlich ist, dass viel Leistung bei AMD Karten brach liegt. Mal mehr mal weniger. Auch das GCn sehr neu war und eben auch in den Konsolen steckt. Je neuer die Spiele-Engines desto besser für GCN. Auch hört der Tellerrand nun mal nicht beim VRAM auf.
https://www.computerbase.de/2016-09/geforce-gtx-1060-3gb-test/

Die GTX970 und 390 wildern alle in der gleichen Leistungsklasse wie die GTX1060 oder RX480. Von der Leistung nun eben Mittelklasse. Und wieviele hätten wohl gerne nun mehr VRAM. Der VRAM entscheidet dank der Konsolen gewaltig über die Nutzungsdauer. Wer hier nicht über den Tellerrand schaut und diesen gekonnt ausblendet lügt sich nur selbst etwas vor.
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/
 
Zuletzt bearbeitet:
ICh versuche mal wieder einen Weg zum Thema zu finden ;)
R9 390 und FarCry3 sind in Kombi kaum zu genießen gewesen! Weil, die GPU Auslastung, im späteren Verlauf in Dörfern, oder eben bestimmten Kartenbereichen in den Keller ging und alles für meine Augen am ruckeln war.
Mit einer GTX970 war dieses Problem direkt wie weggeblasen!

Wolfenstein the new order und auch the old blood, beide mit der R9 390 nicht so angenehm gewesen, immer wieder Passagen, die für mich schon an Unspielbarkeit heran kamen. Mit einer GTX970m (Laptop) und einem schwachen I7 6700HQ, lief es sogar deutlich runder! Die R9 390 leif noch mit einem I7 3820@4,3+GHz.

Ich meine bei Wolfenstein nicht das schlechtere Streaming, mit AMD GPUs.

Beides für mich CPU Overhead Probleme!
Projekt Cars war auch länger sehr, sehr schlecht mit einer AMD GPU spielbar. Oder Dying Light!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh