AMD und die bescheidene Performance im DX11 CPU Limit

Hab in der zwischen Zeit noch ein paar Spiele wo ich weiß das sie früher wie grütze liefen getestet, ergo keine 60 FPS stabil möglich waren.

Zwecks Patches kann ich natürlich nicht ganz ausschließen, außer bei Dying Light, das hat seit dem letzten Addon kein Update gesehen.

Division wurde kürzlich ja erst auf 1.4 gehieft und intern arbeitet man wohl an einem DX12 Patch.

PCars hab ich eben angeschmissen, auf mittleren Settings @FHD rennt auch das nun bei konstanten 60. Früher immer etwas gedropt. (Das wurde aber auch schon mehrfach gepatched seit dem)

Gears of War Ultimate Edition ging früher gar nicht. Das war immer zwischen 35-50 FPS unterwegs und somit ein graus.

Das lief eben mit Max Settings bei avg 60 mit kleineren Drops Richtung 52-55.

Mafia 3 rennt auf der Maschine übrigen mit 45-60 FPS (daher auf 45 gelockt).

Also irgendwas muss passiert sein , ob seitens AMD oder seitens der Game Devs, im Gegensatz dazu wo ich quasi noch ein etwas stärkeres AMD System als Haupt Sys hatte lief es bei weiten nicht so gut wie stand jetzt. Fakt ist das es sich definitiv gebessert hat was ich hiermit attestieren kann. Nur der Grund ist mir nicht klar, deswegen fragte ich derneumann, ob er irgendwas gegen Testen kann da er ja sagte das er es - ebenso wie ich - vor einiger Zeit schlimm mit erlebt hat.

Edit:

Ich poste nachher mal ein paar Screens.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Problem dürfte doch aber viel eher sein, wenn ihr die Ergebnisse von damals nicht 100% nachvollziehbar und reproduzierbar festgehalten habt, wird man hier keine Aussagen treffen können.

Soweit ich das mitbekommen habe, ist AMD zumindest spätestens seit Polaris an dem Problem mehr oder weniger dran. Ob das auch ältere Modelle betrifft? Lässt sich schwer beurteilen. Das kann nun eben von allem und nix kommen (die Leistungsverbesserungen). AMD GPU Treiber ist ein Teil, Patches der Titel ein anderer, OS Patches ein nächster usw.

Generell ist und bleibt der Spaß ja extrem schwierig nachzuvollziehen bzw. zu belegen. Schon die kleinsten Änderungen an der Hardware können für Änderungen an der FPS Rate sorgen. Hintergrundtasks, ja/nein, Patches vom Chipsatz, PCIe-Subsystem usw. können Einfluss haben, der Threadscheduler hat Einfluss usw. So wie ich das sehe ist es auch quasi bis dato gar nicht der Fall gewesen, dass sich zwei (oder mehr) User zusammen finden, die auf zwei unterschiedlichen Systemen mit schwacher/schwächerer CPU und AMD GPU in den gleichen Titeln die exakt gleichen FPS erzielten. Sondern idR spricht man eben eher im Allgemeinen -> meint aber explizit zum Beispiel vereinzelte Szenen (Worst-Case zum Teil sogar) oder bestimmte Bedingungen (sowas wie BF auf nem vollen 64er Server) usw.


So wie du das beschreibst sind das teils Steigerungen von annähernd 100%. Das halte ich fast für ausgeschlossen, dass sowas passiert ist. Warum? Das wäre in der Presse bekannt... Denn die Leute testen doch die Hardware auch alle Nase lang. Selbst der als "Wundertreiber" betitelte 337.50er NV Treiber hatte keine annähernd 100% mehr Performance im CPU Limit gebracht! Wie auch DX12, Vulcan und Mantle keine 100% Steigerung bringen, zumindest idR nicht.


PS: "Gears of War Ultimate Edition" ist doch DX12 only??
Für The Division hat PCGH übrigens hier in V1.5 Benches auf ner Fury und nem 8350er @ 4GHz gemacht:
The Division: Patch 1.5 mit DirectX-12-Renderpfad [Update 2 mit AMD-Werten]
PCars kann ich nicht einschätzen, das lief doch schon immer scheiße auf AMD GPUs -> und wird auch alle Nase lang gepatcht.
Mafia 3 ist ebenso "Softwaremüll"
Dying Light kann ich auch nicht einschätzen -> es skaliert nach Benches sehr gut mit dem CPU Takt. PCGH misst von 3GHz bei nem i7 Intel auf 4,5GHz über 30% mehr FPS, sowohl bei NV als auch bei AMD! (980er/290er).



Was auch im Rahmen des möglichen liegt/lag -> vielleicht waren deine damaligen Messungen auch einfach zu niedrig? Aufgrund von was auch immer?? Also vielleicht stand damals auch irgendwas auf der Bremse bei deinen Zahlen, die du nun heute hier und jetzt mit dem Anlauf zum erneuten Testen nicht mehr hast?
-> um das Auszuschließen, nimm doch einfach mal nen Treiber von vor einem oder zwei Jahren -> die FPS müssten folgerichtig dann deutlich niedriger sein, wenn es Verbesserungen mit dem Treiber gegeben hätte -> ist es das nicht, ist auch nichts passiert! Ist es das, dann sollte man die Presse informieren, der Sache genauer auf den Zahn zu fühlen!
 
Ist schon ca. 6 Monate her, wenn nicht etwas länger (Steht ja auch alles noch im Thread hier)

Wenn ich das aus deinem Link entnehme wo es folgendes heißt:

In CPU-limitierten Szenarien steigt die Performance mit dem modifizierten Treiber schnell um 20 Prozent, wohlgemerkt bei ansonsten gleichen Testbedingungen.

Und man , wie fdsonne, schon richtig anmerkt, eventuelle Spiele Patches und OS Patches begünstigend mit einbezieht (Was erstmal natürlich eine Mutmaßung ist) , kommt ein erheblicher Performance Zugewinn zu Stande und würde meine Beobachtung untermauern.

Ich hantiere halt viel mit min FPS und messe daran ob 60 Stabil gehalten werden können oder nicht.
Und wenn ich jetzt sehe das ein Division, was "früher" immer, auf min 45 gedroppt ist nun mit einer noch schwächeren Kombi bei konstanten 60 läuft und mir andere Spiele ein zumindest ähnliches Bild attestieren , spreche auch ich von einer deutlichen Verbesserung.

Ich werd mal nachher wirklich ein alten Treiber ausprobieren.

Das interessiert mich nun wirklich.

Die Kommentare dort beschreiben ja auch ähnliches.
 
Zuletzt bearbeitet von einem Moderator:
Beim Steam VR Benchmark sind es inzwischen auch weniger als 3GByte, waren es vorher noch knapp 3 GByte VRAM verbrauch sind es nun 2.2GByte.
Beim 3DMark VR Bench gibt es nun auch ein Frameverlauf, leider ist dieser beim online Link nicht vorhanden, bzw. wird nicht dargestellt.
Last mit DX11 im Fenster Modus (Standard Einstellungen) http://abload.de/img/steamvr_bench_oced-gp3jop6.jpg
Frameverlauf Orange:
vrmark_orange_verlaufn6pch.jpg


Das ist noch mit dem Crimson 16.10.1.
 
Man müsste eigentlich, wenn man wirklich belastbare Vergleiche anstellt, sogar noch viel mehr Daten erheben...

avg FPS oder allgemein FPS sind eher ungeeignet dafür.
Man bräuchte mindestens mal Frametime-Diagramme -> dort drunter müssten GPU Load Diagramme liegen, auch muss die Abhängigkeit zum VRAM (Bandbreite und Belegung) abgewogen werden. Pixel/Texelfüllrate kann Einfluss haben, schön wäre auch ein DrawCall Couter im jeweiligen Frame.
Ich erinnere mich da noch an einen Artikel bei PCG(H), wo man in Fallout 4 eine Szene untersuchte, die durch winzige Veränderung des Sichtfeldet den DrawCall Couter massiv in die Höhe schießen ließ -> exakt identische Abläufe sind also ebenso pflicht usw.

Das macht die Sache halt ungemein schwieriger und vor allem steigt der Aufwand extrem. Bis dato kenne ich KEIN einziges Review, weder von Usern noch von Redaktionen, die sich der Sache anständig angenommen hat. Irgendwas ist immer im Argen oder wenigstens nicht nachvollziehbar und damit ungeeignet für fundierte Aussagen.
Zumal, Treiberoptimierungen ja nicht durch ein paar Zeilen Code stattfinden, sondern häufiger (eher wohl sogar die Regel) dort ganze Shader ausgetauscht werden. Der Input ist gleich, der Output ist gleich, aber der Part in der Mitte unterscheidet sich zum Teil stark. Mehr Leistung in Benches muss also nichtmal von CPU Limits und deren Beseitigung kommen, sondern kann wieder andere Gründe haben. Selbst im vermeindlich CPU lastigen Szenen -> den Einfluss der GPU KANN man nicht vollends ausschließen. Selbst in 720p nicht...
 
@fdsonne
Korrekt, man müsste viel mehr Daten Sammeln als einem die Benches vermitteln.
Ich denke mal das meiste wird schon mitgeloggt, nur eben nicht ersichtlich für den user. (Nach Hause telefonieren zum Spiele Entwickler)

Frametimes sind nicht so wichtig wenn es sauber läuft und das tut es mit Frame Pacing eigentlich immer, ist immer an wenn beide GPU bei mir laufen.
Ich hab bewusst VR Benches genutzt da hier die GPU eben mehr Einfluss hat.
Bei Steam VR Bench werden Variable Details genutzt um minimum 90FPS zu halten: http://abload.de/img/steamvr_bench_resultueor5.jpg
Der 3DMark VR Orange Bench läuft zumindest gefühlt viel besser als der Time Spy. ;)

Der 3DMark VR Blue ist mit 5K echt im GPU Limit im Fenster Modus:

3dmark_vr_blue-fx9370fsq21.jpg

Einstellungen (standard Blue) http://abload.de/img/3dmark_vr_blue_room_s6vooh.jpg
 
Zuletzt bearbeitet:
wenn sowas ein Moderator eines PC-Forums meint, ... macht ma, Jungs :d
 
Seit bissel auf kriegs Fuß ihr beide?

Vom Smartphone geschickt. Autokorrektur Fehler werden später behoben.
 
wenn sowas ein Moderator eines PC-Forums meint, ... macht ma, Jungs :d

Ich denke nicht, dass ich da irgend ein Blatt vor den Mund nehmen muss... VRAM Benchmarks sind unter aller Sau -> das hat bis dato niemand hinbekommen. Und das Thema hier, DX11 Overhead ebenso nicht.
Mehr kann man halt nicht sagen... Außer, dass es natürlich klar einfach(er) ist zu meckern als es selbst zu machen. Mir fehlt im Moment aber die Zeit und vor allem auch die Hardware um das selbst zu testen. Auch bin ich auf meine Workstation angewiesen, sprich auseinander reißen für so nen Test ist nicht. Von daher.
Für die Redaktionen ist es halt aber auch immer so eine Sache -> denn die haben ja auch nix von, derartigen Aufwand zu betreiben außer ein paar Klicks, wenn sich überhaupt groß Jemand dafür interessiert. Reviews für Spiele/Hardware wiegen da ungleich stärker -> denn das ist halt Massenware. Das Problem selbst haben ja nur die aller wenigsten überhaupt verstanden geschweige denn akzeptiert. (gilt für die DX11 problematik bspw. wie auch für das VRAM Thema)


@Phantomias
Die Frametimes sind für die Messungen und anständige Vergleiche allerdings entscheidend. Denn es ist die einzige Messgröße, die die Unterschiede sichtbar darstellt. Ob etwas "gefühlt" gut läuft oder nicht kann man ja gern auf anderen Ebenen ausdiskutieren, doch aber nicht wenn es darum geht, gerade diese Unterschiede mit belastbaren Zahlen zu untermauern ;)

Seit bissel auf kriegs Fuß ihr beide?

Nö, eigentlich nicht?
 
@fdsonne: kannst den Redakteuren ja ma nahelegen, dass die Ausarbeitung des Themas durchaus DeLuxxe wäre. und sich HWLX damit hervortun würde. da ich rein zufällig in Hannover wohn, würde ich mich sogar selber für ein entsprechendes Entgeld anbieten :fresse:

@LDNV: wen meinste eigentlich mit dem Kriegsfuß? also meine Wenigkeit kommt sowohl auf fdsonne als auch auf Phantomias super klar. und ich glaub zwischen den beiden herrscht auch kein Zwist.
ne, wir ham uns alle lieb.
 
Dann ist alles gut, "klang" nur etwas so :fresse: hab euch doch auch alle lieb :shot:

Am großen und ganzen wird sich auch nichts geändert haben. Ich möchte nur meinen das sie Symptome sich etwas gelindert haben.

Im Grunde geht es ja auch nicht darum ob der fx schwach ist, sondern ob eine AMD Karte im CPU Limit die selben fps erreichen kann wie eine nV Karte oder anders ausgedrückt, eine AMD Karte eine CPU genauso stark oder wenig beansprucht wie eine nV Karte.

Am insgesamt Bild wird sich nichts geändert haben, jedoch hat sich das Problem etwas gemildert was ein gutes Zeichen ist.

Natürlich lässt sich das schwer belegen und nach halten. Darum spreche ich auch immer nur aus der eigenen Erfahrung heraus als jemand der beide Systeme in allen Kombinationen daheim hat oder hatte.

Das der zweit Rechner eine AMD Maschine ist hängt zum großen Teil auch damit zusammen das a) einiges aus meinem alten System drin ist oder b) einfach günstig erworben werden konnte.

Tendenziell würde ich immer noch lieber, wenn schon eine AMD CPU, dann mit einer nV Karte kreuzen.

Ich hab die fxer schon in so vielen Kombinationen da gehabt und getestet... Verschiedene boards, verschiedene CPUs, fx 8150/8350/8320e/6300/4300...

Genauso wie auch Grakas, 290/290x/390/970/960/980 jetzt die ti

Ich erwarte nicht das ein nv jünger mir glaubt oder ein AMD jünger, hier diskutieren aber zu 99% nur leute die entweder das eine oder das andere haben, nie aber parallel oder sonst was in der Praxis wirklich erlebt haben. Und da gebe ich als jemand der das eben hatte und hat meinen Senf dazu.

Und der Punkt ist... Es hat sich Definitiv etwas verbessert. Woran es auch immer liegen mag.

Es ist in einer Vielzahl von Titeln nun möglich 60 fps zu halten wo es vor über einem halben Jahr wo ich aktiv testete, nicht der Fall war.

Das heißt aber noch lange nicht das damit die Thematik erledigt wäre sondern nur das sich dessen, wie auch immer, scheinbar angenommen wird.

Vll. Ist es auch einfach nur der nette Nebeneffekt das in den Konsolen AMD Hardware steckt und somit devs und AMD besser aufeinander abgestimmt sind. Keine Ahnung.

Würde vll auch erklären warum dx12 auf AMD, abgesehen von der CPU Entlastung, auf GPU Seite nicht mehr alles zu krass auffällt wie am Anfang.

Die CPU Performance von den Dingern ist ja auch eher Mau weswegen es mich nicht wundern würde wenn AMD und Spiele Devs da die Köpfe zusammen stecken und so auch Spiel wie Treiber Optimierungen in die PC Fassung einfließen.

Vom Smartphone geschickt. Autokorrektur Fehler werden später behoben.
 
Zuletzt bearbeitet von einem Moderator:
@LDNV
Kann ich soweit bestätigen, läuft denn bei dir auch schon WDDM 2.1 (kannst mit "dxdiag" nachschauen: http://abload.de/img/crimson_16101b_infoimolu.jpg

Zusätzlich habe ich noch ein SM5.1 Eintrag gefunden, scheint wohl so ein pre SM6.0 zu sein. (SM=ShaderModel) :drool:
 
Jup

 
Zuletzt bearbeitet von einem Moderator:
@Phantomias
Die Frametimes sind für die Messungen und anständige Vergleiche allerdings entscheidend. Denn es ist die einzige Messgröße, die die Unterschiede sichtbar darstellt. Ob etwas "gefühlt" gut läuft oder nicht kann man ja gern auf anderen Ebenen ausdiskutieren, doch aber nicht wenn es darum geht, gerade diese Unterschiede mit belastbaren Zahlen zu untermauern ;)
Stimmt schon das man Frametimes nutzen sollte wenn möglich, aber was kann ein "user" damit anfangen?
Ein Entwickler hat da viel bessere Tools, die nicht nur in der CPU messen, sondern am Ausgang der Grafikkarte.

Rohdaten auslesen sieht nicht immer schön aus (ZickZack times) aber so wird es auch nicht an den Monitor ausgegeben. ;)
 
Im Grunde geht es ja auch nicht darum ob der fx schwach ist, sondern ob eine AMD Karte im CPU Limit die selben fps erreichen kann wie eine nV Karte oder anders ausgedrückt, eine AMD Karte eine CPU genauso stark oder wenig beansprucht wie eine nV Karte.

Nur welche Modelle will/soll man denn eigentlich für einen fundierten Vergleich gegenüber stellen? Die verwendete Technik ist ja effektiv schon etwas unterschiedlich...
NV gibt/gab mit Maxwell an, ggü. Kepler up to 35% mehr pro Takt Performance rauszubekommen. Das kann nun auch wieder alles und nix sein. Sprich gilt das für oder ohne hohe CPU Anforderungen? Man weis es nicht.
AMD gibt/gab für Polaris up to 15% ggü. GCN3 an, wenn ich das richtig sehe -> auch die Frage hier, gilt dann für was genau?

Leider sind das alles große Unbekannte in den Vergleichen... Vielleicht zieht man auch einfach nur die falschen Schlüsse? Möglicherweise ist auch ein gewisser Teil (vielleicht sogar der Löwenanteil) direkt vom Game abhängig anstatt vom Overhead usw.

@fdsonne: kannst den Redakteuren ja ma nahelegen, dass die Ausarbeitung des Themas durchaus DeLuxxe wäre. und sich HWLX damit hervortun würde. da ich rein zufällig in Hannover wohn, würde ich mich sogar selber für ein entsprechendes Entgeld anbieten :fresse:

Wie gesagt, das Problem ist hier, was springt denn am Ende bei rum für die Redaktion?
Je nach Redaktion machen die Leute das einerseits unendgeldlich bzw. in Freizeit oder auch mal nicht. In allen Fällen ist aber der Zeitfaktor ziemlich stark gewichtet... Sei es wie es sei. Mir ist (leider) der Umstand über die horenden Anforderungen an anständige Messungen und Vergleiche bewusst. Entsprechend kann ich da wohl wenig machen -> bzw. ich weis, dass sowas zwecklos ist ;)

Auch bringt es uns hier sogut wie gar nicht weiter, wenn da Leute sagen wir über Wochen und Monate hinweg immer stückchenweise mal ein paar Messungen durchführen und ein Artikel dann nach Monaten am Ende daraus entsteht -> denn das Geschrei der Community wird extrem groß sein! Neben der anfallenden Arbeit kommt also noch Inakzeptanz hinzu.
Das macht man halt nicht "gern"...

Man braucht dann halt noch anständiges Equipment. FCAT Messungen wären sinnvoll, aber selbst ohne diese, also in Software gemessene Frametimes müsste man die Ergebnisse und Messungen oft wiederholen damit sie aussagekräftig sind/wären. Die ganzen Einflüsse am Ende müssen erörtert und beleuchtet werden, die erhobenen Daten müssen zusammen gefasst werden usw.
Ich könnte mir wie gesagt sowas vorstellen wie Diagramme, die einerseits die Frametimes zwischen zwei GPUs in einem Diagramm zeigen, andererseits die GPU Load in der selben Zeit, wie auch VRAM Belastung, möglicherweise CPU Belastung und sinnigerweise einen DrawCall Counter.
Bis dato geht ja die Aussage die Runde, GPU Load nicht am Anschlag = CPU Limit. Das stimmt aber bei weitem nicht vollends... Im VRAM Limit hast du das selbe Verhalten! Und das kurriose, hat es dazu noch eine starke Abhängigkeit zur CPU Leistung kann es sogar sein, dass die FPS trotzdem mit der CPU Taktung skalieren!
Diese Messungen müssten dann nicht nur ein paar wenige Sekunden dauern, sondern mehrere Minuten gehen -> und in mehreren verschiedenen Szenen des jeweiligen Spiels stattfinden. Ein SP Game wäre hier ratsam -> ein BF als MP Game ist da wieder kappes -> 100% nachvollziehbar von den Bedingungen ist der MP als einfach nicht usw.
 
I würd 480 nehmen weil dann hasst du noch die Möglichkeit crossfire zu fahren wenn du mal möchtest
.
 
Kann das sein das sich bei AMD doch etwas , zumindest geringfügig , geändert hat in den letzten Treibern?

Hab heute dem zweit Sys mal den 8120 eingestöpselt, da der vorige 6er Probleme bei 64er Slot BF1 hatte die 60 FPS zu halten.

Ich weiß 100% und ganz genau das es früher als der 83(!)50 @ 4,5 samt R9 390 mein Haupt Sys war, es nicht möglich war in Dying Light / The Division u.a. stabile 60 FPS zu halten aufgrund der FX / AMD GPU Kombination, weswegen ich zuerst die GPU ausmusterte gegen eine 970 seiner Zeit, was die Problematik schon entschieden verbesserte, und später auch den FX austauschte gegen den i7.

Der 8120 ist taktbereinigt etwas langsamer als der 8350 , und letzteres war seiner Zeit auch höher getaktet wie erwähnt.

Nun teste ich gerade mit dem aktuellsten 16.11.3 AMD Treiber paar Spiele durch um sie fürs Frauschen einzustellen.

Division rennt jetzt bei stabilen 60 FPS (Vsync) - Auslastung des Prozzis auf allen Kernen sehr hoch 70-90% aber es droppt nichts.
BF1 rennt genauso.
Dying Light gerade angeworfen und siehe da, auch das rennt jetzt bei stabilen 60 FPS.

Sollte sich das wunder ereignet haben das AMD doch was am Treiber geschraubt hat?

Der FX ist und bleibt dadurch trotzdem eine lahme CPU und wird ausgemustert aus dem zweit Sys sobald ich mein Haupt Sys erneuer, aber ich finde das nun schon beachtlich da DX12 in den Titeln keine Rolle spielt.

Die Settings sind dabei irrelevant da es zu "meiner Zeit" in egal welchen Settings schlicht nicht möglich war.

Auch Single Thread Titel wie Guild Wars 2 zeigen eine höhere FPS Rate die vorher in der Kombination mit dem FX nur mit einer GeForce möglich war.

@derneumann,

hättest du zufällig noch die Möglichkeit das mal gegen zu testen - mit aktuellen Treibern?

---------

@AMD Boys...
Ich bin laut einigen von euch ja ein purer NV Fanboy, bin ich jetzt auf einmal in eurem Club? :fresse: :shot: ;)

----------

Mir ist bewusst das ich damit, bei den üblichen Verdächtigen , Öl ins Feuer werfe - deswegen sollte man eine mögliche Positive Entwicklung - womit ich nicht sage das dass Thema aus der Welt ist - aber nicht unterm Tisch fallen lassen.

Leider aktuell nicht. Da ich momentan nur eine GTX1070 hier habe und bevor AMD keine vergleichbare Karte bringt, wird sich das nicht ändern.
Klar wird immer weiter gepatcht...Aber PCars soll jetzt ja auch schneller laufen, aber die die es interessiert hat, hätte spielen das schon nicht mehr, weil das eben auch schon lange her ist. Außerdem läuft das immer noch deutlich schlechter, als mit Nvidia. Habe letztens einen Bericht in der PCGH dazu gesehen.
 
was wollt ihr denn noch für einen aufwand um dx11 treiben das zeug wird eh bald schnee von gestern sein

spart euch die arbeit und investiert die zeit lieber in andere sachen
das thema juckt, bis auf eine handvoll hier, doch eh keinen.
 
was wollt ihr denn noch für einen aufwand um dx11 treiben das zeug wird eh bald schnee von gestern sein

spart euch die arbeit und investiert die zeit lieber in andere sachen
das thema juckt, bis auf eine handvoll hier, doch eh keinen.
das lesen wir schon seit 2015. 2017 steht verdammt direkt vor der Tür. wann genau darth denn das dann wirklich sein? 2025?
 
was wollt ihr denn noch für einen aufwand um dx11 treiben das zeug wird eh bald schnee von gestern sein

spart euch die arbeit und investiert die zeit lieber in andere sachen
das thema juckt, bis auf eine handvoll hier, doch eh keinen.

Wenn es dich nicht juckt, dann investiere deine Zeit doch in anderen Threads ;)

Also um das mit BF1 mal fest zu halten.
Es ist mit Sys 2, selbst auf 4,5 GHz nicht möglich in DX11 im MP irgendwie 60 FPS zu erreichen. Da sind schwankungen von 35-60 alles dabei und könnte nicht mal ein AVG wert genau bestimmen.

Da reißt es nur DX12.

Ähnlich ist es mit Doom.

DX11:


Vulkan:


Scheine mir in meiner Beobachtung der Verbesserung also unbewusst Positiv Beispiele gepickt zu haben die in der zwischen Zeit gepatcht wurde oder anderweitig Treiber Optimierung erfahren haben.

Edit:

Nicht über die GPU Temp wundern, auf der 290 ist noch der Referenz Kühler drauf :fresse:
Fliegt auch bald runter , bzw. erst wenn ich weiß was ich mit dem zweit Sys mache.

Entweder kommt ne NV rein um das Problem zu minimieren.
Oder FX fliegt raus.

Wird letztlich der Preis Entscheiden, da es wie gesagt nur die zweit Kiste ist wo Frauschen ab und an mit zockt.
Das soll dann entsprechend schon ordentlich laufen , lohnt sich aber auf der anderen Seite auch nicht mehrere 100er zu versenken.

Somal die Kiste eh immer dann ein Update erhält wenn ich mir fürs Main Sys was neues kaufe, sich das Problem auf dauer also eh erledigt.
 
Zuletzt bearbeitet von einem Moderator:
zu BF1, DX12 und AMD-Karten hieß es doch, saumäßige frametimes, stellenweise unspielbares Ruckeln. was sagst du dazu?
 
Kann ich gar nichts zu sagen da DX12 in BF1 auf AMD gerade nicht läuft (Siehe BF Thread)
Kann mich da nur auf PCGH berufen aktuell , die ja mit dem FX getestet haben (hatte ich hier verlinkt) und davon sprachen das es getestet mit dem FX wunder bringt. Während es mit einem starken Prozzi eben saumäßig läuft.
 
Die Aussagen stammen doch vom damaligen Test hier auf CB, der aber inzwischen durch Patches usw. längst nicht mehr aktuell ist oder?
Kann es leider nicht testen, mangels BF1 - habe aber schon solche Aussagen hier gelesen.
 
PCGH hat das nach Release nochmal getestet, vor ca 3 Wochen. Mit der Aussage, das man, sobald sich daran etwas ändert, nochmal berichtet!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh