AMD und die bescheidene Performance im DX11 CPU Limit

ob Mantle nun der Impuls oder Grundstein war, is vom Sinn her echt egal. das lässt auch keinen Spielraum für Interpretationen, insofern man der deutschen Sprache mächtig ist. mich (wieder mal) anzufahren, ändert auch nix daran.
bei mindestens einem aber gebe ich dir Recht. Recht im Sinne einer Vermutung natürlich nur:
... AMD wird nichts groß an dem Overheadproblem unternehmen, sondern nur für spielbare fps sorgen. Und die werden in jedem Spiel erreicht.
...
den Rest les ich später vielleicht noch. ma gucken. bin jetz zum Zocken verabredet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ob Mantle nun der Impuls oder Grundstein war, is vom Sinn her echt egal. das lässt auch keinen Spielraum für Interpretationen, insofern man der deutschen Sprache mächtig ist. mich (wieder mal) anzufahren, ändert auch nix daran.
bei mindestens einem aber gebe ich dir Recht. Recht im Sinne einer Vermutung natürlich nur:

den Rest les ich später vielleicht noch. ma gucken. bin jetz zum Zocken verabredet.

Du bist ein Korinthenkacker. Das lässt auch wenig Spielraum für Interpretation. :heuldoch:
 
40% sind natürlich schon zwei ecken mehr als 15%.

kann man bei steam einsehen wieviele spieler davon dx12 fähige hardware besitzt?

allerdings schweifen wir damit auch schon wieder vom thema ab^^
:fresse: Mann ist hier wieder viel Fachpersonal unterwegs!
Da versteht man als Laie nur noch Bahnhof...

Naja, jede GPU die das DX11.1 Feature Level hat bekommt unter Windows 10 DX11_1.
Die DX12 API nimmt dann nur das was vorhanden ist an Features.

Mit Mantle wurde ledeglich gezeigt, dass es ein Software Managment Problem ist und keine Schrottplatz Hardware von AMD. :)
 
Wie wäre es, wenn wir den Thread mit neueren Benchmarks füttern? Vielleicht hat sich inzwischen etwas getan? Mangels passender Hardware kann ich leider bisher keinen Beitrag leisten. Wir berufen uns bei Beratungen hier auf Ergebnisse, die bald ein Jahr alt sind.
 
Wie wäre es, wenn wir den Thread mit neueren Benchmarks füttern?

klar, hau rann^^

würde ich selber machen, habe nur selber schon eine weile keine aktuellen overhead benchmarks mehr gefunden.

edit:

grade bei computerbase entdeckt:

d9zybohleciwqefi6.gif

http://www.computerbase.de/2016-03/the-division-benchmark/3/

d9zyhlwg5itkcq3ge.gif

http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/5/


habe übrigens mein gta v wieder zum laufen gebracht, falls jemand da im cpu limit benchen mag.
 
Zuletzt bearbeitet:
Bunghole Beavis schrieb:
Höre auf hier Tatsachen zu verdrehen.

Ich verdrehe gar nichts.

Bunghole Beavis schrieb:
Unter DX12 laufen Nivida Karten ebenfalls besser

Falsch!
Nvidia Karten performen unter DX 12 schlechter als unter DX11 (zumindest bis Maxwell, worum es hier aber in dem Thread auch geht/ging. Von den neuen Pascal Karten war hier noch nie die Rede.
Beleg:

Hitman
Ashes of the Singularity

Bunghole Beavis schrieb:
Hinzu kommen noch Reihenweise schlecht optimierte Spiele bzw. Spieleengines

Da gebe ich dir Recht! Mit schlechten Konsolenports haben beide zu kämpfen.

Bunghole Beavis schrieb:
Für mich ist definitiv logisch, das dass CPU-Limit mit durch die DX11 API vorgegeben wurde und Nvidia dieses Problem mit ihren Grafikkarten besser gemanaged hat, entweder durch Treiber, Architekturanpassungen oder Hacks. AMD wird dieses Problem entweder in Zukunft nicht mehr lösen wollen (DX11 stirbt aus), oder dies mit der aktuellen GCN Hardware nicht können bzw. der Aufwand zu teuer wäre. In zwei Wochen bringen die Polariskarten vielleicht eine Verbesserung, wobei ich denke, dass diese auf DX12 und Vulkan optimiert werden.

Naja und genau darum geht es ja hier. Scheinst es ja doch verstanden zu haben. Allerdings sehe ich es nicht so, dass die DX11 API in der Vergangenheit limitiert hat. Es gibt genügend Games, die gut programmiert wurden, wo die CPU nicht so schnell dicht macht. Klar wird DX12 genau dieses Problem angehen und auch zum großen Teil beheben, aber das liegt eben auch mit daran, dass es eine "nicht optimale Programmierung" ausbügeln kann. nVidia macht es einfach unter DX11 besser. Und dass DX11 ausstirbt ist Schmarn. Siehe DotA 2, LoL und WoW. laufen alle standardmäßig mit DX9B. Wenn du von künftigen AAA-Titeln redest, hast du vielleicht Recht. Aber mit dem Overhead in DX11 wird AMD noch lange zu kämpfen haben. Gerade weil diejenigen die solche Games zocken oft nicht die Kohle ausgeben wollen für teure Hardware ist es mehr als naheliegend, dass genau diejenigen mit ner AMD-Graka und vielleicht sogar AMD-CPU zocken. Ich fände es sehr schade, wenn sich da nichts mehr tut.

Bunghole Beavis schrieb:
Diese ganze Diskussion in dem Thread ist müheseelig, weil es vielen an Objektivität mangelt. Um die Ursachen zu ergründen, müsste jedes Spiel (Engine) zusätzlich separat analysiert werden, um eine Gewichtung des Problems vorzunehmen. Mit der Keule auf AMD einzuschlagen, scheint bei einigen User hier Programm zu sein.

Schau doch mal auf die erste Seite, da sind User-Tests bereits gemacht worden. Die Keule kommt hier nicht von ungefähr.
Es geht mir persönlich auch sehr darum, dass in den vergangenen Monaten in den Kaufberatungsthreads pauschal eine R9 390 empfohlen wurde und mit der VRam-Keule auf die GTX 970 eingeschlagen wurde. Dabei war völlig egal, was für ein Netzteil oder CPU derjenige besessen hat. Was ist nun schlimmer? Bitte komme mir also nicht mit "Mit der Keule auf AMD einzuschlagen". Das ist kompletter Quark. Ich preferiere zwar nVidia, bin lediglich von den penetranten Empfehlungen und Äußerung der AMD-Fanboys genervt.
 
klar, hau rann^^

würde ich selber machen, habe nur selber schon eine weile keine aktuellen overhead benchmarks mehr gefunden.

Also das Division Beispiel kannst du vergessen, hier nen höheren Overhead zu sehen, halte ich für recht geraten.
Tombraider läuft auf AMD generell total scheiße, hat wohl auch nix mit Overhead zu tun, Directx12 läuft sogar noch beschissener.

In Tombraider hat in einem Bench die GTX 980 Ti den höheren Overhead, auch ganz interessant.

Die Testszene in der die Fury X so wenig Bilder raushaut sieht überhaupt nicht nach Overhead aus.
Eine Steigerung von 2,5ghz auf 4,4ghz bringt nur 14% mehr frames, würde es einen Overhead geben, dann müsste da viel mehr gehen.
Ich tippe auf Treiberprobleme, Probleme mit Hyperthreading.
 
Zuletzt bearbeitet:
Also das Division Beispiel kannst du vergessen, hier nen höheren Overhead zu sehen, halte ich für recht geraten

Kannst du das auch irgendwie begründen?
Oder soll ich das einfach vergessen weil du ganz viel Ahnung hast und ich ganz wenig^^?

Wieso verliert die furyx denn immer weiter an Boden je langsamer die cpu wird, während sich bei der 980ti genau gar nichts ändert?

Hier hat jemand seinen i5 durch nen i7 ausgetauscht, weil der i5 in Kombination mit der 390 nicht fähig war in Division 60 fps zu halten.
http://www.computerbase.de/forum/showthread.php?t=1573267




Gesendet von meinem LG-H815 mit Tapatalk
 
Zuletzt bearbeitet:
Warum haben eigentlich so gut wie alle Titel, die hier im thread den treiber overhead aufzeigen sollen irgendwelche gameworks-effekte? Es wäre doch auch möglich, dass obwohl die Effekte in den Einstellungen des Spiels aus gestellt sind, die gameworks blackbox dennoch aufgerufen wird und irgendetwas tut. Ausschließen kann man es nicht. Falls der Effekt an war, kann man noch weniger auf den Treiber schließen.

Und alleine anhand der fps-Werte lassen sich auch wenig rückschlüsse auf den Treiber ziehen. Würde das Interesse in diesem Thread darin bestehen, herauszufinden, woran es genau liegt, würde man hier viel mehr messungen der cpu- und gpu-Auslastung sehen, bei verschiedenen effekten und taktraten. Oder man würde sich die drawcalls mancher spiele (falls möglich) anschaun. Fallout4 zb. hat teils über 20.000 in Dx11. Aber anstatt es zu untersuchen, wird einfach ein benchmark gepostet und das schlechte Ergebnis auf den Treiber geschoben und als fakt dargestellt.
Ich will damit nicht sagen, dass es den Treiberoverhead nicht geben kann, aber hinterfragt doch wenigstens die benches, die hier gepostet werden. Wie kann es z.b. sein, das beim division bench aus 40% mehr cpu power nur 2% mehr fps werden, die graka ist dabei nicht am Limit.

War die zweite TR map nicht die mit den tesselierten Fußspuren im schnee?
 
Bei Division haben die Gameworks Effekte keinen Nachteil. Nachzulesen im Technik Check bei PCGH.
Bei Divison und Fallout 4 fällt es mir persönlich am heftigsten auf das es eben mehr und öfter dropt als mit der nV Karte.
(Volumetrisches Licht aus / HBAO aus / "Waffenderbnis" aus)

Bei Tomb Raider hingegen empfinde ich die DX12 Fassung sogar als runder.
Beziehe dies aber nur auf einen kleinen Test, richtig durch gespielt habe ich es vor dem DX12 Patch.

Doom hingegen ist ein positiv Beispiel. Das Empfang ich auf der 970 nicht ganz so smooth wie mit der 390 trotz konstanter 60 FPS. Mag evt. eine VRam Sache sein da Doom sich da , je nach verwendeten Optionen , sehr viel gönnt.

Witcher 3 lief wiederum auf der 970 besser. (FHD , alles max, nur schatten low, da ich da nicht wirklich einen Unterschied im Spielgeschehen , gesehen habe) bei der 390 muss ich die Sichtweite um eine Stufe reduzieren um bei den Konstanten 60 zu bleiben (Logisch, diese schlägt ja auch massiv auf die CPU)

PCars läuft mit der nV Karte besser. Hat aber wohl weniger was mit der CPU zu tun, lief schon von Anfang an auf nV besser, auch wenn sich das mit der Zeit etwas gebessert hat. Hier darf man , von einer kleinen nV bevorzugung ausgehen. (Persönliche Meinung)

MMO´s die ich selten mal spiele (Guild Wars 2 / Black Desert Online) laufen auf der nV Karte besser. Auch hier wieder -> Logisch, gehen massiv auf die CPU besonders wenn X Spieler auf dem Schirm sind.

Alles anderen Spiele wie BF3/4 (bis 60 FPS) , Dying l.... , Dirt Rally, Forza Apex uswusf, die ich hin und wieder spiele, laufen auf beiden Karten traumhaft ohne Probleme.

----------

Das sind so meine Beispiele und Auszüge aus meinen direkt vergleichen.
Das ist aber insgesamt nichts wahnsinniges dramatisches @ 60 FPS-> Zumindest in Verbindung mit der Intel CPU.
Aber fällt halt auf wenn man den direkt vergleich hatte / hat.

Auf dem Bulli war es mit der AMD Karte eine Katastrophe (für mich persönlich und meinem Empfinden...)

Aber das ist hier eh nur ein ewiges im Kreis gerenne.
Und gleich kommen wieder welche die einen in irgendeine Fanboy Schublade schieben wollen oder einen die persönliche Wahrnehmung absprechen wollen ohne selbst den direkt vergleich gemacht zu haben. Oder aber die, die sich auf AVG Benches stützen :fresse:
 
Warum haben eigentlich so gut wie alle Titel, die hier im thread den treiber overhead aufzeigen sollen irgendwelche gameworks-effekte? Es wäre doch auch möglich, dass obwohl die Effekte in den Einstellungen des Spiels aus gestellt sind, die gameworks blackbox dennoch aufgerufen wird und irgendetwas tut. Ausschließen kann man es nicht. Falls der Effekt an war, kann man noch weniger auf den Treiber schließen.

Und alleine anhand der fps-Werte lassen sich auch wenig rückschlüsse auf den Treiber ziehen. Würde das Interesse in diesem Thread darin bestehen, herauszufinden, woran es genau liegt, würde man hier viel mehr messungen der cpu- und gpu-Auslastung sehen, bei verschiedenen effekten und taktraten. Oder man würde sich die drawcalls mancher spiele (falls möglich) anschaun. Fallout4 zb. hat teils über 20.000 in Dx11. Aber anstatt es zu untersuchen, wird einfach ein benchmark gepostet und das schlechte Ergebnis auf den Treiber geschoben und als fakt dargestellt.
Ich will damit nicht sagen, dass es den Treiberoverhead nicht geben kann, aber hinterfragt doch wenigstens die benches, die hier gepostet werden. Wie kann es z.b. sein, das beim division bench aus 40% mehr cpu power nur 2% mehr fps werden, die graka ist dabei nicht am Limit.

War die zweite TR map nicht die mit den tesselierten Fußspuren im schnee?

Naja, bei entsprechend großer CPu haben die AMDs ja kein Problem mit Gameworks Titeln... Erst wenn die CPU kleiner ist bzw schwächer, fallen die FPS. Das wird dann nciht viel mit Gameworks zu tun haben.

LNDV schrieb:
Alles anderen Spiele wie BF3/4 (bis 60 FPS) , Dying l.... , Dirt Rally, Forza Apex uswusf, die ich hin und wieder spiele, laufen auf beiden Karten traumhaft ohne Probleme.

Der Overhead wird eben bei 120 bzw 144Hz noch deutlicher, wenn man beispielsweise die Details etwas reduziert. Bis 60 FPS ist es allerdings, wie sTOrM41 schon sagte, auch teilweise schon problematisch. Wenn auch selten, aber eben akut.
 
Zuletzt bearbeitet:
Ich hab es gerade selbst geprüft, in Division wird die r9 290 ganz schön von meinem FX ausgebremst.
Dann hab ich hier quasi meine erste Erfahrung mit dem Ovehead gemacht, naja, vll wirds doch keine AMD Karte.
 
hier wird gesammelt und im Kreis "diskutiert". jep.

- - - Updated - - -

Ich hab es gerade selbst geprüft, in Division wird die r9 290 ganz schön von meinem FX ausgebremst.
Dann hab ich hier quasi meine erste Erfahrung mit dem Ovehead gemacht, naja, vll wirds doch keine AMD Karte.

weißt du noch, wo du meintest, dass es das gar nicht geben würde?
 
Naja, bei entsprechend großer CPu haben die AMDs ja kein Problem mit Gameworks Titeln... Erst wenn die CPU kleiner ist bzw schwächer, fallen die FPS. Das wird dann nciht viel mit Gameworks zu tun haben.

Der Overhead wird eben bei 120 bzw 144Hz noch deutlicher, wenn man beispielsweise die Details etwas reduziert. Bis 60 FPS ist es allerdings, wie sTOrM41 schon sagte, auch teilweise schon problematisch. Wenn auch selten, aber eben akut.

Wie viele Seiten sag ich das (und noch mehr) jetzt schon? :wink: ;)
 
HBAO kostet bei beiden gleich viel fps, wenn die CPU nicht drosselt. Bei reduziertem cpu takt wurde es meines Wissens nie getestet, oder?
Sollte das im pcgh test so sein, tut es mir leid, aber mein Handy verträgt die Seite nicht.
 
Kannst auch hier schauen:

CPU-Skalierung und Grafikoptionen vs. Performance - Tom Clancy's The Division: 22 Grafikkarten und sechs CPUs im Test

Und da sieht man es beträchtlich und bestätigt mein Eindruck.

Vergleicht man den Verlauf zwischen den AMD- und Nvidia-Karten, dann wird vor allem den AMD-Grafikkarten auf den schwächeren CPUs auch der DX11-Treiber-Overhead zum Verhängnis. Das fällt allerdings - je nach Leistungsklasse - mehr oder weniger deutlich ins Auge.

Edit:

Ich hab es gerade selbst geprüft, in Division wird die r9 290 ganz schön von meinem FX ausgebremst.
Dann hab ich hier quasi meine erste Erfahrung mit dem Ovehead gemacht, naja, vll wirds doch keine AMD Karte.

Verstehe ich nicht.
Jetzt keine AMD Karte mehr zu kaufen macht doch gar keinen Sinn.
Mit vermehrten aufkommen von DX12 und das dadurch auch CPU´s mit mehr Cores effektiver genutzt werden verschiebt sich das bis aufs weitere doch ins belanglose.

War doch zumindest immer die Argumentation...

(Teile die Meinung allerdings in hinblick auf die nähere Zukunft - aber für manche war es ja das Totschlags Argument warum es jetzt egal sei)
 
Zuletzt bearbeitet von einem Moderator:

Aber das ist doch genau das was ich bemängel, es wird einfach mit einer CPU gemessen, nicht mit mehreren unterschiedlich starken. Genauso wenig wird dabei auf die CPU Auslastung oder ähnliches eingegangen, es wird einfach als "Treiber-Overhead" abgestempelt. Mag sein, das das intern bei Tomshardware getestet wurde, aber im Test steht es halt nicht.

Und noch was zu deiner Auflistung weiter oben, liest sich wie ein who is who der letzten Titel mit gameworks effekten, bei denen dir etwas aufgefallen ist.
 
@why_me
im THG Test sind doch ne Menge verschiedene CPUs drin... Sogar mit Mittelklasse (AMD 380, NV 960) und HighEnd (AMD FuryX, NV 980TI) als GPUs... Selbst drei "olle" FX Prozessoren werden mitgetestet...

Das Ganze jetzt an Gameworks festzumachen, halte ich für unsinnig. Klingt fast so als suchst du irgendwie nach einem Aufhänger. Alles, blos nicht der Treiber... :wink:

EDIT:
ein paar Paradebeispiele für die Unterschiede sind bspw. noch BF4 -> damals lang und breit mit Mantle vs. DX11 bei AMD gebencht. Oder auch Ashes mit DX12 vs. DX11...
Das es hier ein Gameworks Effekt sein soll, ist äußerst unwarscheinlich. Möglicherweise KANN! Gameworks den Effekt verschlimmern. Wenn einfach durch die eingesetzten Mittel bei AMD die Skalierung noch mauer ausfällt, als ohne aktives Gameworks. Allerdings lässt sich das weder in die eine, noch in die andere Richtung nachweisen. Mir ist zumindest aktuell nix bekannt, was auswerten kann, von welchem Teil der Effekte welche CPU Anforderung kommt, es sei denn, man kann dediziert den/die Effekte ein/ausschalten bzw. skalieren und dann nachmessen...
 
Zuletzt bearbeitet:
Da sieht es in DX11 halt bei AMD recht düster aus, wenn ich das richtig sehe... Teils (je nach Version, werden ja immer mal wieder Benches veröffentlicht) ist der Abstand zwischen der DX11 Umsetzung bei AMD und NV sogar größer als real in den Spielen, die man hier benennt ;)
 
Und noch was zu deiner Auflistung weiter oben, liest sich wie ein who is who der letzten Titel mit gameworks effekten, bei denen dir etwas aufgefallen ist.

Das darfst du gerne so sehen.
Ich habe auch nicht das recht eingefordert das es jeder glauben MUSS oder gar ein repräsentativer Test wäre.
Das wäre auch reichlich vermessen.

Ich habe es auch nicht explizit getestet , gebencht oder sonst was, sondern es ist das was mir aufgefallen ist beim aktiven Spielen eben dieser Titel.

Daher sagte ich auch, das es bei einer GANZEN REIHE anderer Titel eben nicht aufgefallen ist und auf beiden Karten butter weich läuft.

Ich spiel ja jetzt nicht auf einmal andere Titel als die worauf ich lust habe weil eine der Karten das vll. besser könnte... :hmm:

-------------------------------------

In meinem Fall lässt sich meine Erfahrung auch simpel zusammen fassen:

FX + AMD GPU = in einer Vielzahl aller Spiele die ich spiele (und ich darf wohl behaupten das es eine menge sind) häufige drops , häufige CPU Begrenzung , für mich nicht hinnehmbar.

FX + NV GPU = in einer Vielzahl aller Spiele die ich spiele, immer noch drops auf CPU Seite, aber insgesamt wesentlich besser und auch mehr Titel die einwandfrei laufen.

Intel + AMD GPU = in einer Vielzahl aller Spiele die ich spiele, immer noch drops auf CPU Seite, aber insgesamt wesentlich besser und NOCH MEHR mehr Titel die einwandfrei laufen.

Intel + NV GPU = in einer Vielzahl aller Spiele die ich spiele gar keine Probleme, und insgesamt das beste Spiel Vergnügen.

-------------------------------------

Daraus ergibt sich : AMD GPU´s nicht mit schwachen CPU´s kreuzen wenn man ein möglichst tolles Spiel vergnügen in Spielen jedes Genres haben möchte. Im Umkehrschluss heißt das natürlich: Bei schwacher CPU lieber eine NV Karte verbauen wenn das Geld nicht reicht um beides aufzurüsten.

Ganz so plump habe ich es aber nicht gemacht. :wink:

Ich habe mir die mühe gemacht es genauer zu erläutern, Titel anzuführen die ich nun mal eben spielte und spiele, bin sogar noch auf Einstellungen eingegangen.

Ich rede AMD nicht mal schlecht, sage selber das ich der Meinung bin das sich das zumindest für die nähere Zukunft von selbst relativiert. Habe im letzten Post sogar noch angeführt das es Schwachsinn wäre jetzt deswegen keine AMD Karte zu kaufen (wenn man entsprechende CPU hat).

Diverse wirkliche Test´s bestätigen doch was ich sage, die teils später erschienen sind als zu dem Zeitpunkt wo ich schon darüber geredet habe (in den Anfängen des Threads).

Ich gehörte selber zu den Leuten die es sich nicht vorstellen konnten (wo das Thema noch nicht so bekannt war und gerade erst anfing) bis ich eben aus Neugierde und dem Interesse an dem Hobby, das Geld in die Hand genommen habe und CPU / Grakas hin und her getauscht habe um mir selbst ein Bild zu machen.

Aber genau das ist es eben. Solche Erfahrungen schlagen sich irgendwo auch in den Marktanteilen nieder.
Man bringt ein 200€ P/L Schlager raus der sich massig verkaufen könnte (ich denke da gerade an die 470). Die werden von der Presse mit Systemen mit mega starker CPU getestet und schneiden gut ab.

Aber wer kauft in der Regel GPU´s in dem Preis bereich? Sicher niemand mit einem Intel Hexa Core oder 4790k @ 4,5 GHz.

Sondern in der Regel doch wohl eher Leute die ein betagteres System haben und ein wenig aufrüsten möchten weil es irgendwo klemmt.

Dann kommt der Kollege vorbei der eine 960 / 970 besitzt, man unterhält sich, baut die Karte zum Test ein und sieht das es wesentlich besser läuft obwohl die GPU´s an sich gleichstark sind.

(Klar ein Fiktives Beispiel, aber so in etwa ist es doch ...)

Dann setzt man das Verbrauchsthema noch oben drauf und schon hat man ein GAU aus AMD´s Sicht und der Marktanteil möchte nicht so recht aus dem knick kommen.

----------------------------------------------------------------

Ich verstehe deine Bemühungen das du dem grundlegenden Problem mehr auf den Grund gehen möchtest und sich dir die Frage des "WIESO" stellst. Ich bin generell selbst jemand der gerne nach dem "Wieso" fragt.

Das werden wir wohl hier mit unseren Mitteln nicht ermessen können. Fakt ist nun mal das es so ist. Ob das jetzt an der Architektur liegt, am Treiber oder sonst wo dran... letztlich würde das Kind nur ein neuen Namen kriegen.

Und selbst wenn wir es könnten, würde es nichts ändern.

Aber welche GPU hab ich nach wie vor verbaut? ;) Wäre ich über die maßen unzufrieden wäre das keine 390...

Selbst verständlich hört sich das Thema hier schwerwiegender an als es in der Praxis für die MEISTEN Leute ist. (Mal abgesehen von denen die da übertrieben drauf rum hacken mit teils absurden Argumentationen)

Aber genauso ging es nV auch. Genau das gleiche könnte man auch über den 970 Speicher Gate sagen. (Wobei ich da noch eine gesonderte Meinung zu habe da hier schlicht weg gelogen und dann geschwiegen wurde. ABER DAS GEHÖRT HIER NICHT HER. Und ändert nichts daran das die 970 für ihre Zwecke eine tolle Karte ist , genauso wie es die 390 auch ist. )

@why_me
im THG Test sind doch ne Menge verschiedene CPUs drin... Sogar mit Mittelklasse (AMD 380, NV 960) und HighEnd (AMD FuryX, NV 980TI) als GPUs... Selbst drei "olle" FX Prozessoren werden mitgetestet...

Das Ganze jetzt an Gameworks festzumachen, halte ich für unsinnig. Klingt fast so als suchst du irgendwie nach einem Aufhänger. Alles, blos nicht der Treiber... :wink:

Danke, ist halt wie nach dem letzten Strohalm greifen.
 
Zuletzt bearbeitet von einem Moderator:
Da sieht es in DX11 halt bei AMD recht düster aus, wenn ich das richtig sehe... Teils (je nach Version, werden ja immer mal wieder Benches veröffentlicht) ist der Abstand zwischen der DX11 Umsetzung bei AMD und NV sogar größer als real in den Spielen, die man hier benennt ;)

In Post#1 wird mehrmals von der doppelten Leistung geredet (und mehr), die Nvidia im CPU-Limit erreichen soll. Was dann grob geschätzt ein 5-10 facher Driveroverhead wäre?! Und in dem Benchmark soll es noch schlimmer sein? Hab ich was verpasst?
 
... In meinem Fall lässt sich meine Erfahrung auch simpel zusammen fassen:

FX + AMD GPU = in einer Vielzahl aller Spiele die ich spiele (und ich darf wohl behaupten das es eine menge sind) häufige drops , häufige CPU Begrenzung , für mich nicht hinnehmbar.

FX + NV GPU = in einer Vielzahl aller Spiele die ich spiele, immer noch drops auf CPU Seite, aber insgesamt wesentlich besser und auch mehr Titel die einwandfrei laufen.

Intel + AMD GPU = in einer Vielzahl aller Spiele die ich spiele, immer noch drops auf CPU Seite, aber insgesamt wesentlich besser und NOCH MEHR mehr Titel die einwandfrei laufen.

Intel + NV GPU = in einer Vielzahl aller Spiele die ich spiele gar keine Probleme, und insgesamt das beste Spiel Vergnügen...

so siehts aus.
es muss sich da ja nicht um Unterscheide von 50 fps handeln, das kann ja auch mal nur ein fps sein. je nach dem. und das is auch kein Totschlagargument gegen sämtliche AMD-Karten, aber auch kein pauschales NV-Fanboy-Kriterium.
 
ich find das echt richtig heftig. ne 770 spielt eigentlich gar nicht in der Liga wie ne 390. Alter Schwede ...
 
ich find das echt richtig heftig. ne 770 spielt eigentlich gar nicht in der Liga wie ne 390. Alter Schwede ...

sind halt tests im cpu limit.

im gpu limit ist die 390 natürlich deutlich flinker, nur muss man so eine karte eben auch erstmal ins gpu limit kriegen..
 
Jetzt könnte man sich bspw. die Frage stellen, ob früher, als noch Kepler/Hawaii oder Kepler/Tahiti aktuell waren und die Karten entsprechend der Leistung auch recht gleich lagen, nicht vielleicht ein nahes CPU Limit dafür sorgte, dass NV trotz teils deutlich geringerer Rohpower doch leicht über den AMD Gegenstücken agieren könnte? Nimmt man den Part zurate, dass AMD Karten seit mindestens mal dem R600 im Jahr 2007 durch steigende Anforderungen idR IMMER auf das jeweilige NV Gegenstück aufschlossen, teils einholten, teils gar überholten... :wink:

Und dann wundern sich die Leute ernsthaft, dass die AMD Modelle mit der Zeit immer mehr aufschließen?

Ja ja, aber bei NV ist es natürlich der Treiber, der Kepler langsamer macht, es gibt bei AMD auch kein Overhead-Defizit in DX11 Titeln usw.
Die Welt kann ja so einfach sein, wenn man nur genügend fest an irgendwas "glaubt" :fresse:
 
Zuletzt bearbeitet:
... Nimmt man den Part zurate, dass AMD Karten seit mindestens mal dem R600 im Jahr 2007 durch steigende Anforderungen idR IMMER auf das jeweilige NV Gegenstück aufschlossen, teils einholten, teils gar überholten... :wink: ...
die Stelle würd ich gern verstehen, tu ich aber leider nicht. du hast nicht zufällig Lust, das für Doofe nochmal zu erklären?
 
IdR gilt, höhere Anforderung (bspw. mehr Details, neuere Games, höhere Auflösung, höhere AA-Settings) und AMD GPUs legen im Vergleich zu NV GPUs der gleichen "Klasse"/"Generation" zu...
Oder anderesrum gedacht, möglicherweise hindert die hohe Abhängigkeit der CPU Leistung AMD Karten schon seit Ewigkeiten daran, in den gängigen Auflösungen ihre Rohleistung auf die Straße zu bekommen. Denn in höhen Auflösungen oder hohen Anforderungen an die Leistung geht es ja idR für AMD auch auf ;)

Denkst du nun in Schubladen, würde der Rote sagen, NV geht die Puste aus.


Netter Nebeneffekt von dieser "Theorie"...
Es passt wie Arsch auf Eimer dazu, dass A) AMD GPUs idR länger halten, sprich hintenraus über die Nutzungszeit immer besser dastehen, B) neuere Titel (oftmals weit nach Release der Hardware selbst) für sehr gutes Abschneiden sorgen -> weil eben die Anforderungen an die GPU deutlich höher als zu Release liegen und C) das alte Titel mit alter Hardware trotz neuer Treiber nicht soooo viel zulegen...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh