AMD und die bescheidene Performance im DX11 CPU Limit

Ich hab mir, weil ich in einem Beratungsthread darauf hingewiesen wurde, AMD stehe bei Directx11 Spielen schlecht da, diesen Thread hier zu Gemüte geführt.
Und die Kritiker haben recht. Dieser Thread ist ein Sammelsurium von unwissenschaftlichen Betrachtungsweisen zuhauf ohne Analysen, in denen AMD langsamer rechnet.

Es ließe sich derselbe Thread gegen Nvidia aufbauen, hierzu mal nur ein paar Beispiele kürzlich veröffentlichter Leistungsdaten.

Hitman Beta im Benchmark-Test: Killer mit großem Hunger auf Grafikspeicher

Schlechte Minimum FPS bei Nvidiakarten und schlechte Frametimes.

DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity - ComputerBase

Schlechtere Directx12 Ergebnisse.

XCOM-2-Benchmarks mit Grafikkarten und Prozessoren (Seite 2) - ComputerBase

Höhere Prozessorlast.

The Division Open Beta: Erhellende Grafikkarten- und CPU-Benchmarks

Langsamere Treiber, Ruckler WHQD.

Hitman: Beta-Benchmark mit DirectX 11

Schwache Grafikkartenvergänger und aktuelle Performance.

VRAM bei Grafikkarten: Das Ende von 4 GB für*Modelle über 300*Euro naht (Seite 4) - ComputerBase

Frametimeprobleme GTX 980 TI.
Das waren Tests mithilfe der Google Suche innerhalb der letzten 14Tage. Kontra Nvidia.
Der Thread ist leider einseitig und wird von Leuten wie slot108 mitgestaltet, die öffentlich lügen damit sie Nvidia besser dastehen lassen, Beleg in einem der Beratungsforen, jederzeit abrufbar.

Also ich würde empfehlen hier nicht zu lesen und sich die Informationen selber zu suchen.
Genauso ist es nicht empfehlenswert sich in diesem Forum beraten zu lassen, da zwischen den Beratenden kleinkriege entstehen vor allem wegen oben aufgeführten Verhalten, was dann in beleidigenden PN NAchrichten endet.

Fazit ist: Ihr seit eine Truppe sie sich gegenseitig ankeift und nicht zusammenarbeitet und einseitig gegen AMD in den Kaufberatungen hetzt, das kann man mit vielerlei Links belegen.
Ihr macht das Forum zu einem ungemütlichen Platz und deswegen verabschiede ich mich auch jetzt von hier - keine Lust. Informationen kann ich mir 100x besser selbst suchen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das AMD treiberseitig massive leistungsprobleme hat wissen wird nicht erst seit gestern und man sieht es bei nahezu jedem neuen game das AMD das nachsehen hat
Massive probleme seitens nvidia bei der Bildqualität haben mich veranlasst ihnen den Rücken zu zu kehren.
Reine Fps ohne die Bildqualität mit ein zu beziehen nennt man selbst Verarschung.
Das kann jeder sehen wie er/sie will.
 
Zuletzt bearbeitet:
Du nennnst mich einen Lügner? Hast du nen Knall? Der Link, aus dem mein Zitat stammt, hast du selbst am 14.02.16 gepostet. Da war er wohl noch Wahrheitsgemäß für dich. Nun ist er es nicht mehr? Meine Fresse, du bist dann wirklich ein Fanboy, vielleicht sogar mit Doppelaccount. Du erinnerst mich sehr an den gebannten Ratstrofen, des hatte ne sehr änliche Schreib- und Sichtweise.
Achja, über PNs brauchst du dich nicht beschweren. Hab ja auch welche von dir bekommen.
 
Ich hab mir, weil ich in einem Beratungsthread darauf hingewiesen wurde, AMD stehe bei Directx11 Spielen schlecht da, diesen Thread hier zu Gemüte geführt.
Und die Kritiker haben recht. Dieser Thread ist ein Sammelsurium von unwissenschaftlichen Betrachtungsweisen zuhauf ohne Analysen, in denen AMD langsamer rechnet.

Es ließe sich derselbe Thread gegen Nvidia aufbauen, hierzu mal nur ein paar Beispiele kürzlich veröffentlichter Leistungsdaten.

Hitman Beta im Benchmark-Test: Killer mit großem Hunger auf Grafikspeicher

Schlechte Minimum FPS bei Nvidiakarten und schlechte Frametimes.

DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity - ComputerBase

Schlechtere Directx12 Ergebnisse.

XCOM-2-Benchmarks mit Grafikkarten und Prozessoren (Seite 2) - ComputerBase

Höhere Prozessorlast.

The Division Open Beta: Erhellende Grafikkarten- und CPU-Benchmarks

Langsamere Treiber, Ruckler WHQD.

Hitman: Beta-Benchmark mit DirectX 11

Schwache Grafikkartenvergänger und aktuelle Performance.

VRAM bei Grafikkarten: Das Ende von 4 GB für*Modelle über 300*Euro naht (Seite 4) - ComputerBase

Frametimeprobleme GTX 980 TI.
Das waren Tests mithilfe der Google Suche innerhalb der letzten 14Tage. Kontra Nvidia.
Der Thread ist leider einseitig und wird von Leuten wie slot108 mitgestaltet, die öffentlich lügen damit sie Nvidia besser dastehen lassen, Beleg in einem der Beratungsforen, jederzeit abrufbar.

Also ich würde empfehlen hier nicht zu lesen und sich die Informationen selber zu suchen.
Genauso ist es nicht empfehlenswert sich in diesem Forum beraten zu lassen, da zwischen den Beratenden kleinkriege entstehen vor allem wegen oben aufgeführten Verhalten, was dann in beleidigenden PN NAchrichten endet.

Fazit ist: Ihr seit eine Truppe sie sich gegenseitig ankeift und nicht zusammenarbeitet und einseitig gegen AMD in den Kaufberatungen hetzt, das kann man mit vielerlei Links belegen.
Ihr macht das Forum zu einem ungemütlichen Platz und deswegen verabschiede ich mich auch jetzt von hier - keine Lust. Informationen kann ich mir 100x besser selbst suchen.

:lol:
Bei Allen "Belegen" kontra Nvidia handelt es sich um Beta-Versionen... Kannst dir sicherlich vorstellen, wie aussagekräftig sowas ist. Klar muss auch Nvidia bei Neuerscheinung von Game-Titeln die Treiber optimieren.

:wink: und tschüss
 
Zuletzt bearbeitet:
@SirLanzelot: Lieber Ratstropfenverschnitt, ich lüge nicht und wenn ich was falsches schreibe, habe ich keine Probleme damit, das auch zuzugeben.
sicherlich lieg ich manchmal falsch, das soll bei Menschen manchmal so sein.
allerdings bezeichne ich nicht irgendwen öffentlich als Lügner. jemanden so beleidigend anzugreifend ohne je in den direkten Dialog gegangen zu sein, is faul, bequem und dumm und halt eben dein "Niveau".

haters gonna hate und du hast deine guten Gründe dafür :)

- - - Updated - - -

...
Fazit ist: Ihr seit eine Truppe sie sich gegenseitig ankeift und nicht zusammenarbeitet und einseitig gegen AMD in den Kaufberatungen hetzt, das kann man mit vielerlei Links belegen.
Ihr macht das Forum zu einem ungemütlichen Platz und deswegen verabschiede ich mich auch jetzt von hier - keine Lust. Informationen kann ich mir 100x besser selbst suchen.
wie wärs mit Konsequenz?

... damit sie Nvidia besser dastehen lassen, Beleg in einem der Beratungsforen, jederzeit abrufbar....
toller Satz! super! liest sich richtig amtlich und alles, aber ein kleines Fragezeichen bleibt dann doch. ich würde den Beleg gerne abrufen. kann ich mir das auch quittieren lassen?
 
@SirLanzelot

Ich muss leider anmerken, dass dein Fazit sehr einseitig ist, undifferenziert und leider auch im hohen Maße anmaßend ist, es steht dir vermutlich einfach auch nicht zu über diese "Truppe" so zu urteilen.

Wenn du der Meinung bist, woanders bessere Informationen zu bekommen dann gebe dich gerne diesem Trugschluss hin.

Weiterhin viel Erfolg dabei!
 
nach 6 posts kann Sir Lanzlot das ganz bestimmt.
Doppelaccount? ich denk, das is Ratstropfen.
 
Hier im thread sind massenhaft Benches in denen AMD schlechter dasteht und ein paar Leute die ganz laut Treiberoverhead schreien, anstatt die ergebnisse zu hinterfragen.

Was haben wir denn auf den letzten paar seiten?
Fallout 4, bei dem die AMD karte stärker ausgelastet wird, aber weniger FPS liefert. (30% mehr auslastung bei vergleichbaren karten und ein gutes stück weniger FPS)
Rise of Tomb Raider, bei dem die AMD Karte nur mit 1 und 8 Threads gut läuft. Warum?
Jemand der beim tausch von Nvidia zu AMD weniger FPS hat, es wird Treiberoverhead geschrieben, anstatt den fehler zu suchen. Vielleicht ist ja der alte Nvidia Treiber schuld?
...

Komischerweise sind die meisten Benches von der polnischen Seite, die teilweise als einzige solche komischen Ergebnisse bekommt. Und meistens sind auch noch Gameworks Titel direkt nach release.... aber bloß nicht hinterfragen, wieso solche Ergebnisse zustande kommen.
Allgemein bin ich sehr dafuer die Bildqualitaet auch mit zu testen.
Auch wenn die Einstellungen im Spiel die gleichen sind, so loest jeder Hersteller das anders, dafuer spricht auch die unterschiedliche Auslastung.
Also die AA Modi sind nicht Hersteller uebergreifend vergleichbar, trotzdem wird froehlich verglichen unabhaenging davon was am Monitor ankommt.
Das ist auch der Grund, warum ich kein Bedarf an neuer Hardware habe, wenn diese nur schneller ist bei weniger guter Qualitaet bringt mir das 0 (Zero).

Das es ein Overhead seitens der CPU gibt, steht ausser Frage, dafuer hat AMD Mantle ins leben gerufen, wer es nicht nutzt braucht sich auch nicht ueber bescheidene Performance beschweren, schon gar nicht mit einer Single GPU :haha:
 
@SirLanzelot: Lieber Ratstropfenverschnitt, ich lüge nicht und wenn ich was falsches schreibe, habe ich keine Probleme damit, das auch zuzugeben.

Steter Rat höhlt den Tropfen? Ich weiß ja nicht was du mir außer den seichten Beleidigungen per P/N noch sagen willst, aber ja dass du aus eigener Unfähigkeit lügst ist mittlerweile mehreren Usern hier klar, das zeigen die Inhalte der Beratungsthreads ganz deutlich.
Du hattest mich bezüglich GTX 970 und r9 390 beraten und alles außer ein paar Dingen die du behauptet hast, haben nicht gestimmt.
Das benötigte lediglich 2 Minuten Recherche. Also wieso sich von dir beraten lassen, wenn dabei nur Unsinn herauskommt, da lehne ich dankend ab.

sicherlich lieg ich manchmal falsch, das soll bei Menschen manchmal so sein.

Es sieht eher viel mehr nach reiner Absicht aus, beispielsweise zu behaupten eine GTX 970 wäre viel schneller wie eine 390.
Den Rest erspare ich uns mal und über Niveau müssen wir uns nicht unterhalten, du solltest das Wort am besten nicht mal in den Mund nehmen.

ich würde den Beleg gerne abrufen.

"ich bezweifle, dass das echt 500W sind. das werden eher so 480 sein. im Spielbetrieb, wenn die 390 auf ihre 300W kommt, müssten das in etwa 90-95% Auslastung sein. das is mal risikofreudig.
390 Nitro Tri-X OC - Empfohlene Netzteil-Leistung: min. 750 Watt. "

Bei einem 500 Watt Netzteil, was für den Betrieb von 2x 8pin Connectoren +75 Wat ausgelegt ist und der ingesamte Verbrauch etwa bei 300 bis 370 Watt liegt, von risikofreudig zu sprechen, grenzt schon an wahre Rechenkünste.

Zudem ist die 390 mit max. 275 Watt spezifiziert, also rechnest du sowieso schon mit Lastspitzen.

"ich finds sowas von bezeichnend, dass hier bei ner Herstellerangabe von 750W über 400 und 500W diskutiert wird."

Weil man ja nach 6065 Beiträgen in einem Hardwareforum nicht weiß, dass hiermit Chinaböller gemeint sind.
Das weiß selbst der Dau wie ich, der noch nie einen Computer zusammengesetzt hat und sich ansonsten mit Schaltungen beschäftigt.

"ie ist in etwa gleich schnell im Referenzdesign. verbraucht ca 80W mehr unter Last, wird folglich auch heißer"

Ein höher Verbrauch bedeutet keineswegs eine höhere Temperatur des Chips, das weiß doch jedes Kind. Mit solchem Dummfug hausierst du hier.

"und man kann sie kaum noch übertakten, weil der 3 Jahre alte Chip nun mal vom Hersteller schon übertaktet ist und da einfach mal nicht mehr viel geht. Ende der Fahnenstange. "

Eine 1300mhz GTX 970 kann man genausowenig noch übertakten und diesen Takt brauchen die GTX 970 Karten auch, damit sie so schnell arbeiten wie eine Custom r9 390.
Zudem ist der Chip keine 3 Jahre alt, sondern wurde ende 2013 herausgebracht, das sind nicht mal 2,5 Jahre.

Den Rest deines Gebrabbels erspare ich mir an dieser Stelle und hoffe die Moderation schickt so Leute wie dich in die Wüste, die einem persönlich per Mail beleidigen, keine paar Stunden nach Anmeldung auf dieser Seite.
 
Zuletzt bearbeitet:
@SirLanzelot

Ich muss leider anmerken, dass dein Fazit sehr einseitig ist, undifferenziert und leider auch im hohen Maße anmaßend ist, es steht dir vermutlich einfach auch nicht zu über diese "Truppe" so zu urteilen.

Wenn du der Meinung bist, woanders bessere Informationen zu bekommen dann gebe dich gerne diesem Trugschluss hin.

Na wenn dein Avatar schon der gleiche ist wie bei dem Slot108, dann ist ja eh Hopfen und Malz verloren.
Schau dir doch mal die Kaufberatungen an, das ist ja ein Trauerspiel.
Habe sowieso null Peil wieso die Modschaft sowas zulässt, das ist eine super Werbung für das Hardwareluxx.

- - - Updated - - -

Natürlich bedeutet mehr Stromverbrauch eine höhere Wärmeentwicklung....

Höhere Wärmeentwicklung != heißer Chip.
 
Würde der Herr Lanzelot mal aufhören, mich per PN anzuschreiben und als Fanboy zu bepöbeln? Heult wegen Slot rum, ist aber selbst kein Stück besser. Gibt Links zum Besten in anderen Threads, und wenn man aus Selbigen zitiert,und es nicht mehr in die eigene Anschauung paßt, ist man ein Lügner und was dort steht, nicht mehr wahr.
 
Eine 1300mhz GTX 970 kann man genausowenig noch übertakten und diesen Takt brauchen die GTX 970 Karten auch, damit sie so schnell arbeiten wie eine Custom r9 390.
Zudem ist der Chip keine 3 Jahre alt, sondern wurde ende 2013 herausgebracht, das sind nicht mal 2,5 Jahre.

Ist nicht dein ernst oder? das ist doch vollkommen falsch, was du da von dir gibst. Die 1300Mhz machen sind ziemlich schlecht, hattest du so eine? dann tut mir das sehr leid aber jede Karte kann bis 1400Mhz und lässt sich bei den meisten noch weiter übertakten.

Meine schafft mit der Übertaktung 1505Mhz.
 
Natürlich bedeutet mehr Stromverbrauch eine höhere Wärmeentwicklung....
Strom wird streng genommen nicht verbraucht sondern umgewandelt in ei e andere Energie z.b. wärme oder licht.
aber das ist nur unter den insidern bekannt die auch eine elektrische Ausbildung genießen durften.

bezüglich bild Qualität: cinebench openGL test nutzt ein Referenz bild und vergleicht es mit der Ausgabe der gpu.
warum macht man sowas nicht bei dx?
Jetzt kommt ja Vulkan das erweiterte openGL mit mantle Erweiterungen. :d
 
Ashes of the Singularity DirectX-12-Leistungsexplosion (Seite 2) - ComputerBase

390 30% schneller als 970, GTX 980 Ti nurnoch gleichauf mit 390x, obwohl diese mal eben 300 Euro weniger kostet.
Lob sei dir Nvidia. Was sind das nur für eklatante Treiberschwächen in Dirrectx12?:confused:

Da muss man ja sofort einen Thread wie diesen eröffnen, meinst du nicht auch slot?

das bei amd die dx12 performance besser ausfallen könnte steht bereits seit 3 monaten im startpost, den du dann wohl nicht gelesen hast.

es steht dir natürlich frei darüber einen eigenen thread zu eröffnen.

aber leute, bitte.. ignoriert nicht worum es hier in diesem thread geht.

hier geht es nicht um dx12, hier geht es auch nicht um leistung im gpu limit, sondern um leistung im cpu limit unter dx11.
 
Nur wird das spätestens in ein paar Monaten keinen mehr interessieren und interessiert auch sehr wenig wenn man sich heute noch eine neue GRaphikkarte zulegt.
Und die paar Fälle die hier unwissenschaftlich aufgezeigt wurden, interessieren relativ wenig, wenn man keinen Prozessor von <2010 besitzt, dagegen ist die Leistungsexplosion unter Dorectx12 viel interessanter.

Natürlich auch wieder mit schlechten Nvidia Fametimes:

Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout - Übersicht, Einführung und Testsystem

http://www.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html

Aber es gab wie ich in der suche finde famals schon Hinweise darauf.
 
Zuletzt bearbeitet:
hier geht es nicht um dx12, hier geht es auch nicht um leistung im gpu limit, sondern um leistung im cpu limit unter dx11.
Ich tippe mal darauf, dass dieses limit künstlich erzeugt wird mit dx11.
Die lösung sind dx12 und mantle sowie nun Vulkan.
aber gut es gibtauch leute die keine Lösung suchen sondern lieber mit dauerfeuer andere verjagen die eine lösung haben.

einfach weiter machen mich stört es nicht. :angel:
 
Strom wird streng genommen nicht verbraucht sondern umgewandelt in ei e andere Energie z.b. wärme oder licht.
aber das ist nur unter den insidern bekannt die auch eine elektrische Ausbildung genießen durften.

Und wenn ein Chip mehr Strom zieht, in welche Energieform wird er danach umgewandelt?

So viel zur elektrischen Ausbildung....
 
Und wenn ein Chip mehr Strom zieht, in welche Energieform wird er danach umgewandelt?

So viel zur elektrischen Ausbildung....
Das kommt auf die wärme Übertragung das kühler Material und den luftdurchsatz der lůfter an.
ich durfte sogar elektromechaniker genießen!

Ja der großteil wird in wärme umgewandelt daher einfach die wärme nutzen dann steigt auch die Effizienz. :shot:
 
Trotzdem wird der Großteil in Wärme umgewandelt - egal, wie gut der Kühler ist.

Ich durfte weder noch genießen ;)

Im Winter eine wahre Wohltat :d
 
Nur wird das spätestens in ein paar Monaten keinen mehr interessieren und interessiert auch sehr wenig wenn man sich heute noch eine neue GRaphikkarte zulegt.
Und die paar Fälle die hier unwissenschaftlich aufgezeigt wurden, interessieren relativ wenig, wenn man keinen Prozessor von <2010 besitzt, dagegen ist die Leistungsexplosion unter Dorectx12 viel interessanter.

welche dx12 spiele werden in den nächsten monaten eigentlich released?
mir fällt da spontan nur quantum break an.

mein alter fx8320 war übrigens aus 2012.

ich sehe grade das du einen 4,3ghz i7 dein eigen nennst, daher betrifft dich das problem das dieser thread anspricht vermutlich nur selten.
aber auch eine aktuelle intel cpu löst das problem nicht immer.

d2o4z5uoy16hggw9b.jpg
d2o4xz6tb7zv4r3nz.jpg
 
Zuletzt bearbeitet:
Halten wir also mal fest: es gibt dx9/10/11.1/11.2/Mantle Spiele, sowie dx9/10/11/11.1/11.2/12 windows.
ein dx11 Spiel das auf dx11.1 gepatch ist wird unter dx12 windows weniger overhead erzeugen als mit einem dx11 windows.
also differenzieren fällt der masse immer noch schwer. :p
 
Ashes of the Singularity DirectX-12-Leistungsexplosion (Seite 2) - ComputerBase

390 30% schneller als 970, GTX 980 Ti nurnoch gleichauf mit 390x, obwohl diese mal eben 300 Euro weniger kostet.
Lob sei dir Nvidia. Was sind das nur für eklatante Treiberschwächen in Dirrectx12?:confused:

Da muss man ja sofort einen Thread wie diesen eröffnen, meinst du nicht auch slot?

Aber all das ändert nichts daran, dass der erste marktrelevante Auftritt eines richtigen DirectX-12-Spiels insbesondere eines ist: Beeindruckend.

Derart hohe Leistungssprünge gibt es selbst bei einer GPU-, erst recht aber nicht bei einer neuen CPU-Generation zu sehen. Durch DirectX 12 kann das Spiel mit einer schwächeren CPU wie dem Core i3-4330 auf einer Radeon R9 Fury X im Durchschnitt um 61 Prozent zulegen, auf einem Core i7-6700K sind es noch 42 Prozent.

AMD profitiert deutlich von DirectX 12, Nvidia (noch?) nicht
 
NV kann nicht davon profitieren, da Maxwell grundsätzlich für 11_0 entwickelt wurde. Das ist zumindest meine Meinung und der GM107 beweist genau dieses auch. Man hat die Features bei Maxwell2, aber offensichtlich kann man daraus keinen Gewinn schlagen - was nützt all das, wenn es nicht performant läuft, weil die Auslastung schon mit DX11-Features am Limit ist.

Aber auch im CB-Test kann man wieder AMDs Treiberschwäche unter DX11 sehr heftig erkennen, die Karten brechen unter DX11 und schwerer Drawcall-Last ja derart ein, das ist nicht mehr feierlich. Unter DX12 hingegen ist saubere Arbeit geleistet worden, der Treiber stellt sich da jedenfalls als völlig unproblematisch dar.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh