AMD und die bescheidene Performance im DX11 CPU Limit

Ein FX-8350 sry, die CPU ist lahm , lahmer als ein i3.

Wenn du mit sowas zockst, dann wundert mich der Overhead kein Gramm.

wieder so eine einseitige aussage..
ist das denn so schwierig so ein thema einfach mal nüchtern anzugehen?

der fx8350 ist nicht unbedingt lahmer als ein i3, der fx8350 ist genau dann lahmer wenn das spiel/die software nicht in der lage ist die vorhandenen resourcen der cpu gut auszunutzen.

ein spiel/eine software die dazu in der lage ist, kann auf dem fx8350 dann durchaus besser laufen als auf einem i3 oder gar i5.
d6vxp7le6imv0ojzx.jpg
d6vxq0pdflzf7t64d.jpg



auch spiele welche nicht gut mit den resourcen des fx umgehen können, können auf dieser cpu durchaus gut laufen.
sofern eben nicht noch zusätzliche last durch den overhead erzeugt wird.

d6vxt5b3r95o1djy5.jpg


wie du hier sehen kannst pustet der fx8350 im cpu limiz ohne den overhead mal eben doppelt so viele fps raus und auch der i5 legt um 70% zu.

stell dir doch einfach selber mal folgende fragen:
-warum entwickelte amd mantle?
-warum legen die roten unter mantle im cpu limit so zu?
-warum legen die roten unter dx12 im cpu limit so zu?
-warum legen die grünen unter dx12 im cpu limit wenig bis garnicht zu?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
stell dir doch einfach selber mal folgende fragen:
-warum entwickelte amd mantle?
-warum legen die roten unter mantle im cpu limit so zu?
-warum legen die roten unter dx12 im cpu limit so zu?
-warum legen die grünen unter dx12 im cpu limit wenig bis garnicht zu?

Hexerei! :d

Spaß beiseite... Als die ersten DX12 Benches kamen haben sich alle noch über den großen Sprung bei AMD und erst recht über den fehlenden Sprung bei Nvidia gewundert.
Das liegt zum einen daran, das nVidia immernoch Probleme mit DX 12 hat aber zum anderen auch daran, das DX11 bei nVidia sehr gut und bei AMD halt nicht so toll ist.
Natürlich sind die Sprünge bei AMD dann größer als bei nVidia, das ist denke ich nur logisch.

Davon abgesehen hat AMD die Manpower in Mantle (und Vulkan) versenkt anstatt DX11 zu optimieren.
Sogesehen "bezahlt" AMD das nun indirekt über den schlecht optimierten DX11 Renderpfad.
 
Zuletzt bearbeitet:
ich muss ja jetzt wohl nicht allen ernstes noch mal wiederholen warum diese aussage einseitig ist :confused:

Ein FX-8350 sry, die CPU ist lahm , lahmer als ein i3.


und zu deinem link.. das sind benchmarks im gpu limit.

in diesem thread geht es um die leistung im cpu limit.

edit: die cpu benchmarks findest du übrigens auch in deinem link, was nicht verwundert da die graphen ja aus dem selben gamegpu performance review stammen.
einfach mal auf "CPU Benchmarks (Click to show)" klicken.
 
Zuletzt bearbeitet:
Du hast ein Video gezeigt um auf das Overheadproblem hinzuweisen, Tatsache ist aber dass dort weder ein Vergleich mit Nvidia gemacht wurde, noch eine wirklich schnelle CPU benötigt wird.
Also was in Gottes Namen willst du mir mit diesem Video zeigen? Dass ein FX 8350 zu lahm ist?

Du hattest gesagt man solle das Thema nüchtern angehen?

und zu deinem link.. das sind benchmarks im gpu limit.

in diesem thread geht es um die leistung im cpu limit.

Wie soll die CPU das Limit sein, wenn die CPU mit einer Nvidiagrafikkarte weniger limitiert?:confused:
Das zeigt recht schön dass kein CPU Limit existiert, also ist dem Threadtitel hier ja wenig Genüge getan.
Außerdem wie bewertet man nun diesen Benchmark den du verlinkst? Was tritt öfter auf CPU Limit oder GPU Limit?
Wenn zu 99% die GPU LImit limitiert fährt man mit einer 290x ja besser wie mit einer 780 Ti...
 
Zuletzt bearbeitet:
Wie soll die CPU das Limit sein, wenn die CPU mit einer Nvidiagrafikkarte weniger limitiert?:confused:
Das zeigt recht schön dass kein CPU Limit existiert, also ist dem Threadtitel hier ja wenig Genüge getan.

ich fühle mich grade etwas getrollt :fresse:

wie bitte kann deiner meinung nach kein cpu limit vorliegen wenn die fps steigen je potenter die cpu wird?

das du nicht verstehst warum die cpu mit der nvidia karte weniger limitiert zeigt übrigens das du das ganze thema hier nicht verstehst.
 
Zuletzt bearbeitet:
ich fühle mich grade etwas getrollt :fresse:

wie bitte kann deiner meinung nach kein cpu limit vorliegen wenn die fps steigen je potenter die cpu wird?

das du nicht verstehst warum die cpu mit der nvidia karte weniger limitiert zeigt übrigens das du das ganze thema hier nicht verstehst.

Geht doch um die API die das alles bewirkt oder nicht?
 
Worüber ihr redet ist schlicht ein künstliches CPU Limit.
Soll heißen, es belastet unnötig die CPU so das diese ihre Performance nicht voll entfalten kann .
Es ist also mehr Rechenaufwand nötig als es sein müsste um Ergebnis XY zu erreichen weswegen kleinere Hardware unnötig schnell an ihre Grenzen gerät.

DX 12 setzt genau da an. Es setzt die Ressourcen frei und spricht die HW 100% an weswegen dinge wie Treiber Overhead etc, quasi keine Rolle mehr spielen.
 
Richtig, richtig und richtig, zumindest mal die 3 Vorredner.

Lanzelot - ganz ehrlich: Bitte ignoriere dieses Thema doch einfach. Du behauptest es gäbe kein CPU Limit? Sorry aber da widersprechen dir alle guten Fachzeitschriften und alle haben das Thema unter DX11 im CPU Limit schon mal adressiert. Was du nicht wahr haben willst ist wie mir scheint, dass es Leute gibt die mit weniger als einem i5 4460 zocken. Leute die einfach nen alten CPU haben und nur die GPU umgesteckt haben um aktuellere Spiele in reduzierten Details zu spielen und um eben diese Leute geht es hier und nicht den Hardwareenthusiasten, welcher schon seit dem i7 920 nichts anderes mehr verbaut hat und jeden als Noob bezeichnet der ne AMD APU hat ...

Ihr müsst einfach mal ein bißchen ruhiger werden. Klar hier geht es um ein spezielles Szenario, aber das musste selbst Tanuki aka Mr. Renitent 2000 einsehen, dass es dieses Limit gibt. Bitte fang du jetzt nicht an seinen Platz einzunehmen.

Auch geht es hier nicht um DX12 oder Tests mit nem 5960x und ner R7 250 oder sonstetwas - es geht um eine langsame CPU in Verbindung mit einer AMD Karte unter DX11 und da bricht die Performance einfach viel weiter ein als sie sollte. Die Energie die man in Mantle und Vulkan verschwendet hat, hätte man lieber da investieren sollen (so zumindest meine Meinung) und diese Sache endlich aus der Welt schaffen.

So und jetzt trinkt ihr alle mal ne Runde Baldrian bevor das hier wieder ausartet ;)
 
Naja, die Energie die AMD in Mantle "verschwendet" hat (finde ich trotzdem nicht verschwendet, BF4 und Dragon Age Inquisition liefen mit Mantle ja teils horrend besser), führte ja letztendlich nun zu Vulkan und DX12. MS sah früher keine Notwendigkeit für eine neue API, waren dann aber mehr oder weniger gezwungen sich mal zu bewegen.

Und davon profitieren ja nun alle, egal welche GPU im Kasten steckt.

Ist halt auch die Frage ob man DX11 bei AMD überhaupt noch hätte optimieren können, oder das hardware(konstruktions-)bedingt schon das maximum war was per Treiber rauszuholen war. Daher wahrscheinlich eher das Vorantreiben von Low-Level-APIs um die Hardware auch auszulasten.
 
Zuletzt bearbeitet:
Ich will es ja auch nicht schlecht reden :)

Neue Technik ist am Ende fast immer förderlich für den Verbraucher und DX11 ist ja nun auch schon ein paar Tage alt. Mit Polaris/Pascal plane ich eh einen Umstieg von daher betrifft mich das Thema nicht so wirklich - gut ich hab auch ne starke Intel CPU :d

Mir ging es nur darum, darauf hinzuweisen, dass hier am Thema vorbei argumentiert/gestritten wird und es einfach nicht wieder ausartet und zur Schlammschlacht verkommt.
 
Man sollte aber auch nicht jede FPS Differenz auf den Treiber overhead schieben, wie es hier immer gemacht wird. Denn messbar ist das AFAIK nur in AotS andere Benchmarks messen das nicht bzw. geben es nicht aus.
 
Naja, wenn wie in meinem Beispiel ein Ivy i5 schon 4,4GHz braucht um in RotTR nicht unter 45 min-fps zu fallen ist das schon eklatant. Mit nv-Karten reicht da offensichtlich weit weniger CPU-Power, da sollte das annähernd für konstante 60 reichen, zumindest hab ich von niemandem mit einer Kombi ab i5 und performanter nv-Karte ala 780 aufwärts gelesen wo das größere Probleme machen würde.

Möchte nicht wirklich wissen wie sich das mit älteren CPUs wie Phenom II X4 / Q95xx ect in Verbindung mit AMD-Karte einen abruckelt...

Ist auch kein Gebashe oder Gejammer, ist halt speziell in diesem einen Spiel so extrem und auch nicht ausgeschlossen dass es wirklich am Spiel liegt. Es ist halt wie es ist, schauen wir mal ob tatsächlich ein DX12 Patch nachgeschoben wird (Anzeichen dafür gibts ja), dann werd ich auch nochmal gegentesten wieviel Unterschied das ausmacht.

Der wird wenn auf jeden Fall kommen bevor ich aufrüste, denn das ist auch bei mir frühestens mit Polaris/Pascal geplant, wobei noch nicht sicher was es letztendlich wird. Bis dahin muss die jetzige noch reichen. Tut sie grundsätzlich auch.
 
Man sollte aber auch nicht jede FPS Differenz auf den Treiber overhead schieben, wie es hier immer gemacht wird. Denn messbar ist das AFAIK nur in AotS andere Benchmarks messen das nicht bzw. geben es nicht aus.


Es wird auch nicht nur darauf geschoben, aber es wird halt wie in jedem Thread mit ner 970 auf die 3,5GB darauf hingewiesen. Und es kann ja nun (messbar oder nicht) kein Zufall sein das es immer in Verbindung mit älterer/schwächerer CPU und AMD Grafikkarte passiert. DA muss man halt beim Kauf drüber nachdenken. Für aktuelle Systeme ist das ganz klar kein ausschlaggebender Grund. Da werden ja zu 95% eh nur Intel CPUs verbaut :d
 
Ich will ja nicht sagen, dass es den größeren overhead nicht gibt, aber zB. die ca 70% Differenz in dead rising 3 einzig und allein auf den overhead zu schieben klingt nicht plausibel.
 
Garantiert nicht aber es wird auch einen Teil ausmachen. Woran es immer genau liegt wird man wohl nie ohne aufwändige Tests heraus bekommen, aber zum Glück betrifft dieses Problem denke ich nicht die große Masse an Spielern. Sonst hätte AMD da definitiv handeln müssen.

Gut ich finde es trotzdem nicht okay aber wenn man halt alles auf DX12 setzt dann ist es durchaus verständlich. Immerhin können sie jetzt mit "bis zu 100%" mehr Leistung werben und heute - wo niemand mehr auf die Basis der 100% schaut - ist das ein Knallerargument. Es gibt halt zu wenige die bisher verstehen das 100% von 50 weniger ist als 20% von 100 wenn man sich die absoluten Zahlen ansieht ;)

Ich bin jedenfalls froh wenn AMD wieder Konkurrenz wird - nur das senkt dauerhaft die Preise und sorgt für immer neue Technologien am Markt für den Verbraucher.
 
ich fühle mich grade etwas getrollt :fresse:

wie bitte kann deiner meinung nach kein cpu limit vorliegen wenn die fps steigen je potenter die cpu wird?

das du nicht verstehst warum die cpu mit der nvidia karte weniger limitiert zeigt übrigens das du das ganze thema hier nicht verstehst.

Du hattest doch "getrollt", indem du einen Video gezeigt hast, dass null Aussagekraft besitzt, bitte kläre doch einfach den Sachverhalt weiter oben abschließend auf.
Solange ich mit dem besagten FX oder dem i5 4460 keine Nivida GPU getestet habe, kann man auch nichts zu dem höheren Overhead sagen.

Und es ist doch klar, dass hier keinerlei CPU Limit vorliegt, sondern wenn dann eines der API oder eines nicht aufgeräumten Treibers, von CPU Limit zu sprechen ist grotesk.
Ein CPU LImit kann man vielleicht mit synthetischen workloads wie Super PI herbeiführen, aber doch nicht mit Spielen, das siehst du doch alleine schon wenn die GRafikkarte gewechselt wird, oder auch der CPU Hersteller gewechselt wird.

Oder glaubst du ein FX-8350 wird annähernd ausgelastet? Dann müsste er ja schneller als ein i5 4460 sein.

- - - Updated - - -

Lanzelot - ganz ehrlich: Bitte ignoriere dieses Thema doch einfach. Du behauptest es gäbe kein CPU Limit? Sorry aber da widersprechen dir alle guten Fachzeitschriften und alle haben das Thema unter DX11 im CPU Limit schon mal adressiert.

Lies halt mal nach was ich geschrieben habe, das ist alles so richtig, denn wie ja auch hier schon erkannt wurde, handelt es sich keinesfalls um ein CPU Limit.

Was du nicht wahr haben willst ist wie mir scheint, dass es Leute gibt die mit weniger als einem i5 4460 zocken.

Wieso kommst du denn darauf? Das habe ich nicht gesagt, ich habe nur gesagt, dass ein FX 8350 in Relation relativ lahm ist und das kann ja niemand bestreiten.

Leute die einfach nen alten CPU haben und nur die GPU umgesteckt haben um aktuellere Spiele in reduzierten Details zu spielen und um eben diese Leute geht es hier und nicht den Hardwareenthusiasten, welcher schon seit dem i7 920 nichts anderes mehr verbaut hat und jeden als Noob bezeichnet der ne AMD APU hat ...

Ich dachte hier geht es um eine nüchterne Betrachtung der Fakten und nicht um irgendwelche Schuldzuweisungen?

Ihr müsst einfach mal ein bißchen ruhiger werden.

Das sagst gerade du, der mir anrät das Thema zu ignorieren, ohne zu kapieren was hinter meiner Aussage gesteckt hat.
Das trägt sicherlich nicht zu einer ruhigen Diskussion bei.

es geht um eine langsame CPU in Verbindung mit einer AMD Karte unter DX11 und da bricht die Performance einfach viel weiter ein als sie sollte.

Und dafür werden immer wieder polnische und russische Seiten herangezogen? Wieso nicht einfach mal eine langsame CPU einsetzen, mit einer gleichschnellen AMD und Nvidia GPU bestücken und danach 15 bis 20 Spiele in einer niedrigen Auflösung testen und nicht Rosinen oder Kirschen herauszupicken, denn die findet man bei Nvidia ebenso, da braucht man nur die letzten zwei Wochen anschauen.

"Nvidias Problematik" im GPU Limit, oder CPU Limit, da gibt es mindesten genausoviele Beispiele, aber die werden gekonnt ignoriert.









Ich will ja nicht sagen, dass es den größeren overhead nicht gibt, aber zB. die ca 70% Differenz in dead rising 3 einzig und allein auf den overhead zu schieben klingt nicht plausibel.

Natürlich ist das absoluter Blödsinn.
 
Zuletzt bearbeitet:
... Was du nicht wahr haben willst ist wie mir scheint, dass es Leute gibt die mit weniger als einem i5 4460 zocken. Leute die einfach nen alten CPU haben und nur die GPU umgesteckt haben um aktuellere Spiele in reduzierten Details zu spielen und um eben diese Leute geht es hier und nicht den Hardwareenthusiasten, welcher schon seit dem i7 920 nichts anderes mehr verbaut hat und jeden als Noob bezeichnet der ne AMD APU hat ...

Es gibt einfach Games, die ohnehin, abgesehen mal vom CPU-Overhead-Thema bei AMD, die volle CPU-Power benötigen. Wenn man dann noch eine AMD Karte hat, die künstlich nochmal einiges an CPU-Power reserviert/nutzt/verschwendet (wie man es ausdrücken mag) kommt es auch bei einem 4690K @ 4,5Ghz zu Problemen, die mit einer gleichpreisigen Karte von nVidia eben unter DX11 nicht entstehen.

Siehe auch den Post von nightwatch:

Naja, wenn wie in meinem Beispiel ein Ivy i5 schon 4,4GHz braucht um in RotTR nicht unter 45 min-fps zu fallen ist das schon eklatant. Mit nv-Karten reicht da offensichtlich weit weniger CPU-Power, da sollte das annähernd für konstante 60 reichen, zumindest hab ich von niemandem mit einer Kombi ab i5 und performanter nv-Karte ala 780 aufwärts gelesen wo das größere Probleme machen würde.

Ich hatte vor meiner GTX 970 eine R9 290. Ich spiele relativ viel BF4 und hatte auch eigentlich nur für dieses Game einen 4790K gekauft, der glücklicherweise auch 4,8Ghz macht. Und ich sage es nochmal deutlich: selbst bei DIESE CPU, die weiß Gott nicht die Hardware der breiten Masse representiert, laufe ich dort ab und an ins CPU Limit, was bei meiner R9 290 viel stärker "bestraft" wurde. die Min-FPS sind beim Wechsel von R9 290 auf GTX 970 gefühlt um 30 FPS gestiegen in Extremsituatioen. (64 Slot Server, Explosionen etc.)

Und jetzt sag nochmal einer, dass es nur um die CPUs vom Kaliber Pentium G, Phenom 2 X4 oder oder oder geht. Nein, es fängt schon beim i7 an ;) Wie stark es sich da auswirkt ist eine andere Sache.

Es betrifft wohl die 144Hz Spieler deutlich schlimmer als die 60Hz Spieler. Nur um das nochmal zu verdeutlichen!
 
Zuletzt bearbeitet:
Richtig, genau darum geht es. Ich bin mir sicher, würd ich mir ne 960 ins Board stopfen und bei ebenfalls niedrigen Settings testen (so wie ich es auch mit meiner 7950 gemacht habe, GPU langweilt sich bei 50%, CPU rödelt bei über 90% -> 45fps) wären die 60fps kein Problem. Vielleicht krieg ichs doch noch in den Kopp, aber für das eine Spiel jetzt noch nen Sidegrade lohnt sich einfach nicht, das ist rausgeschmissenes Geld.
 
Und bei Rise of the Tombraider ist es kein CPU Limit, sondern wenn überhaupt ein Softwarelimit, bezüglich Drawcalls, ähnlich wie in Fallout und daher eher ein Softwareproblem der Spieleentwickler als denn ein AMD Problem.
 
Und bei Rise of the Tombraider ist es kein CPU Limit, sondern wenn überhaupt ein Softwarelimit, bezüglich Drawcalls, ähnlich wie in Fallout und daher eher ein Softwareproblem der Spieleentwickler als denn ein AMD Problem.

Das ist aber auch wieder eine Sache, die die Ursache vllt nicht bei AMD hat, dennoch aber das Resultat gegen AMD spricht. Wichtig ist eben, was beim Endverbraucher auf dem Bildschirm ankommt. Dass schlechte Engines oft auch dazu beitragen steht außer Frage.
 
So damit hat sich Lanzelot in 43 Beiträgen gleich ein ignore eingehandelt.

Komisch das du in den Posts nach mir - welche ebenfalls von CPU Limit sprechen - nicht widersprichst und sie ankreidest ... nein du gehst nur gegenüber mir in den Angriff. Vermuten lässt sich also das du nur ein weiterer gebannter bist der unter Pseudonym wieder auftaucht. Hallo Tanuki oder Ratstropfen ... konnten ja beide wunderbar in Scheiben zitieren und den Ausgangspunkt vollkommen auseinanderdiskutieren bis nichts mehr passte.

Schön das wir uns einig sind das es hier mit AMD Karten in Verbindung mit langsamer CPU und DX11 zu Problemen kommen kann. Um mehr geht es hier auch gar nicht ;) wir wollen ja mal nicht technische Grundkenntnisse einfach wegdiskutieren.
 
Es ist eben doch ein CPU-Limit, auch wenn dieses nicht durch die eigentliche grundsätzliche Leistungsfähigkeit der CPU an sich ausgelöst wird, sondern eben durch die Software. Genau diese zu hohen Drawcalls sind ja offensichtlich das Problem, was eben auch immer als Treiberoverhead bezeichnet wird. Der ist nunmal eben bei AMD+DX11 höher, darum geht es ja hier - und das ist doch auch genau der auslösende Grund für die Entwicklung von damals Mantle und jetzt Vulkan und DX12 gewesen. Der overhead ist ja auch bei nv vorhanden, nur eben weitaus weniger stark.
 
Wieso nicht einfach mal eine langsame CPU einsetzen, mit einer gleichschnellen AMD und Nvidia GPU bestücken und danach 15 bis 20 Spiele in einer niedrigen Auflösung testen

auch ich bitte darum auf seite eins schon.

Meine Bitte an Hardwareluxx, Computerbase, PCGH und wie ihr euch alle nennt: testet aktuelle Grafikkarten bitte nicht nur auf übertakteten i7, sondern auch mal auf einer CPU die deutlich massentauglicher ist, wie z.B. einem i3, i5, FX6300 oder 8350.
Wenn ihr CPU Benchmarks in Spielen veröffentlicht bitte auf beiden Plattformen, Rot und Grün.



die großen redaktionen sind dafür scheinbar zu bequem, du allerdings doch auch?

bestellt doch einfach so eine gtx970 (nach ner woche schickst du sie zurück), schalte bei deinem i7 2 kerne ab, untertakte das ding auf 3ghz, vergleiche dann mit deiner 390 in 15-20 spielen und schreibe dazu ein schönes review.

ist natürlich aufwändig, und auch deutlich aufwändiger als die ganze geschichte hier als hexenwerk abzutun und die russen und polen als inkompetent zu betiteln.
 
Zuletzt bearbeitet:
Das ist aber auch wieder eine Sache, die die Ursache vllt nicht bei AMD hat, dennoch aber das Resultat gegen AMD spricht. Wichtig ist eben, was beim Endverbraucher auf dem Bildschirm ankommt. Dass schlechte Engines oft auch dazu beitragen steht außer Frage.

Da kann ich nur zustimmen und schau dir auch einmal den aktuellen Marktanteil an, der spielt dort sicherlich auch eine Rolle. ;)
Hätten wir die hier diskutierte teilweise auftretenden Softwarelimits auch bei einem 50:50 Marktanteil? Ich denke nein.
In den Jahren zuvor wurde das Thema eigentlich nie diskutiert oder? JEdenfalls hab ich davon nie gehört.

Ich hab damals eine GTX 480 gekauft und hatte mich da näher informiert, hatte davon nichts gehört.
 
auch ich bitte darum auf seite eins schon.





die großen redaktionen sind dafür scheinbar zu bequem, du allerdings doch auch?

bestellt doch einfach so eine gtx970 (nach ner woche schickst du sie zurück), schalte bei deinem i7 2 kerne ab, untertakte das ding auf 3ghz, vergleiche dann mit deiner 390 in 15-20 spielen und schreibe dazu ein schönes review.

ist natürlich aufwändig, und auch deutlich aufwändiger als die ganze geschichte hier als hexenwerk abzutun und die russen und polen als inkompetent zu betiteln.

Ich würde mich dazu sogar bereit erklären, wobei ich es nciht gut finde, die Karte dann anschließend zurück zu schicken. Ich würde eher vorschalgen, jemand leiht mir seine R9 390 oder besucht mich damit in Hannover :) Ich könnte nur eine R9 290 testten, die könnte ich mir von einem Bekannten leihen. Würde das denn representativ genug sein für einen Vergleich? Wie weit mögen R9 290 und 390 auseinander liegen? GPU-Takt könnte man ja anpassen. Ist eben noch der größere VRAM da, der bei 1080p aber keinen Unterschied macht, oder?
 
Zuletzt bearbeitet:
In den Jahren zuvor wurde das Thema eigentlich nie diskutiert oder? JEdenfalls hab ich davon nie gehört.

das liegt unter anderem daran, das es diese, teils beachtlichen, unterschiede auch garnicht gab bevor amd angefangen hat sich mit mantle zu beschäftigen.

bis dahin waren rot und grün im cpu limit unter dx11 immer ziemlich ähnlich, durch mantle hat man nvidia quasi dazu gezwungen irgendwie was zu unternehmen.
(steht allerdings auch schon auf seite 1..)
 
Zuletzt bearbeitet:
So damit hat sich Lanzelot in 43 Beiträgen gleich ein ignore eingehandelt.
Komisch das du in den Posts nach mir - welche ebenfalls von CPU Limit sprechen - nicht widersprichst und sie ankreidest ... nein du gehst nur gegenüber mir in den Angriff.

Wo soll ich dich denn angegriffen haben? Du hattest mich oben angegriffen und hattest gesagt ich solle mich aus der Diskussion raushalten, denn ich habe keine Ahnung.
Belege bitte ein CPU Limit und wenn du das getan hast, dann kannst du weiter diskutieren. Bisher ist es ein Softwarelimit und das liegt vorrangig bei den Spieleentwicklern, bei Directx11 und sicher auch etwas am AMD Treiber.

Vermuten lässt sich also das du nur ein weiterer gebannter bist der unter Pseudonym wieder auftaucht. Hallo Tanuki oder Ratstropfen ... konnten ja beide wunderbar in Scheiben zitieren und den Ausgangspunkt vollkommen auseinanderdiskutieren bis nichts mehr passte.

Sind dann nightwatch, unl34shed, why_me und meine Persönlichkeit die nicht eurer Definition von CPU Limit entsprechen, alles gebannte?
Wieso gehst du nicht einfach auf die Argumente ein und musst mich persönlich angreifen, mit solch blödsinnigen Unterstellungen?

even.de hat ja offenbar sehr gut verstanden was ich gemeint hab.

Schön das wir uns einig sind das es hier mit AMD Karten in Verbindung mit langsamer CPU und DX11 zu Problemen kommen kann.

Kann es bei Nvidiakarten genauso, das ist der Knackpunkt der hier verschwiegen wird.;)

Schau dir zu der Thematik mal XCOM Leistungswerte und Leistungswerte von Black OPS III an, sowie die schwache Leistung in Directx12 Titeln, sowie nach eurer Definition im GPU Limit.
Es gibt immer zwei Seiten der Medaille, hier wird immer nur eine aufgeführt und sich dann echauffiert und wer dagegen etwas sagt, der wird persönlich angegriffen, deswegen wurde der Thread im übrigen geschlossen.

sTOrM41 schrieb:
ist natürlich aufwändig, und auch deutlich aufwändiger als die ganze geschichte hier als hexenwerk abzutun und die russen und polen als inkompetent zu betiteln.

Das habe ich nicht getan, ich meine nur diese Tests sind auf russisch und polnisch.
Wenn man nicht gerade deren Sprache spricht sollte es schwer sein, eindeutige Ergebnisse abzuleiten, denn oftmals steht auch im Fließtext relevantes zum Test, oder siehst du das etwas anders?

das liegt unter anderem daran, das es diese, teils gewalltigen unterschiede, auch garnicht gab bevor amd angefangen hat sich mit mantle zu beschäftigen.

bis dahin waren rot und grün im cpu limit unter dx11 immer ziemlich ähnlich, durch mantle hat man nvidia quasi dazu gezwungen irgendwie was zu unternehmen.

Na dann gebührt AMD ja der Dank, dass wir uns damit bald nicht mehr rumschlagen müssen, das ist ja optimal, dann kann der Thread ja auch zu. ;)
 
Zuletzt bearbeitet:
Ich würde mich dazu sogar bereit erklären

fände ich super!

ob 290 oder 390 ist dabei ziemlich egal, in einer kleinen auflösung wirst du die 4gb ram vermutlich sowie nicht voll kriegen (und wenn doch, dann einfach minimal die textursettings reduzieren).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh