AMD und die bescheidene Performance im DX11 CPU Limit

Wenn es das wäre hätte ich ja genauso viele Bilder pro Sekunde.
Gibt es denn eine Möglichkeit da etwas zu verbessern? Tweaken`? Was übertakten oder so?
Meine Karte hat 274 Euro gekostet und seine gebraucht nur 170.:hwluxx:

Ich dachte schon dass die schneller ist wegen 14nm und Directx12 usw.. aber Arma hat ja kein Directx12.
Wird nicht alles in Directx12 ausgeführt sobald Windows 10 installiert ist?
Übertakten bringt schon was, wenn du alle Power Limit findest und raus nehmen kannst.
ICh würde zuerst mal mit ProcessLasso anfangen und den Gaming Mode auswählen, da siehst dann ziemlich schnell die Unzulänglichkeiten der einseitigen Programmierung.


P.S. WDDM 2.1 oder Mantle, danke fürs Angebot aber ich bleibe bei Mantle. :xmas:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn es das wäre hätte ich ja genauso viele Bilder pro Sekunde.
Gibt es denn eine Möglichkeit da etwas zu verbessern? Tweaken`? Was übertakten oder so?
Meine Karte hat 274 Euro gekostet und seine gebraucht nur 170.:hwluxx:

Ich dachte schon dass die schneller ist wegen 14nm und Directx12 usw.. aber Arma hat ja kein Directx12.
Wird nicht alles in Directx12 ausgeführt sobald Windows 10 installiert ist?

RX480 <-> 970 :fresse2:

Du deine Karte ist schneller, du musst halt nur die richtigen Spiele spielen, oder ganz einfach warten ... der Gecko wird es dir erklären ;)
 
RX470 müsste sogar etwas langsamer sein als GTX970.

Kommt immer auf das Spiel an. Wenn mehr als 4 GB Speicher abgefragt werden, in Vulkan und DX12 (gut umgesetzt) wird die RX470 8 GB Vorteile haben.
 
ich find dieses ständige Hinweisen auf Eventualitäten so dröge und müßig ...
dieses Runterbrechen auf ne weit weniger verbreitete API, womöglich noch mit nur einem (oder 2) Ausnahmespiel(en).
"AMDs DX11-Schwäche - ja, ne, wart ma, gibt ja noch DX12 - und da ganz besonders bei Spiel XY - insbesondere, wenn async - und noch krasser sieht mans in dem einen Level am Anfang, wenn man nach rechts guckt"
vielleicht fliegt die Karte auch weiter, wenn man sie wirft, weil sie leichter ist ...
 
ich find dieses ständige Hinweisen auf Eventualitäten so dröge und müßig ...
dieses Runterbrechen auf ne weit weniger verbreitete API, womöglich noch mit nur einem (oder 2) Ausnahmespiel(en).
"AMDs DX11-Schwäche - ja, ne, wart ma, gibt ja noch DX12 - und da ganz besonders bei Spiel XY - insbesondere, wenn async - und noch krasser sieht mans in dem einen Level am Anfang, wenn man nach rechts guckt"
vielleicht fliegt die Karte auch weiter, wenn man sie wirft, weil sie leichter ist ...

Wobei man aber auch sagen muss, dass das DX11 Thema bei AMD exakt auch durch diese Eventualitäten massiv beeinflusst wird. Eben weil es in Level xyz bei einem Spiel namens ABC in Szene 123 unter Bedinung so und so diesen und welchen Wert abliefert...
Ich stimme allerdings definitiv zu, die bekannten und oftmals einfach verblendeten Leute hier sind recht nervig mit ihrer inakzeptanz bzgl. des allgemeinen Themas.
 
"....verblendeten Leute hier...."

Das ist leider sehr bedenklich von einem Moderator :eek::confused:
 
seh ich genau andersrum, bzw kommt mir meistens so vor.
sobald es auch nur ansatzweise nach einer der beiden Einstellungen riecht, is es schon daneben ...
 
Wenn man Pro-NVIDIA ist, dann ist es OK.
Wenn man Pro-AMD ist, dann ist man verblendet...

Ganz im Gegenteil... Aber du bestätigst schlicht und ergreifend einfach, dass du zu dieser Sorte Leute gehörst...
Warum? Weil du das Thema nicht akzeptieren kannst. Wer sprach was von pro AMD oder pro NV?? -> hat doch hier überhaupt nix zu suchen.
 
Ich hab jetzt die rx470 8GB gegen eine 780 Ti meines Bruders getauscht und wenn ein Titel kommt der AMD besser liegt, kann ich sie wieder umbauen.
Gleich mal eben deutlich mehr FPS in Arma III und Fallout 4, kommt dann der Directx12 Kracher endlich baue ich wieder um.
Problem gelöst.:shot:

Genau das ist etwas worauf ich schon lange hinaus will. Durch den DX11 overhead ist es leider so, dass ein gesamtrating leider 0 Aussagekraft hat. Es muss ja nur ein Spiel dabei sein, dass mit 100 fps bei AMD und 200fps bei nvidia läuft.

Hey ich hab die Gesamtraings jetzt durch von mehreren Seiten um rx470 und 780 Ti zu vergleichen für Arma usw..
Und die messen da nichts mit 100 oder 200 FPS.??
Wenn das ein Overhead bei AMD Karten sein soll dann geht der runter bis 15 FPS. Ich hab Einbrüche bis 15 FPS bei Arma III Altis und mit der 780 Ti läufts jetzt bei minimum 30 FPS. Also Top! Und endlich spielbar.

Eigentlich läuft irgendwie alles ein bisschen besser. ARK Survival auch und The Forest wenn gekämpft wird.
Call of Duty läuft aber langsamer aber das spiel ich zur Zeit nicht.
 
Zuletzt bearbeitet:
Muss mann sich den schon wieder anfeinden? Ist heute kein Respekt mehr möglich?
 
wie wärs mal mit Back to Topic?
DX11, AMD, CPU-Limit, min fps, drops, etc. ...

- - - Updated - - -

Ich hab jetzt die rx470 8GB gegen eine 780 Ti meines Bruders getauscht und wenn ein Titel kommt der AMD besser liegt, kann ich sie wieder umbauen.
Gleich mal eben deutlich mehr FPS in Arma III und Fallout 4, kommt dann der Directx12 Kracher endlich baue ich wieder um.
Problem gelöst.:shot:



Hey ich hab die Gesamtraings jetzt durch von mehreren Seiten um rx470 und 780 Ti zu vergleichen für Arma usw..
Und die messen da nichts mit 100 oder 200 FPS.??
Wenn das ein Overhead bei AMD Karten sein soll dann geht der runter bis 15 FPS. Ich hab Einbrüche bis 15 FPS bei Arma III Altis und mit der 780 Ti läufts jetzt bei minimum 30 FPS. Also Top! Und endlich spielbar.

Eigentlich läuft irgendwie alles ein bisschen besser. ARK Survival auch und The Forest wenn gekämpft wird.
Call of Duty läuft aber langsamer aber das spiel ich zur Zeit nicht.

was ich so richtig gut finden würde, würdest du mal mit je der 470 und der 780Ti benchen.
zB die genannten Tital, ArmA III, ARK, The Forest, CoD.
bitte, mach ma :d
 
Eigentlich könnte man das jetzt 1:1 auf dich anwenden!
Zu welcher Sorte Leute soll ich denn gehören?
Zu denen, die meinen das Problem wäre bei AMD nicht vorhanden? Oder zu denen, die meinen das Problem wäre bei NV nicht vorhanden?

Kleiner Tipp am Rande -> beide Hersteller haben das Problem, bei AMD ist es nur etwas ausgeprägter -> und genau darum dreht sich das Thema hier!

Und mal eine kindische Unterstellung!
Ich akzeptiere die Wahrheit, aber darum geht es dir ja nicht...

Um welche Wahrheit reden wir denn?
Um deine? -> damit kann ich nix anfragen...

Es gibt hier genügend Messungen welche mehr oder weniger eine Vergleichbarkeit zulassen... DAS ist schlicht so zu akzeptieren. Auch von dir.
Wenn du das nicht schaffst, bleib einfach dem Thema fern und gut ist. Kann doch nicht so schwer sein...
 
Es ist so und fertig - da gibts nix zu diskutieren. So wie fdsonne es gesagt hat - durfte ich vor kurzem ja selbst feststellen...

Und dennoch ist meine Rentnerin erstmal wieder drin - dafür bin ich nen Mensch, sprich man darf auch mal irrational sein.

Aber bitte objektiv sein... nVidia läuft @dx11 besser was minfps angeht und fertig. (Und je nach Titel ist das beinahe beschämend - gerade mit ner Lowendcpu merkt man es richtig krass wie stark AMD da hinterher hängt... Oder besser hinkt...)

gesendet von unterwegs
 
wie wärs mal mit Back to Topic?
DX11, AMD, CPU-Limit, min fps, drops, etc. ...

Gerne...

Habe meinen FX 8350 gegen einen i7 3970X getauscht, läuft bei 4,3 GHz. Skyrim Enderal (wobei das DX9 ist) und Assassin's Creed 3 laufen immer noch mies, zwar besser als vorher (bei Enderal machen eig. nur noch Bäume Probleme), aber zumindest AC:3 ist meilenweit von Ultra @ 60 FPS entfernt, was ich mit meiner GTX 660 und dem FX damals ohne Probleme geschafft habe. Aber aus dem FX und einer alten 580 GTX habe ich noch eine Kiste gebastelt, da teste ich die Tage mal, wie gut AC:3 läuft.

Was hat es denn eigentlich mit dem 16.9.1 auf sich? Scheint, als sollte ich den mal dringend ausprobieren. :angel:
 
Ich hab jetzt die rx470 8GB gegen eine 780 Ti meines Bruders getauscht und wenn ein Titel kommt der AMD besser liegt, kann ich sie wieder umbauen.
Gleich mal eben deutlich mehr FPS in Arma III und Fallout 4, kommt dann der Directx12 Kracher endlich baue ich wieder um.
Problem gelöst.:shot:



Hey ich hab die Gesamtraings jetzt durch von mehreren Seiten um rx470 und 780 Ti zu vergleichen für Arma usw..
Und die messen da nichts mit 100 oder 200 FPS.??
Wenn das ein Overhead bei AMD Karten sein soll dann geht der runter bis 15 FPS. Ich hab Einbrüche bis 15 FPS bei Arma III Altis und mit der 780 Ti läufts jetzt bei minimum 30 FPS. Also Top! Und endlich spielbar.

Eigentlich läuft irgendwie alles ein bisschen besser. ARK Survival auch und The Forest wenn gekämpft wird.
Call of Duty läuft aber langsamer aber das spiel ich zur Zeit nicht.
In Altis hatte ich mit der 7970 nach nem Serverrestart mindestens 45fps, teils deutlich mehr, gegen Ende der Session teils nur 20, weil der Server am Limit lief. Mit der 1070 ists das gleiche Spiel. Altis kann man gar nicht wirklich bewerten, da viel zu viele unbekannte Parameter das Ergebnis beeinflussen
Gleiches Thema Assetto Corsa.

Mit AMD bei über 16 Gegnern im Multiplayer Framedrop auf 50, CPU limitiert. Dachte das wird mit NVIDIA besser, nichts ist, es dropt weiter auf 50fps. Bei DX 9 Titeln wie Raceroom ist das CPU Limit aber deutlich geringer da sind teils doppelte Frameraten drin
Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
Was hat es denn eigentlich mit dem 16.9.1 auf sich? Scheint, als sollte ich den mal dringend ausprobieren. :angel:

Angeblich soll der den DX11 Overhead etwas mindern. Leider gibts dafür (außer ein paar 3dMark Runs) noch keine Belege...
Deshalb sind Tester, die das ausprobieren gerne gesehen.

Ich hab keine AMD Graka und kanns deshalb nicht testen ;)
 
Beim 16.9.1 hatte ich Pech, hat mein Windows 10 verhauen musste es zurück setzen, sprich alle Programme deinstalliert (gut da waren auch noch welche von Windows 7 dabei)
Zudem fehlte die Mantle API, so lang mein CrossfireX mit Mantle besser läuft als mit DX11 werde ich nicht auf WDDM 2.1 umsteigen.
Bin nun wieder bei 16.7.3 WHQL.

Das Software Ökosystem zu überarbeiten ist einfach mit Aufwand verbunden, da kann ich verstehen wenn viele einfach die Hardware Aufrüsten wenn es mal Ruckeln sollte.

Bisher bin ich davor verschont geblieben, auch die berühmten µ-Ruckler sind mit Mantle wie gebügelt!
 
Keine Ahnung warum mann immer auf der Fury rumhackt. Die ist immerhin das technisch interessanteste Produkt was der Grafikkartenmarkt in den letzten 10 Jahren zu bieten hatte. Klar die 4 GB sind zurecht zuwenig und auch in meinen Augen ein k.O. Kriterium. Habe ich doch selbst vor Jahren bereits auf die Konsolen hingewiesen. Jedoch ist die HW technisch spannender als jeder Intel QuadCore mit HT in der 100ten Neuauflage und man wird wenigstens mal dem Enthusiast-Markt gerecht. Sowas gibts selbst Monate später bei Nvidia ausschließlich im Enterprise Markt mit *Preis auf Anfrage*. Zumal die GTX980 auch nicht mehr als 4GB hat.

Aber egal, das lustig an der Geschichte ist eigentlich, dass man der Fury immer (zu recht) ankreidet, dass sie zuwenig Speicher hat und dabei das gesamte Nvidia Portfolio gekonnt ausblendet. Obwohl es doch bekannt ist, dass dies techisch mit HBM1 nicht anders umsetzbar war.

Ich habe hier diverse Links von Computerbase gepostet. Da kann jeder nachlesen (falls die Erinnerung schwindet), welche AMD Karte welcher Nvidia Karte preislich gegenübergestellt war. Gerne wird immer Topmodell vs Topmodell verglichen, auch innerhalb verschiedenener Leistungsklassen, aber das ist nicht korrekt. Und die Fury dürfte eine der wenigen Ausnahmen sein, wo man mal weniger Speicher erhält als bei Nvidia.

GTX560Ti (1GB) vs 6950 (2GB)
GTX570 (1,2GB) vs 6970 (2GB)
GTX670 (2GB) vs 7970 (3GB)
GTX780 (3GB) vs 290 (4GB)
GTX970 (3,5GB) vs 390 (8GB)

Ist der Speicherausbau und Leistung identisch war die AMD Karte preiswerter. zB:
7870 (2GB) vs GTX660Ti (2GB +25% Preis)

Ähnlich sieht es bei aktuellen Karten aus (lieferbar, only Customs).

GTX470 (4GB) 199€
GTX1060 (3GB) 201€
GTX480 (4GB) 225€
GTX470 (8GB) 239€
GTX480 (8GB) 260€
GTX1060 (6GB) 265€

Die AMD Karten haben/hatten also immer ein besseres Preis/Leistungsverhältnis bereits ab Kauf sofern die Verfügbarkeit gegeben und die Preise sich eingependelt haben. Und mit immer weiter steigender GPU-Leistung und weiterhin stagnierender Singlethread-Leistung bei den CPUs kam sogar noch der DX11-Treiberoverhead dazu, welcher sich auf die Performance auswirkte und somit auf den anzusetzenden Preis.

Und nocheinmal:
a) entweder der DX11 Overhead exisitert nicht und die AMD Karten werden zu jeder Zeit voll ausgelastet, oder...
b) die Karten haben nicht nur zum Release ein bessere P/L-Verhälntis sondern steigern dieses ganz automatisch.

und was hat das Preis-/Leistungsverhältnis mit dem thread-Titel zu tun??????????????????????
Was soll das denn für eine Logik darstellen - ist genauso als würde ich mich vor den Ozean stellen und sagen entweder ist er a)rot oder b) gelb :fresse2:
Falsch! Das ist eine mathematische Abhängigkeit, welche jeder Depp versteht. Hängt die Graka in irgend einem CPU-Limit wird mit Entfernung diesem die Leistung automatisch besser. Durch steigende Anforderungen (zB durch neuere Spiele) rutscht die Graka automatisch weiter in ein GPU-Limit! Einer der Gründe weshalb AMD Karten mit zunehmendem alter eben besser dastehen.

Und ich scheine hier echt einen wunden Punkt erwischt zu haben. Warum kann man nicht mal akzeptieren, dass man bei Nvidia nun mal ein schlechteres P/L-Verhältnis hat? Überrascht das ernsthaft wen bei 80% Marktanteil? Selbst wenn die Karten die Hälfte kosten würden, würden wohl die meisten Fanboys das abstreiten...

Gibt ja genügend Deppen mit einem Faildozer, welcher von jedem i3 überrundet wird.
Wer AMD GPUs für DX11 kauft, kauft immer 2. Wahl. Nur Hardcore Fanboys reden sich die Welt rot.

Das ist quatsch und absolutes Schubladen-Denken. Die Hersteller bieten alles bis weit über 1000€ bei CPUs und GPUs. Im absoluten High-End haben intel und Nvidia aktuell eine Monopolstellung. Schaut man sich aber im Kokurenzbereich um sieht es schon ganz anders aus.

Lediglich AMD CPU + AMD GPU ist absolut nicht zu empfehlen. AMD CPU und Nvidia GPU kann durchaus sinn machen wenn man extrem auf die Kosten achten muss. Einen fx6300 gibt für 80€. Da startet noch kein i3. Wer an der CPU sparen und vom Nvidia Treiber profitieren möchte für den ist das durchaus eine Möglichkeit zum sparen im absoluten low-Budget-Bereich.

Bei Intel CPU + AMD GPU kann man eben auf der GPU-Seite sparen.

Ich streite nicht das DX11 CPU Limt ab, da selbst ich mit einem 5960x@4,5Ghz davon betroffen bin, aber man muss den Ball auch mal flach halten. Miese Software gab es immer schon. Auch schön zu sehen, dass es mit Nvidia teilweise eben auch nicht besser läuft. Ich habe auch uralte 2D Games welche selbst mit einem Haswell@4,5Ghz in ein API/CPU Limit kurzzeitig laufen. Und auch Nvidia ist davon nicht frei. Computerbase testet immer auch mit einem 2500k im CPU-Limit. Wer ProjektCars als Lieblingsspiel hat und 200fps anpeil wird vermutlich mit einer Nvidia glücklicher. Ob der Bulldozer das packt? Vermutlich nicht. Der i3? kann gut sein.

Eigentlich hatte ich ja mal vor den neuen Treiber schön mit untertakter CPU im CPU-Limit zu testen, aber bei einer solchen Ignoranz muss ich mich fragen wofür? Für Nvidia User? Für Bulldozer-User? Warum sollte ich meine Zeit dafür opfern? Um am Ende angeflammt zu werden? Nö Danke! Hier geht es den Leute mit Nvidia Karten ausschließlich daraum zu bashen. Man ist garnicht interessiert an einer Lösung oder Verbesserung. Ich wünsche noch viel Spaß dabei.
 
Zuletzt bearbeitet:
Angeblich soll der den DX11 Overhead etwas mindern. Leider gibts dafür (außer ein paar 3dMark Runs) noch keine Belege...
Deshalb sind Tester, die das ausprobieren gerne gesehen.

Dann wird AC:3 genau das richtige Spiel sein, um das zu testen. GTA wohl auch, aber dann müsste ich meinen i7 auch runtertakten, da limitiert der Overhead seit dem Wechsel weg vom FX wenigstens nicht mehr. Zum Wochenende nehme ich mich der Sache mal an.
 
@G3cko
Im Grunde hat die DX11 API ein "drawcall" Limit, wer sich daran hält wird kein Overhead bekommen aber hat entsprechend auch weniger Details auf dem Schirm.
Wenn man mehr drawcalls programmiert als die API zulässt dann kommt sowas wie DX11 Overhead bei rum.

Warum nun mehr drawcalls bei DX11 programmiert werden liegt wohl daran, weil nvidia ein Weg gefunden hat dies zu Umgehen.
Leider wurde ich bisher nur mit nackten Zahlen konfrontiert eher selten konnte man die Bildqualität mal vergleichen.

Meist reicht schon ein Prolo verhalten, dann weiß ich bescheid.

Wenn jemand 200FPS haben möchte, dann Bitte aber auch mit 200Hz Monitor, sonst wäre es ein schlechtes Bild zur Darstellungs Verhältnis.
 
Zuletzt bearbeitet:
Aber egal, das lustig an der Geschichte ist eigentlich, dass man der Fury immer (zu recht) ankreidet, dass sie zuwenig Speicher hat und dabei das gesamte Nvidia Portfolio gekonnt ausblendet. Obwohl es doch bekannt ist, dass dies techisch mit HBM1 nicht anders umsetzbar war.
Warum sollte man eine höchst selbst angelegte technische Fußfessen (in dem Fall HBMv1 mit maximal 4GB) in Schutz nehmen, wenn es keinen wirklich erkennbaren technischen Grund dafür gibt/gab? Andere Hardware schafft mehr Leistung bei weniger Bandbreitenbedarf und dazu noch Energieeffizienter bei zusätzlich mehr Speicher. (auf Games bezogen -> und die Furys sind ganz klar Gamerkarten)
Warum siehst du eigentlich überall die böse AMD/NV Verschwörung? Kann man nicht einfach nüchtern über Sachen diskutieren die einem schmecken oder eben nicht?
Die Fury hat 4GB, das ist für das Ding effektiv zu wenig und gut ist... Nix mit in Schutz nehmen der technischen Nachteile -> denn die interessieren den Endkunden doch ganz und gar nicht...

Ist der Speicherausbau und Leistung identisch war die AMD Karte preiswerter. zB:
7870 (2GB) vs GTX660Ti (2GB +25% Preis)

Auch nach dem x. Wiederholen wird deine Aussage nicht richtiger...
Um dir nochmal ein Beispiel zu bringen woran es krankt, keine der von dir genannten AMD Modelle hat(te) bspw. die Möglichkeit auf Downsampling in 2x2. ALLE der von dir genannten NV Karten konnten dies hingegen, idR ab Release an...
-> du blendest also wesentliche Bestandteile, die in eine P/L Diskusion einfließen schlicht und einfach aus, pickst dir ne Rosine ala VRAM raus und haust dann irgend so ne "AMD ist pauschal günstiger mit besserem P/L" Parole raus... Was soll der Unsinn?

Warum kann man nicht mal akzeptieren, dass man bei Nvidia nun mal ein schlechteres P/L-Verhältnis hat?
Normal, P/L ungleich FPS pro Euro!!
Lesen, drüber nachdenken, verstehen... -> und aufhören solchen Unsinn abzulassen...
Denn Karten, die KEINE Leistung liefern, können kein P/L Verhältnis haben. Das geht in BEIDE Richtungen. NV kann kein TrueAudio, NV kann kein FreeSync usw.
Definiere doch einfach mal, was Leistung ist. Ganz sicher deckt sich MEIN Bedarf an Leistung nicht mit deinem. Denn mir reicht(e) das über lange Jahre hinweg nicht, was AMD im Angebot hatte. Egal ob das Zeug nun xxx€ billiger angeboten wird/wurde oder nicht. Es deckte den Bedarf nicht und verlor damit JEGLICHE!!! P/L Ratings, die ich als Endkunde VOR dem Kauf abwege.

Anderen Teilnehmern der Diskusion geht das sicher ähnlich. Und dir ganz bestimmt ebenso... Nur das hier sogut wie Keiner seinen Bedarf an Leistung und seine Definition von Leistung pauschal auf ALLE Anderen anwendet...


Noch dazu ist das hier im Thread völlig OT. Nur so nebenbei!

Warum nun mehr drawcalls bei DX11 programmiert werden liegt wohl daran, weil nvidia ein Weg gefunden hat dies zu Umgehen.
Leider wurde ich bisher nur mit nackten Zahlen konfrontiert eher selten konnte man die Bildqualität mal vergleichen.

Der Vergleich anhand von Bildqualität dürfte sich sehr schwierig gestalten...
Einfach aus dem Grund, DrawCalls kann man nicht sehen. Die Bildqualität hingegen unterliegt der eigenen Subjektivität. Ein Bild mit xxx tausend notwendigen DrawCalls kann ziemlich mistig aussehen ggü. einem, was nur ein paar hundert DrawCalls notwendig hat, wenn letzteres einem subjektiv mehr zusagt.

Eigentlich sind die nakten Zahlen, die man da vergleicht noch das beste Mittel um ohne Subjektivität für Vergleiche zu sorgen...


Ansonsten, die Anzahl der notwendigen DrawCalls in heutigen Titeln ist eher historisch bedingt durch die Konsolen immer weiter gewachsen. Das liegt daran, dass in den Konsolen, selbst als DX11 noch kein Thema war, deutlich mehr DrawCalls möglich waren (bspw. PS3 und XBox360) ggü. einem damaligen (teils auch heutigen) PC. Man hat also versucht, das Problem auf dem PC zu umschiffen... Irgendwann kommt aber der Punkt, andem das Problem immer stärker zum Tragen kommt.

Bei PCGH stand mal ein Interview in einem Artikel (ich meine es war von den Crytek Entwicklern), die beschrieben, dass selbst der G80 mit der Cryengine 2 (Crysis) und den damaligen Umsetzungen in Sachen Treiber auf HighEnd CPU Modellen so seine Probleme hatte. Das "Problem" selbst ist also lange schon bekannt... Nicht nur bei den Entwicklern, sondern auch bei den Herstellern.
 
Zuletzt bearbeitet:
Und ich scheine hier echt einen wunden Punkt erwischt zu haben. Warum kann man nicht mal akzeptieren, dass man bei Nvidia nun mal ein schlechteres P/L-Verhältnis hat? Überrascht das ernsthaft wen bei 80% Marktanteil? Selbst wenn die Karten die Hälfte kosten würden, würden wohl die meisten Fanboys das abstreiten...



.

Jeder Mensch gewichtet differente Teilaspekte eines Produktes unterschiedlich so das mitnichten einzig der Preis entsprechend der Leistungsklasse über das P/L Verhältnis entscheidet. Ich bin mit jedem Wechsel der Gpu zufällig ins andere Lager gewechselt, Schubladendenken ist non existend für mich. Die 7970 war eine super Karte deren Kauf ich nicht bereut habe, auch die Treiber waren grundsätzlich kein Problem, teilweise sogar besser als die aktuellen von NVIDIA bei welchen mich die Surroundkonfiguration massiv nervt, da sich die Screens dauernd verschieben usw. Aber ich kann auch sagen das die Amd Performance abseits des Mainstream Gaming's teilweise unterirdisch schlecht ist. Rfactor 2 z. B lief mit der 7970 2.5 Jahre gut auf 30% der Leistung einer 680 Gtx. Einzig ein Treiber 12.11 Beta samt Cap 11 wirkte Wunder und steigerte die Leistung ums doppelte. Mit jedem neuen Treiber war das jedoch wieder Geschichte, die Verbesserung reiner Zufall. Dabei langweilte sich die Gpu und hing im CPU Limit. Schlussendlich habe ich eine Petition im Rfactor 2 Forum gestartet nachdem ich die Beobachtungen geteilt habe da ich es leid war 2 Windows Installationen zu nutzen nur um den alten Treiber für ein Spiel nutzen zu können und im April 2014 kurz bevor ich eine 780ti kaufen wollte, wurden die Gebete seitens AMD erhört und endlich war das Spiel gut nutzbar. Aus 22 wurden plötzlich mehr als 60 fps. Also teilweise ist man bei NVIDIA wirklich deutlich besser aufgehoben, besonders wenn man nicht die Triple A Games nutzt, da helfen die 50 Euro Kaufpreisersparnis auch nicht weiter wenn man dann 70% Performance einbüßt. Von daher muss es jeder ganz individuell für sich entscheiden. Mein PC läuft teils auch 10 Stunden täglich im Triple Einsatz, der deutlich höhere Verbrauch der 7970 hat dabei auch genervt denn das belief sich auf gut 50 Euro im Jahr, die Karte war 4 Jahre im Einsatz. Ich habe mir mittels der IGpu beholfen, jedoch konnte man dann wiederum Open Cl in den entsprechenden Programmen nicht nutzen, da sich beide Grafiktreiber in die Quere kamen.


Gesendet von meinem SM-G920F mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh