AMD und die bescheidene Performance im DX11 CPU Limit

Kommt doch mal zurück zum Thema, die VRAM-Diskussion gehört hier nicht rein.

Ich finde LDNVs Argumentation durchaus schlüssig, eventuell bemerkt g3ckos Bekannter mit seinem Q9550 Framedrops weniger stark. Manche sind schon mit 30 FPS glücklich, andere brauchen eben durchgehend 60 FPS und mehr. Und wenn dann der Treiber die CPU ins Brechlimit holt und es dadurch zu Stottern kommt, kann man das durchaus ankreiden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gecko

Ich finde (bei richtiger google Suche) nix dazu das Mantle der Ursprung von DX12 sein soll :xmas:

Muhahah - ich wusste das der "Mirror's Edge Catalyst: Techniktest des hübschen, technisch holprigen Parkour-Speicherfressers [Test der Woche]" bench zu VRAM Diskussion kommt, den postest du auch alle Nase lang - gib zu den hast du mit den 3,5GB Schummeleien Link fest als Favorit in deinem Browser, um bei passender Gelegenheit wie aus der Pistole in deine Beiträge einbinden kannst :bigok:

Nein, die VRAM Diskussion gehört nicht in dieses Thema -->

Aber ich hab aber auch ein paar Beispiele von nicht genutzter Hardware. Ich hab beim Kauf meines IvyBridge System direkt in 16GB Ram investiert (2012 - weil er sehr günstig war) gebraucht habe ich es bisher nicht. Ich war Besitzer erster Stunde eines Q6600 der mächtig übertaktet wurde und der mir echt Jahrelang gereicht hat, so richtig profitiert vom Quadcore habe ich erst mit BF3, da war er allerdings schon wieder zu schwach meine GTX580 zu befeuern da er in den großen Multiplayermaps zu viel zu tun hatte, da hab ich dann den Ivy geholt der mir - bis heute - ausreichende Dienste liefert.

DX11 ist Stand jetzt noch das Mass aller Dinge, die Zukunft wird zeigen ob sich das ändert - deine Argumentation des Zwangs von Dice auf 64Bit ist sehr schön!
Welches Spiel meinst du konkret - BF3/4 schon mal nicht, da gab es immer einen 32Bit Patch ;)

Hardline? OK, das ist jetzt ein Jahr alt und sicherlich ist 64Bit heutzutage Standard ....7 Jahre nach Einführung von Windows 7 (2009!) und damit die Verbreitung eines 64Bit System für die Massen kann man es akzeptieren - DX12 System Windows 10, gibt es jetzt nicht mal ein Jahr ... wobei der nutzen von DX12 weit geringer ist als seinerzeit der eines 64Bit OS ;)

Wenn man dx12 puschen will dann muss man schon einen Titel haben der einen zum Umstieg zwingt - BF1 wäre so etwas, wo ich sagen würde OK - ich hoffe es natürlich nicht wirklich.
 
Klingt mich dann mal aus dem Thread aus..völlig sinnlos hier.

Aus der Grind Thematik ist abermals VS geworden und dann geht's mal wieder um den Speicher der 970.

Also echt Leute ...
 
ich finds auch echt mehr als müßig in nahezu jedem thread auf die selben Themen zu treffen. tut mir auch leid, wenn ich teilweise aufs OT eingehe ... :(
 
Auch vergesse ich eben nicht gleich alles:
- (2008) DX10.1 Marktmanipulation (TWIMTBP)
- (2012) falsches DX11.1 level, mehre Monate im Verkauf ohne klare Aussage
- (2014) effektiv nutzbarer VRAM der GTX970, mehre Monate im Verkauf ohne klare Aussage
- (2015-heute) Maxwell + Asynchronous Shader, mehre Monate im Verkauf ohne klare Aussage
- (heute) Andere Effekte mit geringerer Last für höhere Performance unter DX12 Titeln.

Außerdem wie passt denn zusammen, dass ich AMD CPUs komplett nieder mache (was ich bereits auch beim Release tat) aber AMD GPUs nicht? Müsste ich als Fanboy nicht das gesamte Portfolio huldigen?

Siehst du und genau mit solchem Unsinn disqualifizierst du dich für eine sachliche Diskusion...
Was hat das Bitte mit dem Thema zu tun? Nichts... Gar nichts.
Hier gehts um Performace im CPU Limit in DX11 Titeln. Nicht mehr und nicht weniger... Wenn du da für eine sachliche Diskusion irgendwelchen Unsinn (den du dazu noch schön selektiv pro AMD rausgepickt hast -> oder wo sind die AMD Ausrutscher der Vergangenheit? Ich sag mal bspw. Barts AF Filter?) ranziehst um damit weis der Teufel was zu begründen, hast du irgendwie das Thema reichlich verfehlt.

Entweder du nimmst dich dem Thema an und sprichst über die Gegebenheiten oder du lässt es einfach. Kein Mensch brauch hier AMD oder NV Propaganda, wie du es gern bringst. Wen interessiert hier im Thread das VRAM Thema der 970er? Wen interessiert hier irgendwelches ASync Compute Zeug?

Das ist genau der Punkt... Bleibt doch einfach mal nüchtern beim Thema. Für den ganzen Senf nebenbei gibts genügend Threads um sich auszulassen. Aber muss das überall sein?

ob das Verbreiten solcher Gerüchte sachlich ist, bezweifle ich. er formuliert sich sachlich, aber das wars dann schon.

Wenn es denn wenigstens konsequent so wäre...
Erst kommt die Behauptung, dann kommt von irgendwem die Widerlegung und schon im zweiten Anlauf kommt die Fanboy Keule... Sachlich? Ja schön wäre es wenn...

Im Grunde macht dieser Thread hier gar kein Sinn mehr.
Da schon alles gesagt wurde, alles angeführt und ausdiskutiert wurde, und das Problem nachweislich vorhanden ist.

Dank immer mehr aufkommenden DX12 Titeln wird das Problem sich ohnehin von alleine in Wohlgefallen auflösen.

Neja, es komme ja immer neue Titel auf dem Markt. Und es gibt, wie du hier klar festststellen kannst, immer auch Leute, die nach wie vor glauben, das Thema wäre nicht gegeben...
Ich würde auch behaupten, mit DX12 ändert sich nur kurzzeitig an der Thematik etwas. Warum? Weil nach dem ersten Ruck von ein paar Monaten oder Jahren der Spaß genau so wieder an der CPU klammern wird... Die CPU Leistung ist mehr oder weniger endlich. Wir gehen aktuell primär in die Breite... Aber das hilft nicht zwingend den Spielen.

Wenn man mal in die Vergangenheit schaut, viele der damaligen Titel sind heute im DrawCall Limit, weil die CPU Leistung pro Thread nicht wirklich stark gestiegen ist.
Seit einem Crysis 1 bspw. hat sich die pro Thread Performance vielleicht im Schnitt ca. verdoppelt. Die GPU Leistung ist aber weit mehr als um Faktor 2 gestiegen. Eher um Faktor 10.
Wenn also heute ein Spiel kommt, was dank/durch DX12, Vulcan oder ähnliches eine heutige Mainstream CPU gut ansprechen kann und dies auch ausnutzt (hier fehlt es idR noch), dann hast du das gleiche Probleme wie mit DX11 in ein paar Jahren bei dem Titel.

Die Schwierigkeit hier im Thread ist dazu, avg. Balkendiagramme sind recht ungeeignet für einen sinnvollen Vergleich. Wenn dort ein großer Ausschlag zu sehen ist, ist das Problem schon wirklich sehr akut.
Zumeist sind es einzelne Stellen, wo die Leistung dropt, messen die Redaktionen diese Stellen nun gerade NICHT nach, sieht man das auch nicht.

Vielleicht müsste man den Titel generell mal umbenennen... Denn auch bei NV deckelt es da ja heute von Zeit zu Zeit. Vor allem dort, wo bei AMD die Skalierung nach lässt, wirds bei NV teils ebenso schon "schwer".
Weiter oben wurden bspw. ein paar Tomb Raider Szenen dargelegt. Wenn ich mit zwei 780TIs gut und gerne doppelt so viele FPS mit dem 4,2GHz Oktacore habe als sTOrM41 mit nem stock? Nehalem Hexacore und der 970er, obwohl in beiden Szenen die GPU(s) nicht annähernd auf 99% liefen, spricht das schon Bände...
Selbes konnte man früher auch schon mit anderen Titeln beobachten. Bspw. Crysis 1, da hatte ich Szenenweise beim Wechselm von 3,4GHz Core2Quad auf 4,5GHz Sandy 2600K annähernd doppelte FPS trotz gleicher GPU... Oder Gothic 3 mit massiv erhöhter Sichtweite. (das packt auch der Haswell-E nicht in UHD :fresse:)

Allerdings kann man dann einfach nur Abwinken, wenn Leute hier behaupten, mit einem 2500k würde das alles gut laufen.
Meist weis man ja gar nicht, dass es deckelt, wenn man nicht gesehen hat, dass es auch (deutlich) schneller geht...
 
Zuletzt bearbeitet:
Kein Mensch brauch hier AMD oder NV Propaganda, wie du es gern bringst.

Ist der ganze Thread denn nicht genau das?
Einen richtigen Beleg, dass es am Treiber liegt gibt es doch immer noch nicht. Kann auch an fehlender Optimierung liegen, etc.
 
Gibt auch keinen Beleg, das Nvidia absichtlich Karten älterer Generationen durch den Treiber verlangsamt. Wird aber von einigen Leuten trotzdem permanent und Felsenfest behauptet.
Wenns bei Amd an der fehlenden Optimierung des Treibers liegen sollte, könnte man dann nicht auch behaupten, sie würden bewußt die Karten durch den Treiber Leistungsmäßig einschränken? Also das, was hier permantent dem "bösen" Konkurenten vorgeworfen wird?
 
Zuletzt bearbeitet:
Ist der ganze Thread denn nicht genau das?
Einen richtigen Beleg, dass es am Treiber liegt gibt es doch immer noch nicht. Kann auch an fehlender Optimierung liegen, etc.

Aus meiner Sicht nicht... Denn es geht doch gerade darum, dass sich die Leute darüber austauschen?
Ob es am Treiber liegt oder an (fehlenden) Optimierungen?
Für mich primär nicht entscheidend... Der Umstand ist doch das, was am Ende beim Endkunden ankommt, das Warum ist doch nur "nice to know"... Kaufen kann man sich davon doch aber nix? Und ändern kannste es auch nicht...

Allerdings glaube ich schon, dass es ein Stück weit (oder vielleicht auch primär) am Treiber liegt, denn es finden sich nun mittlerweile doch ein paar Äußerungen seitens AMD und NV, dass die DrawCall Performance durch Treiberoptimierungen erhöht werden kann -> und dies auch getätigt wurde. Wenn man sich mit den DrawCalls beschäftigt, finden sich auch Äußerungen seitens der Entwickler von Spielen, welche diese Problematik schon zu DX9 Zeiten diskutiert haben/hatten... Auch ist es mittlerweile bekannt, dass (bspw. durch im Hintergrund laufende Software) die DrawCall Anzahl auswertbar ist -> komischerweise decken sich dort die höchsten Werte fast wie Arsch auf Eimer mit den höchsten Problemen bei der Entfaltung der GPU Performance.
Ob das für dich nun als "Beleg" für den Umstand durchgeht? Musst du selbst entscheiden ;)
 
Danke fdsonne für die beiden Beiträge. Wie immer sehr lesenswert.

Ja das avg Thema sprach ich ja auch unter anderem mit an.

Das Problem ist halt das man von vielen Leuten automatisch in irgendeine ecke gepfercht wird ohne das diese auf die Hintergründe achten würden.

Ich für mein teil kann nur sagen das ich alle configs durch habe und somit eine fundierte eigene Aussage treffen kann.

Nicht nur weil ich ein paar benches gemacht hätte, sondern weil ich viele viele titel Stunden lang sowohl mit :

Fx 8320e @ 4,3 samt gtx 970 wie auch 390 und auch mit dem i7 3770 @ 4,3 mit beiden Karten gespielt habe.

Über die Sinnhaftigkeit sprachen wir schon. Hobby/ Interesse.

Es ist nur müssig immer gegen die gleichen Wände anzurennen bei leuten die entweder dinge nicht wahrhaben wollen und es nicht selbst getestet haben oder es komplett über dramatisieren.

Da kämpfst gegen alle Lager und Schubladen gestecke. Da fragt man sich dann irgendwann... Wofür?

Und wenn gar nichts mehr bringt schweift man eben komplett ab und fängt irgendwelche anderen sinnlos Diskussionen an die hier überhaupt nichts verloren haben.
 
Zuletzt bearbeitet von einem Moderator:
Hm, Rise of the Tomb Raider scheint mit DX11 wirklich im Hardware Limit zu sein (Peaks bis 90% CPU Auslastung während des inGame Benchmark)
Trotzdem spuckt DX12 mit nur einer Karte mehr minimum FPS aus bei Scene #2 und #3, bei #1 ist DX11 Crossfire besser:

DX11: http://abload.de/img/rottr_2016_06_19_13_5jgb7z.jpg
DX12: http://abload.de/img/rottr_2016_06_19_13_541l3h.jpg

Wenn die Spiele Entwickler Multi-GPU Optimierungen übernehmen, dann haben wir weniger Theater mit den Profilen und Treiber. :)
 
Nutzt du eigentlich den aktuellen Treiber?

Hatte eben ein Crossfire 7970 GHz am laufen, und in den wenigen Spielen, die ich getestet habe, ziemliche Probleme.

Bad Company 2, witcher 3: schlimme frametimes, trotz ordentlichen FPS sah es ziemlich rucklig aus (mit vsync aktiv in Ordnung).

Overwatch: Absturz nach wenigen Minuten.

Crysis 1 und 3 allerdings ziemlich optimal im Vergleich (Skalierung, frametimes).

Damit es nicht Offtopic wird: in UHD mit dem Gespann keine Probleme mit dem Overhead (Sandy @ 4,6).
 
Nutzt du eigentlich den aktuellen Treiber?

Hatte eben ein Crossfire 7970 GHz am laufen, und in den wenigen Spielen, die ich getestet habe, ziemliche Probleme.

Bad Company 2, witcher 3: schlimme frametimes, trotz ordentlichen FPS sah es ziemlich rucklig aus (mit vsync aktiv in Ordnung).

Overwatch: Absturz nach wenigen Minuten.

Crysis 1 und 3 allerdings ziemlich optimal im Vergleich (Skalierung, frametimes).

Damit es nicht Offtopic wird: in UHD mit dem Gespann keine Probleme mit dem Overhead (Sandy @ 4,6).
Das System wurde mit Standard Einstellungen und Energieoptionen aktiv getestet.
Nein, ich habe nicht den aktuellsten Beta Treiber drauf, es ist der 16.5.2.1 Beta Crimson (16.200.1010.1002)

Vsync ist aus aber FramePacing ist an. ;)
 
Siehst du und genau mit solchem Unsinn disqualifizierst du dich für eine sachliche Diskusion...
Was hat das Bitte mit dem Thema zu tun? Nichts... Gar nichts.

Dann streiche bitte 85% der Beiträge in diesem Thread, wenn sie das Thema verfehlen und mokiere dich nicht über versäumte Arbeit.
Er wollte damit sagen, dass er Dinge hinterfrägt, bevor er sie undifferenziert herausposaunt.

Hier gehts um Performace im CPU Limit in DX11 Titeln. Nicht mehr und nicht weniger... Wenn du da für eine sachliche Diskusion irgendwelchen Unsinn (den du dazu noch schön selektiv pro AMD rausgepickt hast -> oder wo sind die AMD Ausrutscher der Vergangenheit? Ich sag mal bspw. Barts AF Filter?) ranziehst um damit weis der Teufel was zu begründen, hast du irgendwie das Thema reichlich verfehlt.

Und da es nur hierum geht, schreibst du jetzt gleich einen langen Beitrag dazu, anstatt als Moderator hinzuweisen, dass man sich bitte ans Thema halten solle?:rofl:
Es sind die üblichen Grabenkämpfe.

Weder ist das Directx11 Overhead Problem relevant, weder sind die 3,5GB V-ram relevant, noch sind die Mogeleien von Nvidia relevant, noch ist es die höhere Directx12 Leistung bei AMD.
Man hat einfach immer Themen über die man sich streiten kann und das machen die AMD und Nvidia Fans hier vorzüglich.

Mich interessiert das alles nicht und zocke mit meiner 290 und einer lahmen Bulldozer CPU einfach wunderbar.:hail:

- - - Updated - - -

fdsonne schrieb:
Wenn es denn wenigstens konsequent so wäre...
Erst kommt die Behauptung, dann kommt von irgendwem die Widerlegung und schon im zweiten Anlauf kommt die Fanboy Keule... Sachlich? Ja schön wäre es wenn...

Mantle hat die Directx12 Entwicklung sehr stark gepushed und AMD hatte es darauf angelegt das erreichen zu wollen, indem man bei Microsoft den Finger in die Wunde gelegt hat und gesagt hat, es komme kein weiteres Directx mehr auf den Markt.
Die Aussage von G3cko ist durchaus richtig, nebenbei ist Mantle zum Großteil in Vulkan eingeflossen.
AMD hat mit Mantle ergo viel erreicht, auch wenn es selbst nicht dafür gereicht hat, als AMD exclusive API durchzuhalten.
Solch eine Strategie fällt mit den Marktanteilen von AMD.

- - - Updated - - -

Ist der ganze Thread denn nicht genau das?
Einen richtigen Beleg, dass es am Treiber liegt gibt es doch immer noch nicht. Kann auch an fehlender Optimierung liegen, etc.

Einen Beleg kannst du freilich nicht einfordern, denn diesen zu erbringen erfordert mehr Knowhow als das Forum bieten kann, das ist riecht nach einer Strategie des nichts Akzeptierens.
Es gibt durchaus einen höheren SoftwareOverhead bei AMD.
So wie ich das sehe wurde hier aber ganz konkret nach diesem Phänomen gesucht, daher ergibt sich auch eine überreizte Sichtweise.
Ich habe mich zu der Thematik ca 2 Stunden informiert und sehe außerhalb von Forenusern die ab und zu cherrypicked Benchmarks verlinken keinerlei wirklich interessante Quellen die das Thema für mich zu einer Relevanz führen.
Daher finde ich es schon ein wenig absurd, wenn dann User mit diesen BenchmarkSchnipseln in ihren Signaturen vor AMD warnen und mit dem Thema in jeder Kaufberatung herumtrollen.
Das gilt genauso für das 3,5GB Problem der GTX 970 oder deren angeblich zu geringe Directx12 Leistung.

fdsonne schrieb:
Aus meiner Sicht nicht... Denn es geht doch gerade darum, dass sich die Leute darüber austauschen?
Ob es am Treiber liegt oder an (fehlenden) Optimierungen?
Für mich primär nicht entscheidend...

Genauso ist es.
 
Zuletzt bearbeitet:
NV-Propaganda hier? kann man so auslegen, wenn man will.
man kann verdammt viel so auslegen. Mantle, Dx11, DX12, alles kann man zu nem pro oder nem contra drehen. machen wir ja auch ganz emsig.

ich finds Thema relevant, es war anno dazumal der Grund auf NV umzusteigen und das Ergebnis war für mich eindeutig: ich will nicht nochmal so heftige drops haben wie ich sie mit ner AMD-Karte hatte. ich mags möglich maxed out, ich teste vorm Spielen die Grafik-settings im Verhältnis zu den fps und meinem Spielgefühl, da sind mir 3 fps bei den min fps echt wichtig. das mag kleinlich sein, ist es ja auch. ich geb ja auch mehr Geld dafür aus.
 
Ich bezweifel ehrlichgesag massiv mit einer übertakteten core i five CPU irgendwelche relevanten drops in Verbindung mit einer midrange AMD GPU zu haben.
Aber du sagst ja du kaufst aus Prinzip kein AMD, vielleicht liegt es eher daran, als an wirklich real vorliegenden Problemen.
Liegt ein Overhead vor, dann droppen die min FPS eigentlich eher weniger, vielmehr werden die max FPS nach oben gedeckelt.
Ich habe dich darauf schon mehrfach angesprochen und keine Antwort erhalten.
 
Zuletzt bearbeitet:
dass ich aus Prinzip kein AMD kaufe, liegt an genau dem Thema hier (und es sind sehr wohl auch starke drops der min fps, auch mit starken CPUs. siehe LDNVs post) und am Treiber. mittlerweile auch an Leuten wie Schaffe, Ratstropfen, Unleashed, Tanuki, HW-Man, why_me, etc, ... (solange AMD so nen Treiber mit solchen DX11-minfps raushaut, geselle ich mich sicher nicht in die Rige solcher Menschen).
dass ich nicht auf dein Ansprechen reagiere, liegt auch daran, dass ich mit niemanden ernsthaft rede, der mich so stumpf als "dumm" beleidigt, wie du es tust. das ist keine Basis für nen anständige Unterhaltung mit verschiedenen Standpunkten.
ich möchte mich weder mit jemandem "unterhalten", der so schnell beleidigt, noch möchte ich meinen 3570K auf 4,4GHz geknüppelt haben, um dann immer noch mehr oder weniger starke drops zu haben. da setz ich ne NV-Karte dazu und hab was ich will im Rahmen meiner finanziellen Mittel und spielerischen Ansprüche.

und was soll das, obs am Treiber liegt oder an fehlenden Optimierungen?
die Optimierungen fehlen doch beim Treiber. das is ein- und dasselbe.
 
Das ist doch Schwachsinn. Enweder man trifft einen Entscheidung aus guten Gründen heraus oder aus Prinzip. Wenn Du aus Prinzip kein AMD kaufst, dann sind Deine Gründe nur an den Haaren herbeigezogen. Sind Deine angeführten Gründe jedoch der wahre Grund, um auf Nvidia zu setzen, dann ist Dein Gerede von "aus Prinzip kein AMD" nur Gewäsch.
 
Gibt auch keinen Beleg, das Nvidia absichtlich Karten älterer Generationen durch den Treiber verlangsamt. Wird aber von einigen Leuten trotzdem permanent und Felsenfest behauptet.
Wenns bei Amd an der fehlenden Optimierung des Treibers liegen sollte, könnte man dann nicht auch behaupten, sie würden bewußt die Karten durch den Treiber Leistungsmäßig einschränken? Also das, was hier permantent dem "bösen" Konkurenten vorgeworfen wird?

kleiner aber feiner Unterschied:
DX11 Overhead betrifft das gesamte Portfolio. Je schneller die GPU, desto ausgeprägter.
Bei Nvidia betrifft es ausschließlich ältere Generationen.

Außerdem wird nichts langsamer. Lediglich die Optimierungen bleiben aus. Oh Moment, - am Ende auch egal. ;)
 
Das ist doch Schwachsinn. Enweder man trifft einen Entscheidung aus guten Gründen heraus oder aus Prinzip. Wenn Du aus Prinzip kein AMD kaufst, dann sind Deine Gründe nur an den Haaren herbeigezogen. Sind Deine angeführten Gründe jedoch der wahre Grund, um auf Nvidia zu setzen, dann ist Dein Gerede von "aus Prinzip kein AMD" nur Gewäsch.

ich habe mich mit dem "Prinzip" auf Fimbims post bezogen. kannst dich aber dennoch gerne ganz dolle am "Prinzip" festhalten. beiß dich rein! RRRRRRRRRRRRRR
 
du bist mir so´n Prinzipienreiter :P

btw
etwas aus Prinzip nicht kaufen, heißt nicht, dass das auch das Prinzip ist ;)
 
Zuletzt bearbeitet:
dass ich aus Prinzip kein AMD kaufe, liegt an genau dem Thema hier (und es sind sehr wohl auch starke drops der min fps, auch mit starken CPUs. siehe LDNVs post) und am Treiber. mittlerweile auch an Leuten wie Schaffe, Ratstropfen, Unleashed, Tanuki, HW-Man, why_me, etc, ... (solange AMD so nen Treiber mit solchen DX11-minfps raushaut, geselle ich mich sicher nicht in die Rige solcher Menschen).

Nochmal, da du erneut keine Antwort lieferst.
Overhead deckelt vor allem die maximalen FPS, das mit den niedrigeren Minimum FPS stellt die Ausnahme dar und diese Fehlbehauptung triffst du permanent in jeder Kaufberatung.
Da du selbst eine recht schnelle und übertaktete CPU besitzt ist der Overhead zudem ziemliche Makulatur und Kritik auf sehr hohem Niveau, vor allem bei der Leistungsfähigkeit einer GTX 970.
Ich würde soweit gehen und sagen, dass es da völlig Schnuppe ist, vielleicht mag es mit einer langsamen Bulldozer CPU ohne OC wirklich bemerkbar sein, allerdings würde sowieso niemand jemanden dazu raten noch eine Bulldozer CPU zu kaufen.
Mein Paps hat mir einen alten PC geschenkt und ich denke @ 5,1ghz ist das Teil schnell genug.

Der Grund keine AMD zu verbauen, ist also wie gesagt eine Prinzipsentscheidung. Gibt Leute die kaufen Schuhe auch nur von einer Marke, also nix wofür man sich schämen müsste, du solltest aber nicht so tun, als ob das anders wäre.
Man merkt bei deinen Postings recht schnell dass AMD für dich Müll ist, also halte doch die anderen nicht immer zum Narren.

Ich hab mir mal erlaubt deine Beiträge zu durchsuchen und vor dem Overhead waren es andere Gründe AMD nicht zu kaufen, ich nenne beispielsweise ambient occlusion ( Umgebungsverdeckung ).
Auch Kritik auf sehr hohem Niveau.

dass ich nicht auf dein Ansprechen reagiere, liegt auch daran, dass ich mit niemanden ernsthaft rede, der mich so stumpf als "dumm" beleidigt, wie du es tust.

Zuerst lieferst du keine Antwort und beleidigst mich mehrfach und dann wenn ich davon genervt bin und zurückschieße beschwerst du dich darüber.
Oben hast du mehrere Nicks aufgezählt bei denen das wohl genauso läuft, also mal hurtig selbst vor der eigenen Haustüre kehren bevor man andere maßregelt.

ich möchte mich weder mit jemandem "unterhalten", der so schnell beleidigt, noch möchte ich meinen 3570K auf 4,4GHz geknüppelt haben, um dann immer noch mehr oder weniger starke drops zu haben.

Von welchen Drops sprichst du hier und vor allem wieso hast du dann die CPU übertaktet, wenn du doch die GTX 970 verbaut hast?

und was soll das, obs am Treiber liegt oder an fehlenden Optimierungen

AMD ist der kleinere Hersteller und hat einen Marktanteil von 30%, ergo sorgen sich Entwickler mehr um die Performance auf Nvidia Karten.
Fehlende Optimierung ist durchaus auch ein Grund für diesen Overhead.
 
du bist so witzig, ich hab deinen post auch nur angelesen. vor ner Woche oder so haste noch auf "was solln das DX11-CPU-Dingens überhaupt sein?" und jetz willste einem groß was erzählen. und dann noch so viel Arbeit mitm ganzen Rumgequote. keine Ahnung welche Schlussfolgerung du da angestellt hast, is mir echt zu müßig und mir, Gott sei Dank, auch viel zu unwichtig was du "denkst" - hat nicht wirklich was mitm thread-Thema zu tun. persönliche Polemik? und was soll passieren, wenn du mich umstimmst? wird dann dieser thread hier gelöscht und das ganze Thema ausm i-net?

@the Rest:
großes sorry fürs OT!
der hat sich so viel Mühe gemacht mitm Schreiben und dem Zitieren und ich scheine für ihn da irgendwie ne ganz große Ansprechperson zu sein, da konnt ich nich anders.
wollen wir hier weitermachen, das war so ziemlich der letzte post, der wirklich zum thread-Thema beigetragen hat:
Das darf ja durchaus jeder so sehen wie er möchte. Ich bastel und vergleiche halt gerne, und wenn sich solche Gelegenheiten auftun, nehm ich die gerne mit. Ist halt ein Hobby wie die Zockerei auch , oder mein Aquarium, mein Garten etc. ;)

Hab die 390 schon immer für die bessere Karte gehalten und spiele auch sehr gerne mit Mods rum wo dann gerne auch mal 4GB VRam überschwappen. (nein keine 970 3,5 Gate stichelei. In der tat hatte ich damit so gut wie nie ein Problem!)

Die alte Kombi war -> 8320e @ 4,3 GHz & 390. Das ging gar nicht, aus oben genannten Gründen. Ich stehe generell darauf so gut wie immer meine 60 zu haben. Wenn man ein kurzer Drop passiert, geschenkt. Aber das war echt eine Qual die ich mir nicht weiter zumuten wollte - für MEIN Empfinden.

Also wurde sie hier gegen die 970 getauscht was wesentlich besser in dieser Kombination war.

Jetzt hab ich den 3770 @ 4,3 und da bot es sich an wieder auf die 390 zu schwenken wenn sich die Gelegenheit ergibt. Zum einem aus Interesse wie es sich nun verhält mit einer anderen CPU, zum anderen um das mehr an VRam mit zu nehmen :)

Ich lese mich halt nicht nur gerne schlau, sondern teste auch gerne selbst und mach mir mein eigenes Bild :)

Es läuft ja auch alles super, keine Frage. Nur gibt es halt öfter mal ein kurzen Drop unter 60, wo ich anhand der CPU / Graka Auslastung klar sehe woran es liegt ;) die es eben mit der 970 nicht gab. Punkt. Nicht mehr, nicht weniger. :)

Edit:

Darum sagte ich ja, mit einer stärkeren CPU ist das Problem nicht grundsätzlich behoben.
Es fällt nur nicht mehr so oft auf da sich das Limit/Overheat verschiebt quasi.

Edit 2:

Das Problem trifft am meisten ohnehin entweder die mit schwacher CPU oder aber die High FPS Gamer (120+)

Wenn jemand mit 30 FPS zufrieden ist, werden wohl Auflösung / Setting so gewählt das die Graka eh zu 100% der bremsende Faktor ist und die CPU die 30 FPS mit Leichtigkeit stemmt.

Will jemand aber 120 haben, und reduziert entsprechend Auflösung oder Setting oder gar beides, wird er wohl Probleme kriegen da die CPU nicht die Leistung abrufen kann die sie theoretisch könnte.

Oder aber Fall 3, wie ich den hatte, das ich mit dem FX als im vergleich schwächere CPU gepaart mit der 390 schon Probleme bei konstanten 60 habe.

Sind doch aber alles bekannte Erkenntnisse und nichts neues ^^
 
slot108 schrieb:
ich hab deinen post auch nur angelesen. vor ner Woche oder so haste noch auf "was solln das DX11-CPU-Dingens überhaupt sein?" und jetz willste einem groß was erzählen.

Ja das Thema ist trivial und jetzt?
Das gibt doch alles keinen Sinn was du sagst. Du willst keine AMD GPU kaufen und das ist dein gutes Recht, aber es liegt sicherlich nicht an dem Overhead oder an irgendwelchen anderen Dingen, sondern ist deine persönliche Vorliebe.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Als würde das CPU-Limit Nivida Karten nicht betreffen. :lol:
 
Als würde das CPU-Limit Nivida Karten nicht betreffen. :lol:

Du scheinst wohl tatsächlich nicht begriffen zu haben, worum es hier geht?!
Lies dir den Thread nochmal in Ruhe durch, bevor du an der Diskussion teilnimmst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh