AMD und die bescheidene Performance im DX11 CPU Limit

als schrott würde ich den FX nun nicht bezeichnen, sehr wohl aber als suboptimal.

eigentlich macht der FX (zumindestens die großen 8er) gar nicht so sehr viel anders als die hauseigenen gpus.. in der theorie relativ viel leistung.. die aber eben auch erstmal abgerufen werden muss..

Ich kann denen nur noch so bezeichnen, sooft wie der ins Trotteln geht. Trotz super Kühlung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann solltest du mal prüfen, ob dein Kühler richtig sitzt.
Bei meinem Kumpel throttelt da gar nichts, trotz deutlich kleinerem Kühler.

Verstehe auch nicht, warum man sich für den FX überhaupt noch so nen großen Kühler kauft ^^ Die 70 Euro hättest du auch sparen können und in eine anständige Intel-Platform stecken können :d

Der Kühler ist ja fast mehr wert als die CPU :lol:
 
Zuletzt bearbeitet:
Sagt mal Leute, dass die 1070 prozentual viel mehr Leistung verliert mit ner mäßigen CPU ist doch vollkommen klar.
Die ist ohne Limit ja auch viel schneller als 1060 & 480. Das die dann mehr einbricht hat doch nix mit Treiber-Overhead zu tun.
Wenn man jetzt ein Core 2 E8300 auf GTA 5 loslässt und der nur X Bilder liefern kann, dann kann man auch ne Titan X reinstöpseln und hat vllt 2-3fps mehr. Hat die dann auch mehr Overhead oder was ?! :stupid:
Sowas kann man nur vergleichen zwischen 2 Karten die in der ungefähr gleichen Leistungsklasse liegen. Gibts von AMD für die 1070 nicht, also is das total
sinnbefreit...
 
Dann solltest du mal prüfen, ob dein Kühler richtig sitzt.
Bei meinem Kumpel throttelt da gar nichts, trotz deutlich kleinerem Kühler.

Verstehe auch nicht, warum man sich für den FX überhaupt noch so nen großen Kühler kauft ^^ Die 70 Euro hättest du auch sparen können und in eine anständige Intel-Platform stecken können :d

Der Kühler ist ja fast mehr wert als die CPU [emoji38]

Kühler sitzt richtig. Das 100euro Board könnte der Fehler sein.

Der FX hat ne sehr hohe Abwärme wo man leider nicht mit nen 30 Euro Kühler sehr gut kühlen kann.

Wenn Übertaktung noch dazukommt kommt er noch schneller ins throtteln.

Thema Intel gebe ich dir Recht.
Mag AMD aber dennoch mehr.
 
Zuletzt bearbeitet:
Dann solltest du mal prüfen, ob dein Kühler richtig sitzt.
Bei meinem Kumpel throttelt da gar nichts, trotz deutlich kleinerem Kühler.

Verstehe auch nicht, warum man sich für den FX überhaupt noch so nen großen Kühler kauft ^^ Die 70 Euro hättest du auch sparen können und in eine anständige Intel-Platform stecken können :d

Der Kühler ist ja fast mehr wert als die CPU :lol:

Das liegt nicht am Kühler sondern an den Wandlern von den Asrock Brettern. Mit 4 +1 Phasen kannst du die FX-Prozessoren nicht 100% auslasten, die Bretter riegeln automatisch zum Schutz ab. iWebi hat auf den falschen Unterbau gesetzt oder sich falsch Beraten lassen.

Das Asrock 970 Extreme 3 hatte ich zum Test. Mit einem FX-43xx und einem Phenom II 955 BE lief es noch mit OC ohne Spannungserhöhung. Einen FX-6300 hat es nichtmal bei Standardspannung ohne zu limitieren bei voller Auslastung gepackt. Mit einem Lüfter auf die Wandler konnte das Throtteling einwenig hinausgezögert werden. Einzige Möglichkeit dies zu ändern ist auf ein ordentliches Brett zu setzen. Das Asrock wurde durch ein Gigabyte GA-990FXA-UD3 ersetzt und Throtteling war kein Thema mehr.
 
Zuletzt bearbeitet:
jaydee2k4 schrieb:
Sagt mal Leute, dass die 1070 prozentual viel mehr Leistung verliert mit ner mäßigen CPU ist doch vollkommen klar.
Die ist ohne Limit ja auch viel schneller als 1060 & 480. Das die dann mehr einbricht hat doch nix mit Treiber-Overhead zu tun.
Wenn man jetzt ein Core 2 E8300 auf GTA 5 loslässt und der nur X Bilder liefern kann, dann kann man auch ne Titan X reinstöpseln und hat vllt 2-3fps mehr. Hat die dann auch mehr Overhead oder was ?!
Sowas kann man nur vergleichen zwischen 2 Karten die in der ungefähr gleichen Leistungsklasse liegen. Gibts von AMD für die 1070 nicht, also is das total
sinnbefreit...

Es geht da um den Test von Tomb Raider und Witcher, wo die GTX 1060 im CPU-Limit besser abschneidet als die 1070.
 
Zuletzt bearbeitet:
Mein Kumpel hat irgendein relatives günstiges Gigabyte Board aus 2013. hat damals um die 60 Euro gekostet. Bei ihm throttelt wie gesagt nix.
 
Jedes Board ist nunmal anders. Keine Ahnung ob es nur an den 4+1 Phasen liegt.

Aber vorstellen könnte ich mir das schon. Leider lohnt jetzt kein Neukauf mehr wo AMD Zen vor der Tür steht.
 
Naja, dann bist du mal eben deinem Problem auf die Schliche gekommen nach vermutlich mehr als 2 Jahren :d
 
Naja, dann bist du mal eben deinem Problem auf die Schliche gekommen nach vermutlich mehr als 2 Jahren :d

Naja, nicht wirklich. Hatte schon selber das Mainboard in verdacht. Das FX990 hab ich übrigen mit 8350 von Bruder bekommen. Da ich ihm einen Intel Core i7 6700 finanziert hab.

Ich steig ja jetzt auch bald um, will aber AMD wenigstens noch abwarten und dann in ruhe nach den ganzen Test entscheiden.

Auch wäre es schlau auf die neuen 6/8 Kerner von Intel zu warten den die werden bestimmt wieder was drauflegen an Leistung.
 
Naja, nicht wirklich. Hatte schon selber das Mainboard in verdacht. Das FX990 hab ich übrigen mit 8350 von Bruder bekommen.

Wenn du ein System als zweit System weiter nutzen möchtest, würde ich hier im Marktplatz stöbern und ein gutes Board günstig ausprobieren. 8+2 Phasen sollte es haben und ebenfalls für die FX-9xxxx ausgelegt sein.
 
Zuletzt bearbeitet:
Wenn du ein System als zweit System weiter nutzen möchtest, würde ich hier im Marktplatz stöbern und ein gutes Board günstig ausprobieren. 8+2 Phasen sollte es haben und ebenfalls für die FX-9xxxx ausgelegt sein.
Das werde ich wahrscheinlich auch so machen.

Welches wäre da besonders zu empfehlen?
 
Die Gigabyte Boards haben fast alle 10 Phasen.
 
Asus Crosshair IV mit Beta BIOS (laufen alle fx dann drauf) und das V. Hab beide noch hier :wink:

Da läuft auch ein 8350 @ 4,7 nicht in die Spannungswandler Problematik. :bigok:

AsRock ist was das angeht bei den FX Boards echt Müll. Leider auch mal selbst drauf rein gefallen vor Jahren, mit dem selben wie du ;)

Vom Smarty gesendet, Autokorrektur Fehler werden später behoben.
 
Asus Crosshair IV mit Beta BIOS (laufen alle fx dann drauf) und das V. Hab beide noch hier :wink:

Da läuft auch ein 8350 @ 4,7 nicht in die Spannungswandler Problematik. :bigok:

AsRock ist was das angeht bei den FX Boards echt Müll. Leider auch mal selbst drauf rein gefallen vor Jahren, mit dem selben wie du ;)

Vom Smarty gesendet, Autokorrektur Fehler werden später behoben.
Auch das ASRock was auch 200 Euro kostet?

ASUS will ich wegen schlechten Support nicht unbedingt.
 
Auch das ASRock was auch 200 Euro kostet?

ASUS will ich wegen schlechten Support nicht unbedingt.

Langzeiterfahrungen habe ich keine mit AM3+ Boards der Hersteller. Gebraucht hast du oft keine Garantie. Ich würde mir nicht zu viele Gedanken machen.
 
Nee das 200er nicht.

Asus und schlechter Support...
Der beste Support ist der an man nicht braucht und zumindest mit Asus Boards brauchte ich den noch nie.

Und wenn ich im Monitor Thread lese (144hz/ips) ist der Support alles andere als schlecht so oft wie da die Monitore getauscht werden.

Vom Smarty gesendet, Autokorrektur Fehler werden später behoben.
 
Asrock kann man auch vergessen vom Service her. Da wartet man locker 8-12 Wochen auf Ersatz.

Gesendet von meinem GT-I9300 mit Tapatalk
 
Da lag der Fehler aber nicht bei ASRock... Mal dem Händler auf die Finger geschaut... Auch bei denen geht fdas normal viel schneller.
 
Nabend,

wollte mal kurz nen Erfahrungsbericht da lassen. Nachdem Vega, auf den ich eigentlich gewartet hatte, immer noch dauert, hab ich mir gestern erstmal eine Gainward 1060 6GB besorgt. Hauptsächlich um nun endlich mal GTA5 zu beenden, Witcher 3 mit vernünftigen Grafiksettings durchzocken zu können und ich bin momentan noch recht viel in WoW auf der Piste.

Vorher war ich immer noch mit einer 7950 @1180/1400 unterwegs.

Da ich Tearing hasse wie die Pest, ist das Ziel immer 60fps/60Hz +vsync +triplebuffering. In allen Games also die Grafiksettings immer so gewählt dass die GPU maximal zu 80-90% ausgelastet ist. In GTA5 hatte ich mit der 7950 in der Stadt im Verkehr teils doch noch fps drops auf 50-55 (klar CPU Limit da die GPU Auslastung in diesen Momenten immer noch weiter runter ging). Nun, trotz sonst unverändertem System zu vorher (3570K @4GHz, 8GB DDR3-1333) mit der 1060 ist es etwas besser - praktisch keine drops mehr, maximal runter auf 57-58fps. Also doch einiges an Besserung.

Witcher 3 war CPU-technisch eigentlich noch nie großartig problematisch, allein in Novigrad eventuell. Da ich aber nochmal neu angefangen hatte, hab ich noch keinen Spielstand so weit. Bin da grad erst aus dem Startgebiet raus - mal abwarten.

Den größten Sprung hat wohl WoW gemacht, da gings in Sturmwind am AH rund um den Brunnen wenn viele Leute rumstanden doch arg in die Knie - teilweise nur 40fps und ein Kern der CPU am Anschlag. Auch an einigen anderen Stellen (Flug von Sturmwind nach Dunkelhain, oder kurz bevor man in der Garnison ankommt von Ashran aus) ist das wesentlich besser - praktisch immer 60fps nun. Auch gestern abend im Raid (Smaragdgrüner Alptraum) hatte ich praktisch keine Drops, auch wenn viel gecastet wurde.
Aber das ist ja eh bekannt dass WoW auf nV Karten besser läuft.

Werde mich die Tage nochmal dran machen und Rise Of The Tomb Raider testen - das war auch eins meiner Sorgenkinder und an einigen Stellen extremst CPU limitiert mit 100% auf allen 4 Kernen(!) und massiven Einbrüchen. Allerdings hab ich das schon länger nicht mehr gedaddelt und da kamen dann doch noch so einige Patches zwischendurch, so daß ein 1:1 Vergleich zu früher nicht mehr so richtig möglich sein wird.
Kann aber nach dem Updaten evtl trotzdem mal vergleichen (alte Karte einbauen, hab ich ja noch hier). Mal sehen, ob ich am WE Lust und Zeit habe.

Ansonsten schöne Karte die 1060, in WoW langweilt die sich bei 754-911MHz rum, Lüfter geht nicht aus dem idle (800rpm) und selten über 40°C... :d Und ich brauch die nicht wie die 7950 auf einen festen Takt nageln, da hatte es sonst beim rumtakten ab und zu leicht geruckelt.

Wär jetzt nur noch ein Vergleich der 1060 zur RX480 interessant, da AMD da ja schon etwas verbessert haben soll - was ich aber mangels vorhandener Karte momentan nicht ausprobieren kann in wie weit da Unterschiede zur alten 7950 bestehen.

Zusammenfassend ist die 1060 als Übergangskarte für mich erstmal ein Gewinn. Die CPU Limits sind doch nicht ganz so arg, und die Mehrleistung ggü der 7950 reicht für deutlich höhere GPU Settings in den Games die ich noch vom "Pile of Shame" schubsen muss.
 
pcgh hat grade player unknowns battlegrounds gebenched.

ein überraschend erfolgreiches dx11 early access spiel mit dauerhaft hoher cpu-last.

dort zeigt sich leider das man die probleme im cpu limit leider wohl immer noch nicht vollständig im griff hat..

"allerdings haben diese Partikeleffekte offenbar einen recht kräftigen Einfluss auf die Performance - insbesondere Radeon-GPUs brechen beim Erstellen eines solchen Effekts (beispielsweise bei der Explosion einer Rauchgranate) kurzfristig kräftig ein. Offenbar aufgrund der hohen Prozessorlast."
Playerunknown's Battlegrounds im Test - Benchmarks der Early-Access-Version

bin gespannt ob man noch explizite benchmarks im cpu limit mit roter und grüner graka liefert, diese gibt es nach wie vor leider aber nur seltenst.
 
Ich gehe mal stark davon aus das sich PUB ähnlich den bisherigen UE4 games verhält , sprich es gibt relativ früh nen starkes Singelthread limit , Kannidaten wo man das auch gut beobachten kann sind Ark und Squad z.B.
Von daher währe hier nen 7700K mit Taktnachschlag die bessere Wahl. Obs wirklich so ist lässt sich Aufgrund von fehlenden Daten seitens PCGH nicht erkennen würde mich aber wundern wenn sich UE4 diesmal anders verhält.
 
Eigentlich hat Nvidia den höheren Treiber Overhead, das was du als Treiber Overhead bezeichnest ist eher dem Hardwarescheduler geschuldet, Nvidia nutzt einen Softwarescheduler,beide haben Vor und Nachteile wie man in DX11/DX12 etc. sieht.

AMD vs NV Drivers: A Brief History and Understanding Scheduling CPU Overhead - YouTube
Vega and the Compute Conundrum: Past Present Perspective - YouTube
Vega: Of Primitives Pixels. A Look at the GCN Revolution. - YouTube

Hier wird alles sehr ausführlich aber verständlich erklärt.
 
Eigentlich hat Nvidia den höheren Treiber Overhead, das was du als Treiber Overhead bezeichnest ist eher dem Hardwarescheduler geschuldet, Nvidia nutzt einen Softwarescheduler,beide haben Vor und Nachteile wie man in DX11/DX12 etc. sieht.

Mit wem sprichst du?
Es spricht Keiner der Beiträge über dir auf dieser Seite von "Overhead"... Nur so nebenbei.
Die UE4 fängt recht früh an auf einem Thread zu limitieren. Kannst du selbst austesten, wenn du dich mal damit beschäftigst. Ist weiterhin frei zum Download inkl. Sourcecode... Das wird dir bspw. auch in deinem ersten Link erklärt (Folie: optimal game coding for AMD GPUs) -> denn genau DAS macht die UE4 so nicht ;)

dort zeigt sich leider das man die probleme im cpu limit leider wohl immer noch nicht vollständig im griff hat..

Neja, so wirklich schlecht läuft das nun nicht... Bspw. kein Vergleich zu Ark seinerzeit :fresse:
Möglicherweise ist aber auch einfach was ganz anderes schuld, denn: "Hinzu kommen einige nette Partikeleffekte, etwa Feuer und Rauch - diese reagieren außerdem auf Wind und Wetter, so blasen Böen Rauchfahnen umher." klingt für mich eher nach Physikengine respektive Limit durch Berechnungen der Physik.
Auch dafür spricht: "... prinzipiell ist das Performance-Bild aber relativ ähnlich, wenn die Leistung einbricht, tut sie dies mit einer Geforce - jedoch etwas weniger stark als mit einer Radeon.". Das schaut nach einem generellen "Problem" aus oder wenigstens nach einem Umstand, der immer auftritt.
 
pcgh hat grade player unknowns battlegrounds gebenched.

ein überraschend erfolgreiches dx11 early access spiel mit dauerhaft hoher cpu-last.

dort zeigt sich leider das man die probleme im cpu limit leider wohl immer noch nicht vollständig im griff hat..

"allerdings haben diese Partikeleffekte offenbar einen recht kräftigen Einfluss auf die Performance - insbesondere Radeon-GPUs brechen beim Erstellen eines solchen Effekts (beispielsweise bei der Explosion einer Rauchgranate) kurzfristig kräftig ein. Offenbar aufgrund der hohen Prozessorlast."
Playerunknown's Battlegrounds im Test - Benchmarks der Early-Access-Version

bin gespannt ob man noch explizite benchmarks im cpu limit mit roter und grüner graka liefert, diese gibt es nach wie vor leider aber nur seltenst.

Das ist glaub ich einfach falsch geschlussfolgert. Die werden einfach auf NV entwickeln und erst vor Release auch auf AMD optimieren, das wird der ganze Witz sein.
 
die russen geben sich seit neustem noch mehr mühe und testen diverse grafikkarten gleichzeitig mit diversen cpus, dabei kommen überaus interessante ergebnisse bei rumm.

dizcl11ba9a9hloxe.jpg
dizclrqp0jwvsrgxe.jpg

Prey те�т GPU/CPU | Action / FPS / TPS | Те�т GPU

wärend die furyx in kombination mit dem fx6300 weniger fps produziert als die 970,
produziert die furyx in kombination mit dem schnelleren 1800x aufeinmal deutlich mehr.
 
Zuletzt bearbeitet:
Einmal CPU Limit, einmal Gpu Limit. Was ist da jetzt so interessant?

Gesendet von meinem GT-I9300 mit Tapatalk
 
Genau das worum es in diesem thread geht: das unterschiedliche Verhalten der GPUs im CPU Limit.

Gesendet von meinem SM-G930F mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh