HD7970 GPU Auslastung zu niedrig!!! (CPU FX-8350)

Status
Für weitere Antworten geschlossen.
Ne @fdsinne das siehst du zu eindimensional. Ja am besten optimieren lassen sich bekannte Abläufe das ist klar, allerdings gerade Grafikkarten brauchen extrem vorbereitetenden Content damit sie schneller sind.



Gerade für das Problem welches du beschreibst wären die Hersteller der Engines zuständig: ID Software, Dice, usw also Frostbite Engine oder Id Tech 5 und so weiter. Das sind die Hersteller die Multithreaded umsetzen müssten.


Da ist zb Dice relativ weit, Frostbite kann bis zu 6 Kerne in Anspruch nehmen und läuft mit weniger als 4 Kernen auch relativ bescheiden.

Marketing ftw ;)
Laut marketingfolien unterstützt die Engine von BF3 bis zu 12 oder sogar mehr Cores. Aber das bringt Null komma überhaupt nichts... Wenn die Sachen sequentiel aufeinander aufbauen.
Und genau das ist in Spielen schlicht sogut wie immer der Fall, den der Dreh und Angelpunkt bleibt der Spieler, der die Eingabe macht, alles baut auf die Eingabe auf. Nichts kann unabhängig der Eingabe berechnet werden. Somit hängt alles in einer sequenziellen Kette von der Eingabe ab.

Und ich sagte bereits was die Hersteller der Engines tun, um mehr Cores zu belastet. Sie optimieren nicht, sondern packen mehr Belastung nebenbei dran. Das sind Beispielsweise KI Berechnungen, das sind Physikberechnungen usw.

Stell es dir bildlich vor. Das Spiel beginnt und zeigt Bild 1. Du hast genau ein Stück Soundberechnung vorzunehmen, du hast ein Stück KI Berechnung vorzunehmen, du hast ein Stück Physikberechnung vorzunehmen usw.
Sagen wir nun, Sound und KI benötigen jeweils exakt 5 Milisekunden. Die Physikberechnung sagen wir benötigt 20 Milisekunden (weil sehr komplex)
Nur ist das Problem nun, der Thread der Soundberechnung sowie der KI Berechnung ist nach in Summe 5ms fertig, die Physik braucht aber 20. Somit warten die anderen beiden Threads auf ein Stückchen Teilberechnungen. Erst nach 20ms kann Sound, KI sowie Physik zusammen genommen werden und man kann aufbauend auf diesem Ergebnis das Bild zusammen setzen. Denn erst wenn die Kiste weis, was die Spieler macht, weil die Kiste auch, was auf dem Monitor zu sehen sein wird. Also werden diese beispielhaften Berechnungen sequenziel nach Eingabe bearbeitet.

Man sieht wunderschön, wenn nicht alles gleich schnell geht (und das geht es schlicht nicht) wartet die Kiste auf sich selbst... An der Stelle hat der Hersteller nahezu gar keinen Einfluss. Er kann die Berechnung nun entschlacken und somit optimieren, mit dem Nachteil, weniger Effekte. Er kann mehr Berechnungen dran packen um die Leerlauflücken zu füllen usw.
Am Grundproblem ändert sich aber gar nix.
Das beste und effizienteste Ergebnis erzielt man schlicht, wenn jegliche Teilarbeit immer exakt gleich lange braucht. Und das lässt sich in Games aber sogut wie nie erreichen. Im Bildhaften Beispiel besteht beispielsweise ein riesiger Unterschied zwischen der Wartezeit auf den Physikeffekte Thread wenn sich auf dem Bild nichts bewegt wie zum Beispiel, wenn eine Explosion zu sehen ist, wo Partikel durch die gegend fliegen.

Bei strikt statischem Content kann man das übrigens auch beobachten. Beispiel Cinebench. Bei sagen wir 8 Threads kann man schön erkennen, wie manche Threads schneller abgearbeitet werden als andere. Nur wird das Gesamtbild eben soweit zerhackt und kann zeitunabhängig bearbeitet werden, das am Ende dort kein signifikanter Nachteil entsteht.

Und wie ich schon sagte, das ist nur ein Teil der Wahrheit. Ein zweiter Teil sitzt bildlich gesehen erst nach der reinen Spieleberechnung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Intel eine gute Leistung in nahezu allen Engine´s hat, warum sind dann die Hersteller da zuständig ?

Schaut auf die Pro-Kern-Leistung im Cinebench, dass reicht wie groß mittlerweile die Unterschiede sind .....

Marketingopfer FTW.... Erst informieren dann posten.
 
Intel hui AMD Pfui ganz einfach, zumindest was Prozessoren + zocken anbelangt. Weiß garnicht warum jetzt alles rumdiskutieren, jeder weiß das AMD Prozessoeren zum zocken fail sind.
 
Zuletzt bearbeitet:
Marketing ftw ;)
Laut marketingfolien unterstützt die Engine von BF3 bis zu 12 oder sogar mehr Cores. Aber das bringt Null komma überhaupt nichts... Wenn die Sachen sequentiel aufeinander aufbauen.
Und genau das ist in Spielen schlicht sogut wie immer der Fall, den der Dreh und Angelpunkt bleibt der Spieler, der die Eingabe macht, alles baut auf die Eingabe auf. Nichts kann unabhängig der Eingabe berechnet werden. Somit hängt alles in einer sequenziellen Kette von der Eingabe ab.

Und ich sagte bereits was die Hersteller der Engines tun, um mehr Cores zu belastet. Sie optimieren nicht, sondern packen mehr Belastung nebenbei dran. Das sind Beispielsweise KI Berechnungen, das sind Physikberechnungen usw.

Stell es dir bildlich vor. Das Spiel beginnt und zeigt Bild 1. Du hast genau ein Stück Soundberechnung vorzunehmen, du hast ein Stück KI Berechnung vorzunehmen, du hast ein Stück Physikberechnung vorzunehmen usw.
Sagen wir nun, Sound und KI benötigen jeweils exakt 5 Milisekunden. Die Physikberechnung sagen wir benötigt 20 Milisekunden (weil sehr komplex)
Nur ist das Problem nun, der Thread der Soundberechnung sowie der KI Berechnung ist nach in Summe 5ms fertig, die Physik braucht aber 20. Somit warten die anderen beiden Threads auf ein Stückchen Teilberechnungen. Erst nach 20ms kann Sound, KI sowie Physik zusammen genommen werden und man kann aufbauend auf diesem Ergebnis das Bild zusammen setzen. Denn erst wenn die Kiste weis, was die Spieler macht, weil die Kiste auch, was auf dem Monitor zu sehen sein wird. Also werden diese beispielhaften Berechnungen sequenziel nach Eingabe bearbeitet.

Man sieht wunderschön, wenn nicht alles gleich schnell geht (und das geht es schlicht nicht) wartet die Kiste auf sich selbst... An der Stelle hat der Hersteller nahezu gar keinen Einfluss. Er kann die Berechnung nun entschlacken und somit optimieren, mit dem Nachteil, weniger Effekte. Er kann mehr Berechnungen dran packen um die Leerlauflücken zu füllen usw.
Am Grundproblem ändert sich aber gar nix.
Das beste und effizienteste Ergebnis erzielt man schlicht, wenn jegliche Teilarbeit immer exakt gleich lange braucht. Und das lässt sich in Games aber sogut wie nie erreichen. Im Bildhaften Beispiel besteht beispielsweise ein riesiger Unterschied zwischen der Wartezeit auf den Physikeffekte Thread wenn sich auf dem Bild nichts bewegt wie zum Beispiel, wenn eine Explosion zu sehen ist, wo Partikel durch die gegend fliegen.

Bei strikt statischem Content kann man das übrigens auch beobachten. Beispiel Cinebench. Bei sagen wir 8 Threads kann man schön erkennen, wie manche Threads schneller abgearbeitet werden als andere. Nur wird das Gesamtbild eben soweit zerhackt und kann zeitunabhängig bearbeitet werden, das am Ende dort kein signifikanter Nachteil entsteht.

Und wie ich schon sagte, das ist nur ein Teil der Wahrheit. Ein zweiter Teil sitzt bildlich gesehen erst nach der reinen Spieleberechnung.



Ja bin ich gewisserweise bei dir, trotzdem ist es Aufgabe eben dieser Entwickler sich möglichst gut auf diese CPUS einzustellen. Logischerweise ist der Spieler Dreh und Angelpunkt aber zb die Map ist immer die gleiche, Explosionen haben nur ein paar Radien aus denen sie anders aussehen, da kann viel vorgelegt werden um es dann schnell abzuspielen.

---------- Post added at 16:49 ---------- Previous post was at 16:48 ----------

Intel hui AMD Pfui ganz einfach, zumindest was Prozessoeren + zocken anbelangt.


Jein. Wie schon geschrieben Intels Grafikkarte zb ist Mist zum zoggen, dann lieber eine APU und auch ein Fx8350 kann mit der richtigen Karte zusammen gut aussehen.
 
Ja bin ich gewisserweise bei dir, trotzdem ist es Aufgabe eben dieser Entwickler sich möglichst gut auf diese CPUS einzustellen. Logischerweise ist der Spieler Dreh und Angelpunkt aber zb die Map ist immer die gleiche, Explosionen haben nur ein paar Radien aus denen sie anders aussehen, da kann viel vorgelegt werden um es dann schnell abzuspielen.

Eigentlich kann da nichts vorverlegt werden. Wie auch, die Berechnung muss mit jedem Durchlauf soweit neu erstellt werden, damit alle Einflüsse, die gerade geschehen auch da mit einfließen können. Anders geht es nicht... Wie willst du sonst einen flüssigen Bildablauf zustande bringen? Dreht sich bei einer vorberechneten Situation (was auch immer) der Spieler bzw. läuft um diese Situation drum rum, ist der Blickwinkel ein ganz anderer.
Beispiel, Betonklotz, vorn Betron, hinten Holz. Vorn wird die Explosion, die Physikberechnung und auch der Sound völlig anders ausfallen, als hinten, wenn das Holz getroffen wird. Da lässt sich nichts im Vorfeld berechnen ;)

Das größte Problem ist da wie angesprochen nicht das fehlende verteilen der Berechnungen auf mehrere Threads. Denn das hast du heute schon. Schau beim zocken in den Taskmanager, da laufen 10 und mehr Threads für ein einziges Game gleichzeitig. Das Problem ist und bleibt die Abhängigkeit der Berechnungen zueinander. Wie im Beispiel oben. Wenn ein Teil länger braucht, zieht es alle anderen Threads mit runter. Weil alles auf diesen einen Teil warten muss. Da lässt sich schlicht nichts optimieren, weil dynamischer Content nunmal dynamsiche Lasten erzeugt und somit die Abarbeitungszeit massivst schwankt.
Wäre dies nicht der Fall, müssten die Games im CPU Limit immer gleich schnell laufen, weil nämlich die Zeiten nicht schwanken. Tun sie aber nicht... Da sind massivste Unterschiede drin. Dreh ein aktuelles Spiel auf max. Details bei niedrigster Auflösung, ohne AA/AF. Du siehst selbst dort, das die FPS Rate massivst schwankt. Einfach weil die Berechnungen mal schneller, mal langsamer von statten gehen. Diese Schwankungen sind prinzipbedingt unterschiedlichen Arbeitsaufwendungen geschuldet. Und die CPU Auslastung wird dabei auch nicht signifikant steigen, einfach weil idR nur ein kleiner Teil irgendwo das ganze Konstrukt limitiert. Nur durch weglassen dieses Teils oder durch verhindern dieses Limits erzeugt man mehr Leistung. Das hätte aber auch direkten Einfluss auf die Optik. Denn die Berechnungen haben im Grunde alle samt ihre Gründe und ihren Nutzen.
 
Jein. Wie schon geschrieben Intels Grafikkarte zb ist Mist zum zoggen, dann lieber eine APU und auch ein Fx8350 kann mit der richtigen Karte zusammen gut aussehen.

Nur kann man dann gleich eine Intel CPU kaufen, wenn man sowie so eine Grafikkarte einsetzt.
Für 0815 Zocker ist die APU von AMD super, das bestreitet niemand. Die die eine Grafikkarte einsetzen sind mit einer Intel CPU besser dran, bei Skyrim z.B. kannst die AMD CPU gar nicht so hoch takten, da bist immer im CPU Limit. Und es gibt genügend Games wo es genau so aussieht, selbst Games die mehrere Kerne nutzen schneidet der FX schlecht ab.
 
Jein. Wie schon geschrieben Intels Grafikkarte zb ist Mist zum zoggen, dann lieber eine APU und auch ein Fx8350 kann mit der richtigen Karte zusammen gut aussehen.

Wer redet denn hier im Thread über IGPs:hmm:

Und über den FX dessen pro MHZ Leistung und Stromverbrauch wurde schon alles gesagt

Das Ding ist einfach für 90% der normalen Homeuserszenarien generell den Intels nicht gewachsen

Und bleiben wir beim Szenario des TE trifft das sogar zu 100% zu
 
Zuletzt bearbeitet:
Ich will doch nur, dass meine teure GPU ausgelastet wird bei vernünftigen Frames.
Hoffe der Umstieg auf Intel hat sich gelohnt.

Nur werde ich den 3570k wohl auch übertakten müssen um einen Unterschied zum Fx-8350@5GHz zu merken?!
 
@Fdsonne
Genau deswegen sage ich ja auch das es das beste wäre wenn man einen verdammt mächtigen singlecore hat als wenn man mehere kerne hat die teilweise brach liegen da sie nicht ansprechbar sind!
Am besten wäre ein CPU mit einem kern welcher virtuell als 8 kerner läuft weil so arbeitet er dann immer volle pulle
 
und überleg mal ob Du den 3570k köpfen willst.
ich habs gemacht und nich bereut. ganz im Gegenteil.
 
Lohnt nur wenn er auch gut geht weil wenn das teil eh schon 1,4v für 4,8 brauch würde ich das wohl kaum machen.
 
@Cube87
Hast du den Bulldozer Patch drauf?
 
Zitat aus der News

Wunder wird man trotzdem kaum erwarten können

laut AMDs Blogeintrag wird quasi nur ein Intel-ähnlicher SMT-Modus aktiviert


Scheduler war u ist kein Voodoo ,was die IPC Problematik lößt
 
Zuletzt bearbeitet:
@scully
Das Zitat kann ich gut nachvollziehen, schon mal das Testsystem angeschaut?

Es mag ja sein, dass die AMD CPU keine Intel killer sind. Aber Microsoft wird doch nicht einfach so ein Patch bringen der nichts bringt.
Ich konnte es leider nie testen, da ich den Patch von Anfang an drauf habe. Die genannten Probleme habe ich nicht bei FC3 mit einer HD7970.
Ist also der FX-8150 schneller als ein FX-8350? :fresse:

@cube87
Ahso, ja dann Problem gelöst....
 
Zuletzt bearbeitet:
Ja, hab es mal kurz getestet:


Die geringste Auslastung lag bei 82%, ich muss aber dazu schreiben, dass die CPU mit 4.5GHz läuft und DDR3-2133 Speicher genutzt wird.

MfG
 
Zuletzt bearbeitet:
Lohnt nur wenn er auch gut geht weil wenn das teil eh schon 1,4v für 4,8 brauch würde ich das wohl kaum machen.

Alten, lass ma meine CPU in Ruhe, ja?! die hat Dir nix getan!
und wieso stalkste mir hinterher???
die Werte stimmen ziemlich genau :hmm:
(Scherz)
 
@Cube87
Hast du nur ein Speichermodul im PC? Das würde einiges erklären...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh