Aber wozu denn? Damit ich auf die Energieoptionen beim Spielen verzichten muss oder damit ich mehr als 200FPS auf meinem 60Hz TV darstellen kann?
Von mir aus kann die Auslastung bei 10% sein, wenn die FPS hoch genug sind, entsprechend weniger Verbraucht dann mein System auch.
Weil das Quatsch mit Soße ist. Du Verteidigst dein System lediglich.
Ich hatte damals selbst mit einer 7970 schon mit einem FX-8350 Probleme nicht immer ins CPU Limit zu rutschen.
Und jetzt willst du mir erzählen du kannst das CF mit einem FX-8350 ausfahren, wo noch zusätzlicher Overhead dazukommt? Not.
Mag ja sein, dass man genügend Performance hat oder das es Settings gibt, wo das keine Rolle spielt.
Im Mittel verschenkst du aber sicher 10 bis 20% Performance, teils auch erheblich mehr.
Es ging um Workloads. Die kannst du mit Anwendungen gezielt messen. Und zwar alles mögliche. Mit Spielen geht das nicht. Dort ist es ein Mix aus verschiedenen Workloads. Und der kann von Spiel zu Spiel ganz unterschiedlich ausfallen. Wenn deine CPU also in Spiel A gut abschneidet, heisst das noch lange nicht, dass sie in Spiel B genauso gut abschneidet.
Interessant dass du immer allen erzählen willst um was es geht.
Aber ich sags mal um was es geht. Spieleperformance
Und bei Anwendungen ist es das gleiche. Dort gibts CPU´s die in Anwendung A gut abschneiden und in Anwendung B abstinken.
Tatsache ist dass AMD CPU´s in Spielen wesentlich schlechter dastehen wie in Anwendungen und das liegt an der Leistung pro Takt und an den langsamen Chaches.
Spieleperformance misst man mit Spielen und Anwendungsperformance mit Anwendungen.
Dann zeig doch mal ein paar Messwerte wo das so sein soll.
Selbst bei 2 Threads Last ist die AMD CPU genauso ineffizient wie bei 8 Threads.
Bei 8 Threads und mehr wird die CPU eher wieder effizienter, als ineffizienter, absolut gesehen.
http://www.computerbase.de/2014-07/intel-core-i5-4690k-test-uebertakten-benchmarks/3/#diagramm-leistungsaufnahme-teillast-cinebench-1-cpu
Vergleiche doch einfach mal die Werte in Cinebench bei 1Thread und bei MUltithread.
Multithreaded wird der 7850k deutlich effizienter im Vergleich zum i5, dort ist der Abstand der Leistungsaufnahme auf die Threads gerechnet viel geringer als bei einem.
Das gleiche bei Bulldozer. Also wieder nur Märchen von dir.
Da können sie dann ja einen Klub mit Intel aufmachen. Die sind im Moment auf der Verliererstrasse
Na wenn Intel dann auf der Verliererstraße ist, ist es AMD ja noch umsomehr...
Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?
Exakt das genau ist der Fall, genauso fing die Diskussion damals an.
Und da ging es nicht darum, dass man Spieleperformance nicht messen könnte, sondern in erster Linie darum, dass niedrige Auflösungen nichts zur CPU Performance aussagen.
Alles bereits widerlegt.
Mr.Dude ist ein Scharlatan, der versucht durch wissenschaftliche Haarspalterei die schlechte AMD Spieleperformance herunterzuspielen.
Was die Theorie angeht mag er recht haben, aber die hat bei weitem nichts mit der Spieleperformance von CPU´s zu tun, sondern mit den Vorgängen innerhalb der CPU, das könnte man genauso auf Anwendungen ummünzen.
Er akzeptiert das schlechte Abschneiden von AMD CPU´s in Spielen einfach nicht, das ist das einzige Problem und deswegen wirft er sich auf die Messungenauigkeit, was das Verhalten der CPU mit GPU und umgekehrt angeht.
Das sind wenige Prozent, völlig uninteressant.
Zur Sprache kam ebenso das "Softwarelimit" das für das schwache Abschneiden der CPU´s in Spielen verantwortlich ist.
Hieraus ergibt sich die nächste Polemik, dass quasi die AMD CPU nichts dafür kann, wenn nicht genug Threads supportet werden.
mr.dude schrieb:
"Gering" ist er deswegen trotzdem nicht.
Natürlich ist der Einfluss sehr gering, das wurde anhand x Messungen schon mehrfach anhand mehr CPU Takt gezeigt.
Liegt ein CPU Limit zu 99% vor, dann skaliert auch die CPU mit mehr Takt in dieser Form nach oben.
Sicher gibt es hier auch Einflüsse des Grafikkartentreibers, aber die sind auch wiederum nur minimal.
Dass das kein absolut Wissenschaftliches Messergebnis ist, ist völlig klar, weil Grafiktreiber und Karte eine Rolle spielen, die Rolle aber als so groß anzusehen, dass die Werte unbrauchbar sind, ist völlig Quatsch.
Dafür fehlen dir komplett die Begründungen und die Beweise oder Messungen.
Und die wirst du auch nicht liefern und nicht liefern können, denn wenn du das tust, dann widersprichst du dir quasi selbst und die Alibiargumente fallen in sich zusammen, was sie ohnehin schon tun, aber vielleicht würdest du es dann auch mal selbst merken, dass das Käse ist.
Zeig doch bitte Performancewerte die zeigen dass der Einfluss nicht gering ist.
boxleitnerb/y33H@ und andere haben mehrfach schon gezeigt, wie die CPU Skalierung in einem CPU Limit oder in einem annähernden CPU Limit aussieht.
Von dir kam nichts und jetzt kommt auch nichts.
Dein AMD Schöngerede mit inhaltlichen Lügen, tut mittlerweile schon ziemlich weh.
Bulldozer ist eigentlich Leistungsfähiger als Intels i7, na aber sicher doch.
Die Fertigung ist Schuld und die Caches sind schuld.
Wer wirklich glaubt der 32nm Prozess von Globalfoundries ist jetzt noch nicht ausgereift genug um auf dem Niveau von dem Intels 2011 zu sein, um wenigstens an Sandy Bridge heranzukommen, der muss schon ziemlich verwirrt sein.
AMD kämpft immernoch mit den Intel CPu´s von vor 6 Jahren.
Und zwar mit Nehalem.