CPU/GPU Skalierung bei Zwei- und Vierkern

Quante

Enthusiast
Thread Starter
Mitglied seit
06.11.2007
Beiträge
1.317
Das hier liest sich mal interessant.
Es geht um CPU-und GPU-Skalierung im Vergleich von 1, 2, 4Kernen und Übertaktung:

Teil1:
Prüfstand Spiele I: Wie gut werden CPU und GPU genutzt? : 20 Spiele decken die Schwachstellen auf

Teil2:
Prüfstand Spiele II: Wie gut werden CPU und GPU genutzt? : 20 Spiele decken die Schwachstellen auf


Überwiegend ist ein Zweikerner von Vorteil –besonders um die GPU-Leistung auszuschöpfen.
Teilweise arbeiten die Spiele besser mit mehr als 2 Kernen. Auch hier Vorteile für die GPU.
Überraschen finde ich, das die Übertaktung so gut wie nichts mehr ausmacht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessanter Test aber warum zum Teufel nehmen die keine schnellere Karte ?
Full HD mit bis zu 8 AA und nur ne 460 768MB :stupid:
 
Hm das ging mir auch durch den Kopf. Anno 1404 mit 8fach alles in 1920 und sich wundern das bei 2+ Kernen "keine" Leistungssteigerung drin ist. Die GPU ist doch hier auf Anschlag? Oder denke ich dort falsch? Warum sagt so ziemlich jeder Test das z.B Anno1404 gut mit 4 Kernen skaliert?

MFG Jubeltrubel
 
bei 8xAA und 1920 kein wunder, dass die graka limitiert.
 
"Die Zeit für Zweikern-CPUs ist sicher noch nicht vorbei, da durch DirectX 11 wieder mehr die Grafikkarte in den Mittelpunkt rückt."

So siehts aus... Aber immer wieder lustig, wie einem alle möglichen Leute erzählen wollen, Dualcore sei out :d

bei 8xAA und 1920 kein wunder, dass die graka limitiert.

Genau die Einstellung ist aber interessant... Alles darunter macht doch keinen Spass.
Mein DC freut sich schon auf die 6970 :P
 
Zuletzt bearbeitet:
Es wurde dort auch noch mit SLI getestet.
Was bringt eine schnellere Karte, wenn schon die 460er ausgebremst wird?
Gut, das ist eher selten ab einen 2Kerner der Fall –aber möglich.
Die Grafikkarte sollte bei dem Test ja irgendwann limitieren –nur wann tut sie es?
Die Frage war, wie ist die Leistung der Grafikkarte bei einer CPU mit 1, 2 und 4 Kernen.
Das beantwortet quasi die Frage: brauche ich einen Quad zum spielen…?
Eindeutige Antwort: jein !! :d
 
bei AMD musst du erstmal das glück habe, dass das spiel AA darstellen kann. :asthanos:
Was bei nVidia idR nicht anders ist. Bei AMD kannst du hingegen zur Not auch noch MLAA aktivieren. So viel Glück hast du bei nVidia nicht. :rolleyes:
 
Zuletzt bearbeitet:
Erstaunlich finde ich nur die Tatsache das, dass übertakten von 3 auf 4 Ghz so gut wie keine Verbesserungen gebracht hat.
Dann macht es in meinen Augen auch kein Sinn meinen I5-750 der momentan bei 4ghz läuft noch weiter zu übertakten. Oder sehe ich da was falsch?
 
OMG, was für ein sinnloser Test! Eine so schwache Grafikkarte für solche Untersuchungen hernehmen und dann noch eine, der in den Settings öfters mal der Speicher ausgehen kann...epic fail.
Außerdem ist die Testmethodik wieder mal völlig falsch. Man kann nicht GPUs und CPUs gleichzeitig testen, weil die optimalen Testbedingungen für beide Komponenten vollkommen diametral zueinander sind.

Erstaunlich finde ich nur die Tatsache das, dass übertakten von 3 auf 4 Ghz so gut wie keine Verbesserungen gebracht hat.
Dann macht es in meinen Augen auch kein Sinn meinen I5-750 der momentan bei 4ghz läuft noch weiter zu übertakten. Oder sehe ich da was falsch?

Naja, pauschal kann man das nicht sagen. Es gibt Spiele, die sind selbst in diesen Einstellungen oft CPU-limitiert und dann wieder solche, wo das weniger der Fall ist. Generell ist es Unsinn, so eine vergleichsweise schwache Karte mit einer zu starken CPU zu kombinieren. Ein gesunder Mittelweg ist anzuraten.
 
Intressanter Test. Das bei 1920er Auflösung die Graka limitiert ist ja logisch. Und dass man dann mit Übertakten der CPU keine weiteren Frames rausschlägt ist ja auch klar.

Aber darauf wird in dem Test ja auch hingewiesen:
Auch hier lassen sich höhere Frameraten nur durch die Aufrüstung der Grafikkarte bei gleichzeitiger Verwendung einer CPU mit mindestens zwei Kernen erzielen.

Ansich finde ich den Test keine schlechte Sache, für gtx460 Käufer. Für die reine Feststellung das in einer 1920er Auflösung OC der CPU nicht reicht taugt er allerdings aufgrund der "langsamen" Grafikkarte nicht.
 
Weiterhin ist auch nicht klar, wie da genau gebencht wurde, oder hab ich was überlesen? Welche Szenen, wieviele Durchgänge, Timedemo oder Savegame...ein guter und vor allem vollständiger Test ist aber was anderes!
 
Erstaunlich finde ich nur die Tatsache das, dass übertakten von 3 auf 4 Ghz so gut wie keine Verbesserungen gebracht hat.
Dann macht es in meinen Augen auch kein Sinn meinen I5-750 der momentan bei 4ghz läuft noch weiter zu übertakten. Oder sehe ich da was falsch?

kommt immer auf das testsystem an, je nach spiele, AA,AF, auflösung und GPU unterschiedlich.
 
endlich mal jemand der unter realitätsnahen bedingungen testet und nicht 640x480 um irgend ein cpu-limit herauszustellen. die eingestellten settings entsprechen doch eher den sehgewohnheiten der allgemeinheit.
 
Du weißt aber schon, dass die CPU (nahezu?) dasselbe leistet - egal ob ich 640x480 oder in 1920x1080 einstelle?
Realitätsnahe Einstellungen nutzen nur einem sehr geringen Prozentsatz der Leser, weil sie eben nicht auf andere Konfigurationen übertragbar sind.

Jemand, der eine GTX580 hat, kann aus diesem Test nicht herauslesen, dass ein i5 mit 4 GHz seine Karte besser befeuert als ein i5 mit 3 GHz. Und wenn er beim Spielen an andere Szenen als die gebenchten kommt, in denen ihm eine schnelle CPU mehr bringt als der Test suggeriert?

Ich bleibe dabei - so ein Test ist Unsinn. Man kann den Leuten nicht alles auf dem Silbertablett in der Form nur eines Benchmarks servieren. Mitdenken und mitinterpretieren ist neben einer möglichst breiten Datenbasis gefragt.
 
Zuletzt bearbeitet:
jedenfalls haben sie sich die Mühe gemacht und es nicht so ultra allgemein formuliert
 
Naja, wenn man sich die ersten einleitenden Sätze anschaut, richtet sich dieser Artikel schon an die Allgemeinheit und da ist er meiner Meinung nach eben komplett in die falsche Richtung gefahren.
Hätte man gezielt Midrangeaufrüster mit niedrigerem Budget angesprochen, könnte man es ja noch verstehen. Aber so?
 
Ich würde mir den gleichen Test mit 2x GTX (hier höchstmögliche Zahl einsetzen) im SLI wünschen, um alle Wünsche zu befriedige
 
Genau. Kleiner Wermutstropfen hier wäre allerdings, dass man potentielle MGPU-Probleme wie schlechte Skalierung und eventuelle Bugs mit ins Boot nimmt. Solange das dazugeschrieben bzw. untersucht wird, kann man das schon so machen. Dann ist vielleicht auch die 640x480-Kritikfraktion ruhig :d
 
"Die Zeit für Zweikern-CPUs ist sicher noch nicht vorbei, da durch DirectX 11 wieder mehr die Grafikkarte in den Mittelpunkt rückt."

So siehts aus... Aber immer wieder lustig, wie einem alle möglichen Leute erzählen wollen, Dualcore sei out :d



Genau die Einstellung ist aber interessant... Alles darunter macht doch keinen Spass.
Mein DC freut sich schon auf die 6970 :P

Denke das wollen dir die wenigsten erzählen, aber wer jetzt neu kauft dem sei kein Dualcore empfohlen. Du hast ja noch eine potente CPU, da ist das was anderes.
Ich würde den Satz eher so Formulieren: "Die Zeit für den Verkauf / Kauf von Zweikern-Cpus ist vorbei "
Es gibt definitiv genug Beispiele, wo ein Dualcore einfach viel zu sehr limitiert und wie schon gesagt wurde ist die Graka für viele Einstellungen einfach ungeeignet gewesen.
 
Realitätsnahe Einstellungen nutzen nur einem sehr geringen Prozentsatz der Leser, weil sie eben nicht auf andere Konfigurationen übertragbar sind.

Jemand, der eine GTX580 hat, kann aus diesem Test nicht herauslesen, dass ein i5 mit 4 GHz seine Karte besser befeuert als ein i5 mit 3 GHz.

Ich würde sagen genau das Gegenteil ist der Fall. Der Mehrheit nutzen keine theoretischen Werte. Inwiefern soll eine GTX 580 besser befeuert werden wenn sowieso kein CPU Limit vorliegt ? Das musste mir echt mal erklären.

Denke das wollen dir die wenigsten erzählen, aber wer jetzt neu kauft dem sei kein Dualcore empfohlen. Du hast ja noch eine potente CPU, da ist das was anderes.
Ich würde den Satz eher so Formulieren: "Die Zeit für den Verkauf / Kauf von Zweikern-Cpus ist vorbei "
Es gibt definitiv genug Beispiele, wo ein Dualcore einfach viel zu sehr limitiert und wie schon gesagt wurde ist die Graka für viele Einstellungen einfach ungeeignet gewesen.

Leider doch, im Aufrüstungsforum wollte man mir vor 2 Tagen weismachen, dass man für Black Ops einen Quadcore für optimale Performance benötigt. Wenn man dann doch das Gegenteil beweisen kann, kommt meistens noch das Totschlagargument "minfps" :d

Ich würde mir bei einem Neukauf sicherlich auch einen 4-Kerner zulegen, momentan habe ich aber kein einziges Spiel, welches durch meine CPU limitiert wird. Spiele wie Anno lassen sich immer noch an einer Hand abzählen.
 
Zuletzt bearbeitet:
Leider doch, im Aufrüstungsforum wollte man mir vor 2 Tagen weismachen, dass man für Black Ops einen Quadcore für optimale Performance benötigt. Wenn man dann doch das Gegenteil beweisen kann, kommt meistens noch das Totschlagargument "minfps" :d

Was willst du aufrüsten, wenn ein 8600@4,4GHZ auf dem Board steckt? Ich denke das teil wird die performance eines 4x3,0 haben, also ist da nicht mehr viel was man aufrüsten kann. Es sei denn du wechselst den sockel.

Es ist sicher das 4 Kerne bei BO besser laufen als 2 Kerne, bzw. es wird eine mindest performance des zweikerners benötigt, welcher für meinen geschmack nicht der E6600 ist. Ausserdem sind die ansprüche unterschiedlich. Abgesehen davon sind minfps wichtig und das hat sicher nichts mit totschlagargument zu tun.

Genaus blöd finde ich die tollen balkendiagramme. Frameverläufe sind besser. Minimunangaben hätte ich mindestens noch zu balkendiagrammen gerne dazu.
 
Zuletzt bearbeitet:
Nur zur Klarstellung, ich wollte da gar nix aufrüsten.

BO ist genau wie MW2 gar nicht auf Quadcore optimiert. Es läuft mit einem Quad momentan nur besser, weil egal was man macht, auf 2 Kernen 100% Auslastung anliegen. Das liegt aber nicht an der CPU sondern daran dass es so schlecht programmiert ist.
 
Ich würde sagen genau das Gegenteil ist der Fall. Der Mehrheit nutzen keine theoretischen Werte. Inwiefern soll eine GTX 580 besser befeuert werden wenn sowieso kein CPU Limit vorliegt ? Das musste mir echt mal erklären.

Woher weißt du, dass kein Limit vorliegen soll? In welchen Spielen, in welchen Szenen? Mit welcher Hardware? Du tust ja gerade so, als gäbe es überhaupt keine CPU-Limits.

Wie immer - pauschal lässt sich das nicht sagen. Und weil wir doch gleich alle glücklich machen wollen - in jedem Preisbereich - sollte man sowas gleich richtig machen. Von mir aus wie CB mit realitätsnahen Settings, die wenig Aussagekraft haben UND SLI/CF bzw. niedrigen Auflösungen, die deutlich mehr Informationen vermitteln können, aber ohne Hirnschmalz nicht auf den Spielalltag übertragbar sind.

Der Mehrheit nutzen keine theoretischen Werte.

Weil die Mehrheit nicht in der Lage ist, ihre Bedeutung zu verstehen. Automatisch gefahrene Benchmarks wie THG sie wohl verwendet hat, sind ebenso theoretisch, da sie nicht wirklich die Performance in den Spielen wiederspiegeln.
 
Zuletzt bearbeitet:
Woher weißt du, dass kein Limit vorliegen soll? In welchen Spielen, in welchen Szenen? Mit welcher Hardware? Du tust ja gerade so, als gäbe es überhaupt keine CPU-Limits.

Ich denke, man kann davon ausgehen, dass in aktuellen Spielen beim angesprochenen Beispiel in 1920 / 8x AA zu 99% ein GPU Limit und eben kein CPU Limit vorliegt, wenn man den im Test benutzten Prozessor heranzieht.

Weil die Mehrheit nicht in der Lage ist, ihre Bedeutung zu verstehen. Automatisch gefahrene Benchmarks wie THG sie wohl verwendet hat, sind ebenso theoretisch, da sie nicht wirklich die Performance in den Spielen wiederspiegeln.

Ich finde deine Aussagen musst du erst mal belegen.
Es tauchen z.B. mehrere Spiele im Test auf, zu denen es gar keine automatischen Benchmarks gibt...
 
Zuletzt bearbeitet:
Ich würde mir den gleichen Test mit 2x GTX (hier höchstmögliche Zahl einsetzen) im SLI wünschen, um alle Wünsche zu befriedige

Das sagt absolut überhaupt nix aus...
Was bringt mir zu wissen, wie ein 580GTX SLI Gespann skalliert, wenn die Masse aller PC Käufer niemals sich so große Grafikpower in den PC stecken wird/will...

Solche Tests sind immer schwierig zu beurteilen. Man muss schauen, was der Autor damit aussagen will.
Und in dem Test mit der 460GTX trifft man so ziemlich das Mittelmaß. Die 460GTX ist für einen Großteil möglicher Käufer durchaus im Preisrahmen, dementsprechend macht es Sinn einen Test mit dieser Leistungsklasse durchzuführen.

Gerade so Foren wie dieses hier sind bei Grafikkarten/CPU Beratungen in meinen Augen oft eher nicht 100% empfehlenswert. Da eben die Mehrheit hier im Forum wohl deutlich über der Durchschnittsleistungsklasse agiert. Dementsprechend auch andere Anforderungen an CPU und GPU gestellt werden.
 
Ich denke, man kann davon ausgehen, dass in aktuellen Spielen beim angesprochenen Beispiel in 1920 / 8x AA zu 99% ein GPU Limit und eben kein CPU Limit vorliegt, wenn man den im Test benutzten Prozessor heranzieht.

Diese Aussage musst du auch belegen ;)
PCGH hat ja z.B. auch schon Benches gebracht, wo 6-Kerner einen (leichten) Vorteil ggü. 4-Kernern haben. Wieso, wenn es diesbezüglich kein Limit gibt?

Ich verweise auch immer gern auf diesen Test:
May Power Be with You: Find the Best CPU for a Single ATI Radeon HD 5870 and ATI Radeon HD 5870 CrossFireX Configuration - X-bit labs

Je größer die Grafikleistung ist, desto besser skalieren CPUs. Keine wirkliche Neuigkeit. Für Leute, die Cayman erwarten, bewegt man sich ja schon in Richtung dieser Leistungsgefilde.

Ich finde deine Aussagen musst du erst mal belegen.
Es tauchen z.B. mehrere Spiele im Test auf, zu denen es gar keine automatischen Benchmarks gibt...

Gut, das stimmt. Aber du weißt ja selbst, dass bei den Spielen, bei denen es sowas gibt, meistens so gebencht wird. Solange THG die Methodik nicht veröffentlicht, ist es auch müßig, da groß zu diskutieren. Dass Timedemos generell Quatsch sind, glaube darüber müssen wir uns auch nicht streiten.
 
Zuletzt bearbeitet:

Nehmen wir doch den von dir verlinkten Test:
1920x1200 8xAA 16AF C2D 4Ghz gegen i7 4Ghz

C2D 51 i7 51 - World in Conflict
C2D 25 i7 29 - Crysis
C2D 119 i7 115 - UT3
C2D 43 i7 43 - Lost Planet: Colonies
C2D 34 i7 34 - S.T.A.L.K.E.R.: Clear Sky
C2D 53 i7 52 - Far Cry 2
C2D 109 i7 115 - Call of Duty 5: World at War
C2D 105 i7 115 - Left 4 Dead
C2D 70 i7 80 - Warhammer 40 000: Dawn of War II
C2D 44 i7 41 - BattleForge
C2D 59 i7 58 - Stormrise
C2D 44 i7 44 - Tom Clancy’s H.A.W.X.
C2D 137 i7 136 - Call of Juarez: Bound in Blood
C2D 103 i7 105 - Wolfenstein
C2D 63 i7 60 - Resident Evil 5

Wie du siehst - GPU Limit.

Dass MultiGPUs besser mit einem Quad befeuert werden stelle ich ja nicht in Frage ;)
 
Natürlich bezog ich mich auf die Ergebnisse mit CF. Sollte klar sein, oder?

Das Multi-GPU von gestern ist das Single-GPU von heute. Grob zumindest. Fakt ist - ist die Grafikkarte nur schnell genug, treten Unterschiede zwischen verschiedenen CPUs zu Tage, was man im THG Test nicht so sehen kann. Daher halte ich diesen für praktisch sinnlos.
 
Zuletzt bearbeitet:
Natürlich bezog ich mich auf die Ergebnisse mit CF. Sollte klar sein, oder?

Neeeee, so einfach kannste dich nicht aus der Affäre ziehen. Der Thread heisst nicht MultiGPU Skalierung bei Zwei-Vierkern CPUs ;) Wenn ich mir acht Grakas zusammenschalte (überspitzt) dann fällt auch logischerweise irgendwann das GPU Limit... So können wir nicht diskutieren.

Das Multi-GPU von gestern ist das Single-GPU von heute. Grob zumindest.

Eieiei.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh