CPU/GPU Skalierung bei Zwei- und Vierkern

Neeeee, so einfach kannste dich nicht aus der Affäre ziehen. Der Thread heisst nicht MultiGPU Skalierung bei Zwei-Vierkern CPUs ;)

Wie du Grafikleistung erreichst, ist erstmal egal. Du kannst nicht einfach willkürlich irgendwo einen Strich ziehen und sagen: "Das ist das Schnellste, was Otto-Normalo kauft, deshalb sind Betrachtungen mit schnelleren Lösungen sinnlos".
Ich sehe solche Tests hauptsächlich mit dem Auge des Wissenschaftlers. Ich will soviele Informationen wie möglich, sinnvolle Ergebnisse, die Aussagekraft haben und nicht geglättet sind. Was sich der einzelne dann da rauspickt, steht auf einem anderen Blatt.

Und mal ehrlich: Leute, die unterhalb eines gewissen Budgets kaufen, informieren sich doch sowieso nicht. Schon gar nicht mit solch spezialisierten Artikeln. D.h. die Zielgruppe würde ich schon etwas höher ansetzen naturgemäß. Und in diesem Bereich gibt es eben auch schnellere Grafikkarten. Die GTX470 ist ja geradezu spottbillig. Der Konkurrenzkampf zwischen Cayman und GTX580/570 wird sicher auch nicht für zu hohe Preise sorgen.

Btw: Bei der Anzahl der Benchmarks in dem xbitlabs-Artikel haben die nicht mit Savegames gearbeitet, sondern mit flybys, timedemos und integrierten Benches. Sonst wären sie nämlich noch heute beschäftigt. D.h. die CPU-Last in den eigentlichen Spielen liegt in der Realität höher bzw. eine schnellere CPU kann sich auch früher als bei CF 5870 auszahlen. Was die Grundaussage des Artikels noch unterstreicht: Eine schnelle CPU kann einen beträchtlichen Vorteil (bei den fps) bringen.


Wo ist das Problem? Es stimmt doch. CPUs halten idR auch länger als Grafikkarten, da oft ein Plattformwechsel vollzogen werden muss. Jedenfalls ist es bei mir so. Eine schnellere Grafikkarte reinzustecken ist bedeutend einfacher, als den ganzen Unterbau zu tauschen.

Natürlich soll man nicht auf Vorrat kaufen. Es geht hierbei eher darum, zwischen verschiedenen CPUs, die grob im selben Budget zu liegen, aber unterschiedlich viel leisten, sinnvoll wählen zu können. Die eine CPU hat dann eben auch genug Bumms für die nächste Grafikkarte - die andere weniger.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und mal ehrlich: Leute, die unterhalb eines gewissen Budgets kaufen, informieren sich doch sowieso nicht. Schon gar nicht mit solch spezialisierten Artikeln. D.h. die Zielgruppe würde ich schon etwas höher ansetzen naturgemäß. Und in diesem Bereich gibt es eben auch schnellere Grafikkarten. Die GTX470 ist ja geradezu spottbillig. Der Konkurrenzkampf zwischen Cayman und GTX580/570 wird sicher auch nicht für zu hohe Preise sorgen.

Man sollte bedenken der Test ist von Anfang September, zu dem Zeitpunkt kostete eine 470 ab ~270 € aufwärts und selbst die 460 768 MB immer noch ~170€
 
ein Vergleich der min. FPS wäre auch noch nett gewesen....was nützt es mir, wenn ein game ohne aktion flüssig läuft und wenn dann mal ein paar granaten und raketen fliegen dann das ganze einbricht weil die cpu die physikberechnungen nichtmehr packt? (bei den games, wo es über die CPU berechnet wird...zB Crysis) natürlich in Bezug auf 2 vs. 4 CPU-Kernen

MfG, AndyX

Edit:

Habs gefunden... die haben es doch getestet, ;)

da machen 2 Kerne mehr anscheinend doch nicht so einen großen unterschied.... bis auf GTA4
 
Zuletzt bearbeitet:
BO ist genau wie MW2 gar nicht auf Quadcore optimiert. Es läuft mit einem Quad momentan nur besser, weil egal was man macht, auf 2 Kernen 100% Auslastung anliegen. Das liegt aber nicht an der CPU sondern daran dass es so schlecht programmiert ist.

Das ändert nichts an der tatsache, dass es auf 4kernern besser läuft.

Es gibt auch noch andere games bei denen gemeckert wird, dass sie nicht gut programmiert sind. Ich argumentiert mal völlig blöd und sage: Genau dafür sind die 4kerner gemacht! :)
BO ist für mich ne echte von PC-auf-konsolenportierung mit inkaufnahme aller nachteile es dann doch wieder auf dem pc laufen zu lassen.

Man kann halt die schlamperei gut mit entsprechender performance ausgleichen. "Mir doch egal, was die proggen. Ich hab leistung satt"
 
Solange man keinen Einblick in den Code oder sich detailliert damit auseinandergesetzt hat, sollte man sich mit Aussagen wie "scheiße programmiert" doch bitte zurückhalten. Bei sowas geht mir immer das Messer im Sack auf, denn das sagen hauptsächlich die, die zu schwache Rechner für das entsprechende Spiel haben. Solche Leute haben idR keine Ahnung, was sie da überhaupt reden und müssen irgendwas kompensieren, nur weil ihre Hardware zu langsam ist.
 
mit solchen aussagen wäre ich auch vorsichtig

bfbc2 ist mit 2x3,6 ghz nicht wirklich spielbar (ruckeln etc) beim wechsel auf einen quad geht es auf einmal ohne probleme

und ich habe mal getest und den i7 auf 4x 1,6ghz bei 0,85V laufen gelassen und es läuft ohne probleme sogar mit 4x 1,6

also stimmt doch irgendwas mit der programmierung nicht wenn das spiel so schlecht mit dualcore funktioniert
 
Zuletzt bearbeitet:
Die Erkenntnis die man aus solchen Tests erfahren will sind für Spieler doch in erster Linie, ob man einen Prozessor mit weniger Kernen für die nächste Grafikkarten- und Spielegeneration weiter verwenden kann.
Ich persönlich glaube, ab 6 schnellen Kernen wird man sich um eine Aufrüstung bis zur nächsten Konsolengeneration ~2014,15 keine Gedanken mehr machen müssen. Von 6 auf 8 Kerne sinds nur mehr 33% Steigerung, von 2 auf 4 Kerne waren das noch 100 % und die Leistung reicht, bis auf ein paar Ausnahmen, in den meisten Spielen immer noch. Der Quad wird noch sehr lange für ein flüssiges Spielerlebnis reichen, wer einen solchen besitzt kann den 6 Kerner überspringen. Bei einer Neuanschaffung würde ich jedoch einen 6 Kerner kaufen, damit wird man als reiner Zocker wie ich, die nächsten Jahre zufrieden sein und langfristig billiger weg kommen als mit einem Quad oder Octocore. 6 Kerne sind zwar langsamer getaktet als 4, machen das jedoch langfristig durch multithreaded Programmierung wieder wett und übertakten kann man schließlich auch noch. Hätte ich mir vor 3 Jahren einen Quad statt des Dual gekauft, könnte ich jetzt immer noch sorglos zocken, jetzt ruckeln ein paar Titel und das Spielerlebnis ist weniger flüssig. Da man einen Hexacore von AMD für den Preis eines Intel Quads bekommt, braucht man imho gar nicht mehr lange zu überlegen, vielleicht noch den Jänner abwarten ob AMD die Preise nochmals senkt.
Nutzer von multithreaded Anwendungen besitzen sowieso schon einen Quad und legen sich nächstes Jahr einen 8 Kerner zu. So jetzt sind die Batterien der Glaskugel leer :fresse:
 
Die Erkenntnis die man aus solchen Tests erfahren will sind für Spieler doch in erster Linie, ob man einen Prozessor mit weniger Kernen für die nächste Grafikkarten- und Spielegeneration weiter verwenden kann.

Das genau kann man nicht. Es gibt jetzt schon schnellere Grafikkarten als die GTX460 768MB. Packe mal einen Cayman oder die 28nm GPUs nächstes Jahr mit einer "schwachen" CPU, z.B. einem AMD X3 zusammen. Der Test suggeriert, dass es wenig bis keinen Unterschied macht, wie schnell die CPU ist bzw. wieviele Kerne sie hat. Jedoch hängt es maßgeblich von der benutzten Grafiklösung ab, ob sich eine CPU entfalten kann oder nicht.
 
Na, 100% CPU-Auslastung ist doch ne Menge Entfaltung für eine CPU.
Nur schade eben, wenn die Grafikkarte dann mit 50% Auslastung vor sich hinschlummert.
Wenn dann die Grafikkarte mehr Auslastung mit einem geringer ausgelasteten 4-Kerner
bringt, ist schon ein Zusammenhang erkennbar.
Bei Avatar, Battlefield Bad Company 2, Dragon Age: Origins, Left4Dead 2, Mass Effect 2
wird die Grafikkarte mit einem 4-Kerner um die 10% mehr ausgelastet.
Bei GTA4 sogar um die 30%.

Das sind jetzt 6 von 20 getesteten Spielen –bei den Übrigen 14 macht es mehr oder
weniger nicht viel aus. Tendenziell kann man aber schon behaupten, das, rein auf die
Auslastung der Grafikkarte bezogen ein 4-Kerner von Vorteil ist. Diese Tendenz ist
bei schnelleren Karten als der GTX 460 wahrscheinlich sogar noch höher.
 
Zuletzt bearbeitet:
Das genau kann man nicht. Es gibt jetzt schon schnellere Grafikkarten als die GTX460 768MB. Packe mal einen Cayman oder die 28nm GPUs nächstes Jahr mit einer "schwachen" CPU, z.B. einem AMD X3 zusammen. Der Test suggeriert, dass es wenig bis keinen Unterschied macht, wie schnell die CPU ist bzw. wieviele Kerne sie hat. Jedoch hängt es maßgeblich von der benutzten Grafiklösung ab, ob sich eine CPU entfalten kann oder nicht.

Die Frage ist doch, was wird der CPU zum Berechnen gegeben...
Wenn Anwendung A mit beispielsweise massiver KI Berechnung aufwartet, welche sich extrem gut auf mehrere Kerne verteilen lässt, so ist die Grafikkarte primär erstmal ziemlich unwichtig. Denn die KI Berechnung ansich läuft exakt genau so ab zwischen einer kleinen günstig Office Karte wie einer super HighEnd Karte.

Ich für meine Teil behaupte, man kann das Thema so nicht unter einen Hut bringen, ohne genaue Kenntnisse über die Software zu haben...
Der Part, welcher CPU seitig rein für die Berechnungen der Daten zuständig ist, welche direkt von der Grafikkarte benötigt werden, wird sich von Spiel zu Spiel so extrem nicht unterscheiden.
Aber der Teil der Berechnungen, welcher für Zusatzfeatures ala KI, Physik, Sound und was auch immer ist, schwankt extrem stark.

Um jetzt mal das Beispiel BC2 zu nehmen. Ich kann mir zum Beispiel vorstellen, das die hohe CPU Last auf 4 Kern CPUs bei BC2 zum Großteil durch die Physik und KI Berechnung kommt. Das heist, nimmt man ne schwache Grafikkarte, so muss diese Berechnung nach wie vor getätigt werden wie auch bei ner sehr starken Grafikkarte. Rein CPU Auslastungstechnisch ändert sich also recht wenig. Eine sehr schwache Grafikkarte, welche die FPS stark limitiert wird die CPU Auslastung also nicht signifikannt senken. Dennoch kann die CPU trotz extremen GPU Limit immernoch limitieren, nämlich wenn diese zu schwach für die Berechnungen der Physik und KI in der Fall wäre...

In anderen Spielen kann und wird das massiv anders aussehen.

Das deckt sich übrigens auch mit meinen Erfahrungen der letzten Jahre über. Ich habe meine Workstation seit Jan. 2007. Die Grafikkarten wurden von Generation zu Generation erneuert, die CPUs nicht. Auslastungstechnisch ändert sich an den CPUs bei ein und der selben Anwendung wenig bis nix bei extremen GPU Leistungsanstieg.

Unterm Strich macht also das Vergleichen von sagen wir 20 Spielen bei mehreren hunderttausend am Markt verfügbaren Spielen wenig Sinn, wenn man nicht weis, was der Anwender schlussendlich überhaupt nutzt. Man erhebt nur einen statistischen Mittelwert über die genannten Spiele. Welcher aber in keinem Fall allgemeingültig ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh