[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Ihr seid mal wieder abseits. Ich finde die Thematik, dass auf einmal Windows der Verursacher ist, an den Haaren herbeigezogen. Das sind wieder einmal reine Vermutungen, die es normalerweise nicht wert sind, darüber auch nur ansatzweise zu diskutieren. Das bringt erneut die Stimmung ins schwanken, was es zu vermeiden gilt. Also lasst dieses Thema nun bitte sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
alles absicht um zu provozieren, einfach den Thread meiden.

kann da nur zustimmen, oder die Leute, die sich hier ständig wiederholen einfach ignorieren.

PS: ich bin dafür, dass der Postcounter in diesem Thread abgeschaltet wird, dann ist hier ganz schnell ruhe ;)
 
@Unrockstar: Ich denke auch das AMD was gutes liefern wird.

Habe gerade mal eine erste Verbrauchsmessung meines 41xx unter Last @ 4000mhz @ 1.275v gemacht.
Mein Messgerät sagt 225 Watt unter Vollast im Prime Blend sowie Large FFT Test.

Im Idle zeigt mir das Messgerät 129 Watt an.
Dran hängen noch eine X-FI Fatality, 1 Plextor DVD Brenner, 2x500GB Hitachi HDDs, 1x OCZ Agility 3 SSD, Club 3D HD6970 sowie ein Asus Sabertooth 990FX.

Versorgt wird das System mit einem Be Quiet Pure Power 430 Watt.
C6 sowie C&Q ist ausgeschaltet...

Und was verbraucht die Kiste mit C&Q im Idle??

Glatte 100W mehr als mein System unter Last. (Prime Custom)
 
Die sinnlose Diskusion ob AMD oder Microsoft schuld hat, usw usw. ist überflüssig.
Das Bulldozer mit WIN 8 oder WIN 9 mit Sheduling und andere Software unterstützung besser laufen kann, kann ja ruhig mal erwähnt werden.

Genau wie bei den Spielen, es dauert halt nur, aber dennoch kein Grund eine neue Architektur oder Entwicklung zurückzuhalten
und zu warten bis alles andere so weit ist.

Elektroautos und andere Technologien werden auch schon auf dem Markt gebracht, auch wenn noch nicht voll ausgereift oder die Unterstützung, ( z.b Tankstellen) fehlen.
Die Unterstützung kommt doch meist erst hinterher und wenn nicht, Totgeburten gibt es immer.
Heute schon gelacht?
http://www.youtube.com/watch?feature=player_profilepage&v=CqTU4wVvZL0
 
Zuletzt bearbeitet:
Bei gleichem Takt hat der FX6100 keine Chancen

Dann sag das doch bitte dazu, anstatt pauschale Reden zu schwingen und Leuten recht zu geben, die pauschal sagen der FX-6100 wäre langsamer als der Phenom II 1055T.
Ich kann auch den Phenom II 980 mit einem Phenom I 9950 vergleichen und sagen, die sind bei gleichem takt ja nur gleichschnell, also ist das neue Produkt schlechter.

Anstatt 3D Mark 06 zu verlinken, nimm doch den CB Test, da werden aktuelle "echte" Spiele getestet und dort ist der FX-6100 bei gleichem Takt in Spielen 9% hinter dem 1075T.
Aber ohne Turbo und ohne DDR.1833, siehe doch selbst, also was gibt es da noch zu bereden in der Hinsicht?
Ich erinnere dich mal daran dass du der Threadersteller bist.
Außerdem wurde dort wieder nur die CPU simuliert, deswegen auch kein Turbo.



@ Terrier

Klar ist die Diskussion sinnfrei.
 
Zuletzt bearbeitet:
Wer unbedingt scharf auf weitere Post ist, sagt bitte bescheid.
 
AMD Bulldozer FX-8150 Processor Review - Page 15

Das is noch nichtmal full hd.
Wo macht die cpu wahl denn da noch einen unterschied in sachen spielbare Frameraten ?Nen Quad und gut is


Bei den ganzen konsolenports doch nich wirklich. Der bulli fällt halt nur in sachen Leistungsaufnahme unangenehm auf,
in 640x 480 sind Unterschiede zu bemerken oder bei Benchmarks.. aber beim normalen zocken ? glaub ich nich dran , außer man braucht die cpu power für nen quad sli oder sowas...

Find das ganze gebashe hier mehr als albern , wie kann man sich nur so mit seiner leistungsfähigeren Hardware brüsten und gegen den unterlegenen so nachtreten?
Ich würd hier Banns und Sperren wie Karnevalsbonbons verteilen , wenn ich was zu sagen hätte..^^

und nein ich habe selber nen Intel wenn mich jetz wer in die fanboiecke drängen will... pfft deutschland eben. Neid , missgunst und egomanie gibts hier halt schon mit der muttermilch.
 
Zuletzt bearbeitet:
AMD Bulldozer FX-8150 Processor Review - Page 15

Das is noch nichtmal full hd.
Wo macht die cpu wahl denn da noch einen unterschied in sachen spielbare Frameraten ?Nen Quad und gut is

.

Wollt hier eigentlich nichts mehr zu sagen aber wer hier nichtmal erkennt das hier ein absichtliches GPU Limit herbeigeführt wurde sollte doch gar nicht erst den Mund aufreisen

Na klingelts warum alle CPUs da den selben Wert haben


Ich würde auch so manchen bannen für den Bullshit der hier verbreitet wird

Nen Crysis Bench mit ner 460er Geforce die Seite sollte man unter Volksverdummung anprangern:wall:

So von mir aus kann ein Mod die Wahrheit wieder löschen ist ja an der Tagesordnung
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    187,1 KB · Aufrufe: 74
Zuletzt bearbeitet:
ja aber wo is das gpu limit denn relevant... Es wurde nur ne 460 FTW verwendet und dann aber nichmal full hd noch übertrieben AA.

Meinst für ne größere Karte greift dann kein Limit ?

Nehmen wir mal die bf.3 beta...
http://static.techspot.com/articles-info/448/bench/CPU_02.png
http://static.techspot.com/articles-info/448/bench/CPU_01.png


Dann zeig mir mal wo in Full Hd mit sagen wir 8x aa noch ein großer Unterschied in Sachen Fps bei Quads hex oder Octacores besteht... Das möcht ich sehen , dass dann die spielbarkeit dann bei gleichen settings nicht mehr gegeben ist.Sockel 1336 oder 1555 cpu zu BD...

Btw: dein ton is mehr als daneben.
 
Zuletzt bearbeitet:
ja aber wo is das gpu limit denn relevant... Es wurde nur ne 460 FTW verwendet und dann aber nichmal full hd noch übertrieben AA.

Meinst für ne größere Karte greift dann kein Limit ?


Ich hab keine Lust mehr mich mit dem Karnevall hier abzugeben macht euch doch die Benchmarks so das es passt für Bulldozerchen tschau
 
hast nix gefunden nä ? xD

Graphics Nvidia GeForce GTX 580 1.5 GB

crysis%201920.png

WOW was für ein unterschied.

Hier ist aus mir unerklärlichen Gründen ein relativ großer Unterschied, wobei ich den Test auch schon andersrum mit Bd als Sieger gesehen habe.
http://media.bestofmicro.com/M/2/310538/original/f1 2011 1920.png
Mit 60 fps wäre es aber immernoch gut spielbar.

Quelle:AMD Bulldozer Review: FX-8150 Gets Tested : AMD Sets The Stage For FX



Ich sag ja nich das nen Sandy Bridge nich schneller is , ich bin nur der Meinung dass die Grafikkarte , viel entscheidender is für spielbare Fps bei normalen Full Hd Settings.
Totaler Schrott , wie ihn hier einige gerne hinstellen möchten, is der BD aber auch nich.

trolldad.jpg
 
Zuletzt bearbeitet:
hast nix gefunden nä ? xD

Graphics Nvidia GeForce GTX 580 1.5 GB

crysis%201920.png

WOW was für ein unterschied.

Hier ist aus mir unerklärlichen Gründen ein relativ großer Unterschied, wobei ich den Test auch schon andersrum mit Bd als Sieger gesehen habe.
http://media.bestofmicro.com/M/2/310538/original/f1 2011 1920.png
Mit 60 fps wäre es aber immernoch gut spielbar.

Quelle:AMD Bulldozer Review: FX-8150 Gets Tested : AMD Sets The Stage For FX



Ich sag ja nich das nen Sandy Bridge nich schneller is , ich bin nur der Meinung dass die Grafikkarte , viel entscheidender is für spielbare Fps bei normalen Full Hd Settings.
Totaler Schrott , wie ihn hier einige gerne hinstellen möchten, is der BD aber auch nich.

trolldad.jpg

Darum gehts garnicht...auch hier liegt eindeutig ein GPU Limit vor, da auch eine GTX 580 in Full HD + HighRes Texturen an ihre Grenzen stößt.

Genau deswegen testet ma in niedrigen Aflösungen um zu sehen wie groß das vorhandene Potential der CPU ist, alles andere ist Quatsch.

Es geht auch nicht darum eine Game so zu testen wie man es spielen möchte, ob es so spielbar ist. Nein man will die CPU's mit einander vergleichen um zu sehen welche nunmal besser ist.

Wenn jetzt z.B. ein i7 2600 bei 640x480 500 Fps liefert und ein BD nur 400 Fps ist ganz klar natürlich der SB besser. Ihr könnt von mir aus auch die Ergebnisse umtauschen, mir egal. Beide schaffen jetzt bei Full HD usw. nur noch 50 Fps, also liegt hier ein GPU Limit vor.

Wenn ihr jetzt aber von nV eine GPU bekommen würdet, die 5x schneller ist, dann würdet ihr sehen, das man unter Full HD usw. evtl. mit dem SB 150 Fps schafft und mit dem BD nur 125 Fps oder so.

Nur darum geht es!
 
Wenn ihr jetzt aber von nV eine GPU bekommen würdet, die 5x schneller ist, dann würdet ihr sehen, das man unter Full HD usw. evtl. mit dem SB 150 Fps schafft und mit dem BD nur 125 Fps oder so.

Nur darum geht es!

jo das ist schon klar ... er wollte doch nur aufzeigen das es "praktisch" null unterschied macht (in gewissen fällen) und vor allem in spielen in full hd welche cpu in einem pc ihren dienst verichtet ...

wahrscheinlich auch deshalb weil hier immer von "drecks cpu,crap,fail usw. usw..." geschrieben wird.

das BD nicht der oberburner ist wissen mittlerweile alle aber deshalb muss man nicht seitenlang darüber herziehen wie es manche hier machen

und dann kommen noch benches in ner auflösung in der ich vor ~12 jahren gespielt habe ... (sorry aber solche benches interressieren mich persöhnlich überhaupt nicht)

und das preis zurzeit übertrieben ist das schrieb ich auch schon mal ABER wartet doch mal bis BD in ausreichender stückzahl lieferbar ist denn dann wird sich der preis auch anpassen.

@Duplex bitte gib den thread doch jemand anders der den weiterführt denn du bist hier völlig deplaziert ...

vor kurzem hattest noch ein X6 sys in deiner sig und nun labberst was von luschen und heizen sehr originell für einen der nen BD sammelthread führt :stupid:
 
Zuletzt bearbeitet:
hat jemand einen ~4,2 GHz Sandybridge zur Hand?
mein FX-8150 versenkt einen gleich getakteten(!) Bloomfield (der noch dazu schnelleren Ram hat) ja extrem - bei Singlethread Performance ;)
eventuell ist ja wirklich Windows die Wurzel allen Uebels beim Bulldozer.

siehe: http://www.hardwareluxx.de/community/f153/systester-benchmarks-846278.html#post17778411

rege Teilnahme erwuenscht!

Ich find den Ansatz toll :)

Wäre es evtl. möglich das du deinen FX jedoch etwas runterschraubst das er bei 4GHz liegt und dieses Ergebnis nochmal nachschiebst?
Ich würde das Ganze gerne mal schnell mit meiner CPU angehen und sehen wie sich die Entwicklung entwickelt hat.

Evtl. findet man dann auch einige User mehr die mitmachen, 4.2GHz schaffe ich mit meinem Silent Fimmel einfach nicht. Ok 14,636s werde ich auch nicht schaffen, aber hmmm evtl. um die 30?

Zyxx
 
Ich verstehe die Diskussion um die Leistung des BD in Verbindung mit der Auflösung nicht, ich kenne jedoch die zwei unterschiedlichen Philosophien.

Der eine testet CPUs mit 640x480, um eine Grafiklimitierung auszuschließen. Aber ganz ehrlich: Ich spiele weder BFBC2 noch BF3 noch Crysis noch Far Cry 2 noch CoD noch sonstwas, nichtmal Moorhuhn, in dieser Auflösung. Daher frage ich mich immer wieder, weshalb man diese Auflösung in Spielen wählt, um ein Urteil über eine CPU bzw. eine Architektur zu fällen. Es ist zwar sicherlich interessant, die Unterschiede zu sehen, solch eine Herangehensweise hat für mich aber absolut Null Praxisnutzen. Ergo bin ich der Meinung, sollte das Urteil nicht anhand eines solchen Tests festgemacht werden.

Es dürfte zudem auch klar sein, dass sich das Limit mit zunehmender Auflösung und zunehmendem Detailgrad immer weiter Richtung GPU verschiebt, bis irgendwann egal ist, welche CPU genutzt wird. Um dabei ein halbwegs verlässliches Bild zu zeigen, teste ich mittlerweile drei Auflösungen je Spiel: 1280x1024, 1600x1200 und 1920x1200. Jeweils mit hohen Details, aber ohne AA/AF, um eine komplette GPU-Limitierung zu vermeiden, andererseits aber dennoch halbwegs realistische Einstellungen zu nutzen.

So sollte meiner Meinung nach jeder Tester herangehen. Diese - in meinen Augen - praxisferne Auflösungen von 640x480 bzw. manchmal 800x600 sind heute einfach nicht mehr zeitgemäß und verzerren das Bild mehr, als sie helfen. In Zeiten von 30"-Monitoren mit 2560x1600 bzw. Eyefinity und Co. sollte man endlich mal umdenken.

Meine Meinung :wink:
 
Aber eben diese "alten" Auflösungen finde ich besonders interessant da ich somit genau sehen kann: "ok, bei garantiert nicht limitierender Grafikkarte ergibt sich bei der und der Engine folgende Leistung die zu 99% von der CPU bestimmt wird".

Den ganzen AA Schnickschnack und das Auflösungshochtreiben ist schön, aber bedingt nunmal eine Grafikkarte, keine CPU.

Aber das ist auch nur eine Möglichkeit die Leistung zu vergleichen. Andere Lösungen um AMD/Intel vergleichen zu können wäre wenn sich die beiden Firmen mal auf einen Test einigen würden der nachvollziehbar wäre und von unabhängiger Seite -am besten unter notarieller Aufsicht- bestätigt würde.

Solange es das nicht gibt habe ich kein Problem damit lieber einige Werte mehr zum neuen BD als einige zu wenig zu haben.
 
Zuletzt bearbeitet:
Aber eben diese "alten" Auflösungen finde ich besonders interessant da ich somit genau sehen kann: "ok, bei garantiert nicht limitierender Grafikkarte ergibt sich bei der und der Engine folgende Leistung die zu 99% von der CPU bestimmt wird".

Wie gesagt, interessant sind diese Werte sicherlich. Aber was kannst du von diesen Werten ableiten bzw. welche Konsequenz ergibt sich daraus für dich? Spielst du dann nur noch in dieser Auflösung? Mit niedrigen Details?

Denn selbst die CPU-lastigste Engine rückt mit steigender Auflösung näher an eine GPU-Limitierung, was der Praxis deutlich eher entspricht.



Den ganzen AA Schnickschnack und das Auflösungshochtreiben ist schön, aber bedingt nunmal eine Grafikkarte, keine CPU.

Inhaltlich ist der Satz ja korrekt, aber: Wenn man krampfhaft versucht, bei einem CPU-Review den Einfluss der Grafikkarte zu eliminieren, dann sollte man über einen Verzicht auf Spieletests nachdenken.

Wie gesagt, ich kenne diese Philosophie und den Ansatz dahinter. Nur hat diese Herangehensweise anno 2011 keinen Praxisnutzen mehr und sollte meiner Meinung nach stark überdacht werden.

Ich bin übrigens generell dieser Meinung, nicht erst seit AMDs Bulldozer. ;)
 
Wie gesagt, interessant sind diese Werte sicherlich. Aber was kannst du von diesen Werten ableiten bzw. welche Konsequenz ergibt sich daraus für dich? Spielst du dann nur noch in dieser Auflösung? Mit niedrigen Details?

Daraus ergeben sich ganz klar zwei Erkenntnisse:

1. Wie schnell wird die CPU in einer entsprechend vollständig CPU-limitierten Szene gegenüber anderen Modellen sein?

Im Optimalfall bencht man solche Szene natürlich direkt, nur ist das nicht immer reproduzierbar möglich. Wenn es eine Seite dennoch schafft, haben wir auf einmal selbst in voller HD-Auflösung solche Ergebnisse:

Jeux 3D : Total War Shogun 2, Starcraft II et Anno 1404 - AMD FX-8150 et FX-6100, Bulldozer dbarque sur AM3+ - HardWare.fr

Wie du siehst, ist der Kritikpunkt der gewählten Auflösung vollkommen irrelevant. Von mir aus kann in 3840x2160 gemessen werden - wenn die GPU-Leistung passt und die Szene den Prozessor richtig fordert, dass dieser die einzig limitierende Komponente darstellt, ist alles schick.

2. Im Mittel über viele vollkommen CPU-limitierte Benchmarks erhälst du einen Anhaltspunkt darüber, wie verschiedene* CPUs in zukünftigen Spielen oder an der Seite stärkerer GPUs abschneiden werden. Eine CPU muss ja nicht nur die zum Launch verfügbaren Spiele schultern, sondern auch die der kommenden 1, 2 oder 3 Jahre.

*Threadanzahl beachten

Denn selbst die CPU-lastigste Engine rückt mit steigender Auflösung näher an eine GPU-Limitierung, was der Praxis deutlich eher entspricht.

Selbst wenn die Praxis häufig zu weiten Strecken GPU-limitiert ist, entscheiden doch gerade die CPU-limitierten Stellen idR über die Spielbarkeit. Die CPU-Belastung kann man häufig kaum reduzieren, ganz im Gegenteil zur GPU-Belastung. Wenn ich also eine CPU kaufe, um für diese Stellen im gegebenen Budget bestmöglich gewappnet zu sein, brauche ich dafür entsprechend 100%ig CPU-limitierte Benchmarks.

Inhaltlich ist der Satz ja korrekt, aber: Wenn man krampfhaft versucht, bei einem CPU-Review den Einfluss der Grafikkarte zu eliminieren, dann sollte man über einen Verzicht auf Spieletests nachdenken.

Dann erhälst du auch keinen Anhaltspunkt über die Leistungsfähigkeit verschiedener CPUs in Spielen. Mit Cinebench bekommst du sicherlich nicht heraus, wie schnell ein Prozessor in Starcraft II o.ä. ist. Ja, richtige Spieletests sind für den Tester sicherlich zehnmal anspruchsvoller als ein x-beliebiger Anwendungsbenchmark. Das sehe ich aber nicht als Anlass, auf diese für die Zielgruppe essentielle Benchmarkkategorie zu verzichten.

Wie gesagt, ich kenne diese Philosophie und den Ansatz dahinter. Nur hat diese Herangehensweise anno 2011 keinen Praxisnutzen mehr und sollte meiner Meinung nach stark überdacht werden.

Ganz dickes rotes F dahinter. Diese Aussage ist einfach falsch. Ich erläutere mal wieder den Begriff CPU-Limit: Vollkommene Unabhängigkeit vom Einfluss anderer Komponenten, insbesondere der GPU. Im vollständigen CPU-Limit habe ich in jeder Auflösung identische fps. Egal ob 800x600 oder FullHD mit AA/AF.
 
so mein LEGENDÄRER BULLDOZER kam grad an. *zusammenbau*
 
Recht machen kannst eh nie allen, selbst wenn man reine CPU Anwendungstests rannimmt. Ausserdem hängen die teils auch von dubiosen Settings ab.
 
auf der CPU die steht Diffused in Germany :drool:

da kann man doch mal Stolz sein in diesem Land zu wohnen :)

AMD for the win :d
 
vor kurzem hattest noch ein X6 sys in deiner sig und nun labberst was von luschen und heizen sehr originell für einen der nen BD sammelthread führt :stupid:
Hab das X6 System immer noch und der läuft mit 4,2Ghz immer noch prima, kein grund sich einen FX zu kaufen!
 
Hallo Undertaker 1

was ist den wenn mal jemand eine CPU entwickelt die etwas inteligent ist und die sagt man der hat schon 200fps das reicht locker? ist diese CPU dann schlecht, nur weil sie in diesen Auflösungen dann letzter wäre. Der Praxis bezug für anno 800 auflösungen ist wie MusicIsMyLife sagte, einfach sehr fragwürdig in Zeiten von durchschnitt Full HD Auflösungen. Auch wenn jetzt wieder jeder um die Ecke kommt mit Limit aber genau das ist der Einsatz bei jedem Spieler? auch in diesem Scenario muss jeder CPU und Architektur zeigen was sie kann. Ist sie auch in der Lage seine "Rohleistung" unter diesen Spiele Anspruch abzuliefern? das kann man nicht ableiten auch diesen tollen 800 auflösungstest.

lg

@Nighteye
hee na dann los , viel spass
 
Daraus ergeben sich ganz klar zwei Erkenntnisse:

1. Wie schnell wird die CPU in einer entsprechend vollständig CPU-limitierten Szene gegenüber anderen Modellen sein?

Im Optimalfall bencht man solche Szene natürlich direkt, nur ist das nicht immer reproduzierbar möglich. Wenn es eine Seite dennoch schafft, haben wir auf einmal selbst in voller HD-Auflösung solche Ergebnisse:

Jeux 3D : Total War Shogun 2, Starcraft II et Anno 1404 - AMD FX-8150 et FX-6100, Bulldozer dbarque sur AM3+ - HardWare.fr

Wie du siehst, ist der Kritikpunkt der gewählten Auflösung vollkommen irrelevant. Von mir aus kann in 3840x2160 gemessen werden - wenn die GPU-Leistung passt und die Szene den Prozessor richtig fordert, dass dieser die einzig limitierende Komponente darstellt, ist alles schick.

OK, die Situation ist nachvollziehbar. Aber dein Beispiel zeigt eins: In zwei von drei Spielen fallen alle CPUs in absolut unspielbare FPS-Regionen zurück. Würde das als Maßstab dienen, müssten wir noch x CPU-Generationen abwarten, um überhaupt ein jetzt aktuelles Spiel spielen zu können. Zukünftige Spiele noch nicht eingeschlossen.

Das macht meinen Kritikpunkt aber noch lange nicht "völlig irrelevant", sondern schränkt diesen etwas ein. Mehr nicht.



2. Im Mittel über viele vollkommen CPU-limitierte Benchmarks erhälst du einen Anhaltspunkt darüber, wie verschiedene* CPUs in zukünftigen Spielen oder an der Seite stärkerer GPUs abschneiden werden. Eine CPU muss ja nicht nur die zum Launch verfügbaren Spiele schultern, sondern auch die der kommenden 1, 2 oder 3 Jahre.

*Threadanzahl beachten

Spiele entwickeln sich in der Regel auf grafischer Ebene weiter. Wenn man also heute ein System kauft und dieses nicht verändert, wird bei künftigen Spielen ein GPU-Limit immer wahrscheinlicher und diese Thematik immer unrealistischer.

Wenn man hingegen aufrüstet, dann wird von den meisten Leuten (beachte: ich schreibe nicht alle!) in etwa gleichmäßig aufgerüstet. Dass eine CPU etwas länger genutzt wird als eine GPU ist unstrittig, aber drei Jahre lang die GPU aufzurüsten während die CPU identisch bleibt, dürfte recht selten vorkommen.


Selbst wenn die Praxis häufig zu weiten Strecken GPU-limitiert ist, entscheiden doch gerade die CPU-limitierten Stellen idR über die Spielbarkeit. Die CPU-Belastung kann man häufig kaum reduzieren, ganz im Gegenteil zur GPU-Belastung. Wenn ich also eine CPU kaufe, um für diese Stellen im gegebenen Budget bestmöglich gewappnet zu sein, brauche ich dafür entsprechend 100%ig CPU-limitierte Benchmarks.

Diese Argumentation ist soweit richtig. Nur ist hier erneut die Frage, welche CPU du denn dann für aktuelle Spiele benutzt. Gemäß deines Links sind zwei der drei Spiele unspielbar - egal mit welcher CPU.



Dann erhälst du auch keinen Anhaltspunkt über die Leistungsfähigkeit verschiedener CPUs in Spielen. Mit Cinebench bekommst du sicherlich nicht heraus, wie schnell ein Prozessor in Starcraft II o.ä. ist. Ja, richtige Spieletests sind für den Tester sicherlich zehnmal anspruchsvoller als ein x-beliebiger Anwendungsbenchmark. Das sehe ich aber nicht als Anlass, auf diese für die Zielgruppe essentielle Benchmarkkategorie zu verzichten.

Auch richtig. Aber wieder: Wo liegt der Sinn, wenn ein Spielebenchmark, völlig unabhängig der verwendeten CPU, in unspielebaren FPS-Regionen, teilweise unter 10 FPS, liegt? Wenn ich von vornherein nur Ergebnisse produziere, die unspielbar sind, dann könnte ich erst recht auf Spieletests verzichten. Denn: Wenn keine CPU schnell genug ist, kritische Szenen im Spiel wegzustecken, dann müsste das Fazit lauten, dass auf die nächste Generation gewartet werden muss, wenn es ums Spielen geht (in der Hoffnung, dass diese CPU dann mehr Leistung liefert).

Nicht falsch verstehen: Ich würde auch nicht auf Gametests verzichten, diese Extreme sind aber mehr als fraglich.



Ganz dickes rotes F dahinter. Diese Aussage ist einfach falsch. Ich erläutere mal wieder den Begriff CPU-Limit: Vollkommene Unabhängigkeit vom Einfluss anderer Komponenten, insbesondere der GPU. Im vollständigen CPU-Limit habe ich in jeder Auflösung identische fps. Egal ob 800x600 oder FullHD mit AA/AF.

Danke für die Belehrung und die nette Schulnote. Das kann man auch anders rüberbringen.... :rolleyes:

Bevor ich mich hierzu äußere, würde ich gern die Aussage konkretisiert haben. Meinst du den Satz wortwörtlich? Also dass man im vollständigen CPU-Limit in jeder Auflösung identische FPS hat? Also 25 FPS in 640x480 sind ebenso 25 FPS in 2560x1600?

Ich kann diese Aussage weder beweisen noch widerlegen. Allerdings zweifle ich daran, dass dies bis auf die Nachkommastelle zutrifft. Denn mit zunehmender Auflösung werden die Datenmengen immer größer, sodass dies imho auch einen Effekt auf die Bildwiederholrate haben müsste. Wie gesagt - müsste - da ich es weder beweisen noch widerlegen kann.
 
wie erklärt sich das, das ne cpu die unter geringer auflösung schneller ist, aber bei höherer auflösung + aa/af wieder langsammer ist?

ich hab jetzt gerade kein konkretes beispiel zur hand....aber in der vergangenheit gab es schon solche fälle.

sofern muß das gpu limit auch einen einfluß auf das cpu limit haben!?
 
OK, die Situation ist nachvollziehbar. Aber dein Beispiel zeigt eins: In zwei von drei Spielen fallen alle CPUs in absolut unspielbare FPS-Regionen zurück. Würde das als Maßstab dienen, müssten wir noch x CPU-Generationen abwarten, um überhaupt ein jetzt aktuelles Spiel spielen zu können. Zukünftige Spiele noch nicht eingeschlossen.

Das macht meinen Kritikpunkt aber noch lange nicht "völlig irrelevant", sondern schränkt diesen etwas ein. Mehr nicht.

Ich finde es durchaus bedeutsam, ob man in einer Worst-Case-Schlacht beispielsweise 10fps oder 17fps hat. Im Umkehrschluss bedeutet das zum Beispiel auch, dass in einer halb so fordernden Situation 20fps gegen 34fps stehen.

Spiele entwickeln sich in der Regel auf grafischer Ebene weiter. Wenn man also heute ein System kauft und dieses nicht verändert, wird bei künftigen Spielen ein GPU-Limit immer wahrscheinlicher und diese Thematik immer unrealistischer.

Der Punkt bezog sich in erster Linie darauf, dass bei den meisten Nutzern die CPU eine deutlich längere Lebenserwartung als die GPU hat, die nunmal viel leichter aufzurüsten ist. Man beachten die immernoch vielen Core 2 Systeme! Wer damals gesagt hat, der Pentium D war im GPU-Limit doch auch nicht langsamer als ein E6600, wird mittlerweile ein recht böses Erwachen erleben.
Zum anderen, um auch denen Rechnungen zu tragen die parallel aufrüsten, kommt auch ohne GPU-Aufrüstung der Punkt der Einstellbarkeit hinzu: Wenn ich heute mit meiner GPU in 1920x1200 mit 8xAA flüssig spielen kann, muss ich in einem Jahr vielleicht auf 1680x1050 ohne AA zurückgehen. Während die CPU damals für flüssige 50fps genügte, sind es dann vielleicht nur noch 30fps. Die CPU-Anforderungen von KI oder Physik lassen sich häufig kaum senken, somit rutsche ich mit einem bestehenden System trotz stärker wachsender GPU-Anforderungen neuer Spiele u.U. in die CPU-Falle.

Das ist mir persönlich übrigens mit meinem letzten Notebook (2GHz Turion X2, HD3650M) passiert: Anfangs war alles in 1280x800 gut spielbar. Nach einigen Jahren genügte die CPU allerdings teils nicht mehr für spielbare fps-Raten, obwohl die Grafikkarte in 800x600 ohne AA/AF noch fast alles gestemmt hätte...

Diese Argumentation ist soweit richtig. Nur ist hier erneut die Frage, welche CPU du denn dann für aktuelle Spiele benutzt. Gemäß deines Links sind zwei der drei Spiele unspielbar - egal mit welcher CPU.

Das habe ich oben schon weitestgehend beantwortet. Zunächst einmal finde ich es recht provokant zu behaupten, dass es egal sei ob ich 10 oder 17 bzw. 7 oder 10 fps habe - gerade hier zählt jedes einzelne fps. Zum anderen handelt es sich um Worst-Case-Szenarien. In weiten Teilen des Spiels würden daraus Situationen, in denen 40-70% Leistungsdifferenz sehr wohl über flüssig oder nicht entscheiden.


Danke für die Belehrung und die nette Schulnote. Das kann man auch anders rüberbringen.... :rolleyes:

Bevor ich mich hierzu äußere, würde ich gern die Aussage konkretisiert haben. Meinst du den Satz wortwörtlich? Also dass man im vollständigen CPU-Limit in jeder Auflösung identische FPS hat? Also 25 FPS in 640x480 sind ebenso 25 FPS in 2560x1600?

Ich kann diese Aussage weder beweisen noch widerlegen. Allerdings zweifle ich daran, dass dies bis auf die Nachkommastelle zutrifft. Denn mit zunehmender Auflösung werden die Datenmengen immer größer, sodass dies imho auch einen Effekt auf die Bildwiederholrate haben müsste. Wie gesagt - müsste - da ich es weder beweisen noch widerlegen kann.

Sry, das sollte nicht persönlich gemeint sein. Nur predige ich hier seit Jahr und Tag Dinge, die eigentlich selbstverständlich sein sollten, wenn alle Hardwareseiten so sauber wie einige wenige arbeiten würden.

Die Aussage mit der fps-Gleichheit kannst du sehr wohl selbst beweisen. Vorgehensweise: Such dir ein extrem CPU-lastiges Spiel. Reduziere die Leistung deiner CPU deutlich, auf z.B. 2x 1GHz. Jetzt benche Auflösungen von 800x600 bis 1600x1200 oder auch darüber hinaus (Achtung, ein identisches Seitenverhältnis beachten). Wenn du über Variation der GPU-Taktrate sicherstellst, dass du im vollständigen CPU-Limit bist, werden die fps in jeder Auflösung identisch sein. :)
 
So sollte meiner Meinung nach jeder Tester herangehen. Diese - in meinen Augen - praxisferne Auflösungen von 640x480 bzw. manchmal 800x600 sind heute einfach nicht mehr zeitgemäß und verzerren das Bild mehr, als sie helfen. In Zeiten von 30"-Monitoren mit 2560x1600 bzw. Eyefinity und Co. sollte man endlich mal umdenken.

Meine Meinung :wink:
:bigok: Ich spiele auch selten unter 1920x1080 und soviel Details wie möglich.
Damit rennt mein System ruck zuck ins GPU Limit und genau hier lohnt sich dann auch Multi GPU.

Ganz fies: zu wenig FPS? Dann kauft euch ein Monitor mit kleinerer Auflösung. :fresse:

MfG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh