Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.

Zu diesem Hier:

Würde der Core 2 auf Grund seines angeblich limitierenden FSBs hinter dem Phenom liegen, muss der QX9770 deutlichst vor dem Q6600 mit weniger Cache und weniger FSB liegen. Der FSB ist eindeutig kein Limit, die Seite hat Mist gemessen.
Vorsicht mit der Schlussfolgerung, denn die ist totaler Quatsch. Der höhere FSB-Takt erhöht die BRANDBREITE, verringert aber nicht die LATENZ. Das hat THG im 9770 Artikel getestet. Die Latenz ist beim 9770 exakt dieselbe wie beim 9650 (der höhere Takt wird durch höhere Wartezyklen ausgeglichen), der FSB1600 ist also im Prinzip total überflüssig, da die Bandbreite ggü. FSB1333 hier sowieso nicht limitert. Die FSB-Latenz ist beim 9770 also exakt genausohoch wie beim 9650, ergo ist er auch exakt genauso schnell! Die Bandbreite war beim FSB noch nie das Problem, die Latenz ist es. Der IMC ist nur durch die kürzere Latenz zum Speicher schneller, die Bandbreite ist exakt gleich. Genau darum geht es aber bei grosser Datenlast.

Die Intelchipsätze schaffen ja nur so hohe FSBs (500MHz+), weil sie automatisch Wartezyklen einlegen und selber den Takt aushalten.

@dude:
Die SpaWas beim AM2+ sind so ne Sache. Die müssen sehr flexibel sein (90-45nm) und dürften nicht viel kosten. Natürlich leidet da die Effizienz und genau das sehen wir da auch. Superkompatibel hat auch Nachteile. Das wird bei AM3 ganz sicher effizienter, da diese nur 45nm und 32nm Support garantieren müssen.
Mit einem hast du auch recht: der AMD790FX mit seinen 42PCIe 2.0 Lanes liegt wohl auf dem Niveau eines MCP55 vom realen Stromverbrauch her. 42Lanes sind ne Menge Holz, das merkt man natürlich auch am Verbrauch. Die 8W waren wohl eher ne Ente damals. 20W TDP treffen es wohl eher ;). Die 8W gelten vllt für den RD780 aka AMD770 zu.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zu diesem Hier:


Vorsicht mit der Schlussfolgerung, denn die ist totaler Quatsch. Der höhere FSB-Takt erhöht die BRANDBREITE, verringert aber nicht die LATENZ. Das hat THG im 9770 Artikel getestet. Die Latenz ist beim 9770 exakt dieselbe wie beim 9650 (der höhere Takt wird durch höhere Wartezyklen ausgeglichen), der FSB1600 ist also im Prinzip total überflüssig, da die Bandbreite ggü. FSB1333 hier sowieso nicht limitert. Die FSB-Latenz ist beim 9770 also exakt genausohoch wie beim 9650, ergo ist er auch exakt genauso schnell! Die Bandbreite war beim FSB noch nie das Problem, die Latenz ist es. Der IMC ist nur durch die kürzere Latenz zum Speicher schneller, die Bandbreite ist exakt gleich. Genau darum geht es aber bei grosser Datenlast.

Die Intelchipsätze schaffen ja nur so hohe FSBs (500MHz+), weil sie automatisch Wartezyklen einlegen und selber den Takt aushalten.

Sry, aber das ist praktisch alles falsch:

1. Zusätzliche "Wartezyklen" bei höherem FSB gibt es nicht. Soetwas hat ein FSB als Bussystem auf seiner Übertragungsstrecke gar nicht, Wartezeiten gibts z.B. beim Speicherzugriff.
2. Hat en Phenom keine kürzere Speicherlatenz http://www.planet3dnow.de/vbulletin/showthread.php?t=326608&garpg=4
3. Ist die Bandbreite eben nicht exakt gleich, da hat der Core 2 je nach FSB weniger http://www.computerbase.de/artikel/...black_edition/3/#abschnitt_sisoft_sandra_xiic Wäre das allerdings ein Limit, würde der 9770 fast 50% vor einem Q6600 liegen. Du hast richtig erkannt, der Core 2 hängt (nicht zuletzt auf Grund der großen Caches) nicht sehr am Speicher
4. Das der höhere FSB keinen entscheidenden Einfluss auf die Speicherlatenz hat, bei konstantem Speichertakt natürlich, ist ebenfalls schnell erklärt: Im Verhältnis zur Latenz des Ram an sich ist die Verzägerung durch den FSB-Takt vernachlässigbar klein. Ganz Im Gegensatz dazu bei der In-Kern-Kommunikation über den FSB, hier sind die absoluten Laufzeiten um Größenordnungen geringer, dadurch hat hier die sinkende Latenz eines höheren FSB schon viel eher Einfluss auf die Gesammtlatenz. Wäre dies also ein Flaschenhals, würden a) sowohl der höhere FSB als b) natürlich auch der größere Cache der 45nm Modelle, der Latenzen besser verstecken kann, Auswirkungen zeigen.
5. Wenn der FSB, wie wir gerade geklärt haben, nicht limitiert, gibt es keine Gründe mehr warum der Phenom auf einmal in den genannten Fällen schneller sein sollte. Neben Zockers Test und dem von Fehlern strotzendem OC.Club Review ist er das aber auch nicht, damit wäre eigentlich alles klar :)
 
Zuletzt bearbeitet:
Bei WiC zeigt sich mir auch eine Ungereimtheit.



Zwischen 1024x768 und 1920x1200 exakt 0 fps Differenz beim Phenom. Das ist Unfug. Offensichtlich immer die gleiche Auflösung. Eigentlich genug, um so einen Test besser schnell zu vergessen. Genau das meine ich mit ein Test reicht nicht. Zum Glück sind die Fehler so offensichtlich, das es sich von selbst erledigt hat.

nur, weil beim penryn die Auflösung limitiert, muss das noch lange nicht beim phenom der Fall sein beim phenom kann auch x87- oder Int-Limit auftreten(oder kennst du den code von diesem Spiel?).

Gerade wenn die Architekturen sich so stark unterscheiden, ist es doch sehr offensichtlich.

Dass hohe Auflösungen dem Phenom nicht stören ist eig. sogar sehr wahrscheinlich, da durch HT3 & das native Quadcoredesign und die dadurch gute Cache-kohärenz auch bei großen Datenmengen kein Bandbreiten- oder Latenzlimit auftritt.
 
Zuletzt bearbeitet:
Dann sind für einen Phenom jetzt also Limitierungen der Grafikkarte egal? Die CPU wird auf einmal so schnell, dass die GPU ihre FPS schneller berechnen kann als ein Core2? Das passt doch vorne und hinten nicht... Und warum gibts diesen Fall nur in einem einzigen Review im gesammten Internet, und ansonsten haben wir bei jedem Test identische FPS alles CPUs am GPU-Limit? Dazu noch ein Test, in dem die Framerate bei dem Phenom mit steigender Auflösung z.T. sogar außerhalb jeglicher realistischen Messschwankungen steigt (ich hatte es vorhin verlnkt)...
 
AA ist nicht an.
Dann zeig mal wo die graka ihr fetch- oder fill-Limit hat bei der Auflösung.
 
Die FPS auf der Intelplattform sinken mit steigender Auflösung. Dies ist bereits der Beleg dafür, dass dort die GPU limitiert, denn für die CPU erhöht sich die Last durch eine Auflösungsänderung nicht. Ein Beispiel:



Alle 3 Grafikkarten, ganz besonders aber die GTX280, hängen bis 1920x1200 ganz klar am CPU-Limit. Wie man bei der 280 sieht, steigt die CPU-Last mit dem Wechsel von 1680x1050 nicht.

Wenn jetzt bei einem CPU-Test die FPS mit einem C2 bei steigender Auflösung sinken, müssen sie dies bei einer anderen CPU ebenfalls und zwar auf maximal gleiches Niveau, da durch den reinen Auflösungswechsel das GPU-Limit bewiesen ist.
 
Sry, aber das ist praktisch alles falsch:

1. Zusätzliche "Wartezyklen" bei höherem FSB gibt es nicht. Soetwas hat ein FSB als Bussystem auf seiner Übertragungsstrecke gar nicht, Wartezeiten gibts z.B. beim Speicherzugriff.
Wartezyklen gibt es in jedem Bussystem. Natürlich gibt es auch Wartezyklen beim FSB. Die Leitungen, die auf dem Board verlötet sind, sorgen für eine feste Latenz, die das FSB-Protokoll einhalten muss.
Was für ein Schwachsinnsgelaber. Der Phenom hat einen kürzeren Weg zum Speicher, da der FSB keinen Weg über das PCB zurücklegen muss. Der Phenom hat selbstredend eine kürzere low-level-Latenz. Der Core2 hat einen besseren (Pre-)fetcher, deshalb die kurze virtuelle Latenz. Dessen Leistungskapazität ist aber begrenzt und kann letztendlich nicht die tatsächlich physikalisch kürzere Latenz des Nehalem bzsw. K8/K10 ersetzen.
3. Ist die Bandbreite eben nicht exakt gleich, da hat der Core 2 je nach FSB weniger http://www.computerbase.de/artikel/...black_edition/3/#abschnitt_sisoft_sandra_xiic Wäre das allerdings ein Limit, würde der 9770 fast 50% vor einem Q6600 liegen. Du hast richtig erkannt, der Core 2 hängt (nicht zuletzt auf Grund der großen Caches) nicht sehr am Speicher
Wieder kompletter Schwachsinn. Der Phenom hat im Unganged-Mode sogar weniger physikalische Bandbreite als der Core2.
4. Das der höhere FSB keinen entscheidenden Einfluss auf die Speicherlatenz hat, bei konstantem Speichertakt natürlich, ist ebenfalls schnell erklärt: Im Verhältnis zur Latenz des Ram an sich ist die Verzägerung durch den FSB-Takt vernachlässigbar klein. Ganz Im Gegensatz dazu bei der In-Kern-Kommunikation über den FSB, hier sind die absoluten Laufzeiten um Größenordnungen geringer, dadurch hat hier die sinkende Latenz eines höheren FSB schon viel eher Einfluss auf die Gesammtlatenz. Wäre dies also ein Flaschenhals, würden a) sowohl der höhere FSB als b) natürlich auch der größere Cache der 45nm Modelle, der Latenzen besser verstecken kann, Auswirkungen zeigen.
Und nochmal Schwachsinn. Die Latenz des FSB ist physikalisch bedingt annähernd 1/2 der Speicherlatenz. Der Weg von der CPU zur Northbridge ist etwas geringer als der Weg zum Speicher und das FSB-Protokoll ist etwas effizienter. Du kannst die physikalischen Gegebenheiten nicht wegdiskutieren. Virtuell kann der Core2 das verdecken, physikalisch ist das schlicht unmöglich und unlogisch.
5. Wenn der FSB, wie wir gerade geklärt haben, nicht limitiert, gibt es keine Gründe mehr warum der Phenom auf einmal in den genannten Fällen schneller sein sollte. Neben Zockers Test und dem von Fehlern strotzendem OC.Club Review ist er das aber auch nicht, damit wäre eigentlich alles klar :)
Ja klar, Intel steigt um, weil der FSB kein Hindernis darstellt, sry aber :kotz:. Der Phenom ist deshalb schneller, weil er mehr Daten schneller im Speicher unterbringen und wieder laden kann, da die physikalische Latenz geringer ist. Was glaubst du, warum der K8 Opteron so wahnsinnig beliebt war? Er war die perfekte Datenbank-CPU. In diesem Segment hat der Core2 immernoch das Nachsehen. Warum? Weil er einen FSB hat. Intel betriebt einen riesen Aufwand mit Quad-Channel-Interface und Die-Monolithisierung (Tigerton ist ein monolithischer QuadCore) um ein ähnliches Ergebnis wie AMD zu erreichen - der Core2 mit seinem FSB alleine ist einfach zu langsam für grosse Datenmengen. Übrigens ist der Tigerton trotzdem noch im Nachteil ggü. dem K10, weil dieser auf billige Quad-Boards zurückgreifen kann (Board kostet <1000€).

Wenn du den Quatsch, den du da steif und fest behauptest, nachweisen willst, bring Low-Level Benchmarks. Sandra und wie sie alle heißen, können hier kein reales Leistungsbild liefern, weil sie keine realen Nachteile finden können und auf den Prefetcher "hereinfallen". Sicher ist der FSB ein grosses Hindernis. Nicht von der Bandbreite her, sondern einfach vom physikalischen Weg her, den die Daten mehr zurücklegen müssen auf dem PCB. Ob die Daten über ein PCB bzw. Träger müssen, entscheidet, ob im Falle des Core2 Quad im Vergleich zum Nehalem/K10, ob die Kohärenz-Latenz µs oder ns beträgt. Das ist ein ganz erheblicher Faktor, die dem K10 und dem Nehalem eine bessere Skalierung ggü. dem Core2 ermöglichen. Für die Speicheranbindung gilt ähnliches. Intel hat alles, was geht aus dem FSB herausgeholt, mehr ist aber nicht drin, ohne a.) die Stabilität zu gefährden und b) weil die Qualität der Impelementierung sonst zu hoch und zu teuer sein müsste für einen Mobo-Hersteller.
Der Weg von der CPU zum Speicher ist der einzige entscheidende Faktor für die Schnelligkeit des Speichers - Bandbreite ist praktisch immer im Überfluss vorhanden.

Und Bandbreitentests von Benchmarks können nur die Bandbreite anzeigen, die in einer gewissen Zeit erreicht werden kann. Das ist natürlich abhängig von der Latenz. Je höher die Bandbreite in einem Test ist, desto geringer ist die Latenz zum Speicher, denn desto mehr Speicherzugriffe schafft die CPU in der Zeit. Das ist etwas, das der Prefetcher des Core2 nur mit Mühe leisten kann.
Der Nehalem/K10 liefert doch nicht mehr Bandbreite, ganz im Gegenteil. Der K10 liefert im unganged-Mode sogar weniger, weil der unganged-Mode Single-Channel ist. Aber der K10 kann aufgrund der geringeren Latenz die Bandbreite viel besser nutzen als der Core2. Was glaubst du, warum Intel beim Nehalem die Architektur von AMD quasi kopiert, so verbiegt sich Intel normalerweise nicht, es sei denn, es ist wirklich nötig ;).

Und zum Schluss noch ein Nachweis, dass der FSB keinen Einfluss auf die Leistung hat, weil Intel die Latenz des FSB1600 an die des FSB1333 angepasst hat:
http://www.tomshardware.com/de/Intel-QX9770-X48-X38-QX9650,testberichte-239873-5.html

Dann sind für einen Phenom jetzt also Limitierungen der Grafikkarte egal? Die CPU wird auf einmal so schnell, dass die GPU ihre FPS schneller berechnen kann als ein Core2? Das passt doch vorne und hinten nicht... Und warum gibts diesen Fall nur in einem einzigen Review im gesammten Internet, und ansonsten haben wir bei jedem Test identische FPS alles CPUs am GPU-Limit? Dazu noch ein Test, in dem die Framerate bei dem Phenom mit steigender Auflösung z.T. sogar außerhalb jeglicher realistischen Messschwankungen steigt (ich hatte es vorhin verlnkt)...

Selbst in GPU-limiterten Spielen gibt es Stellen, die CPU-limitert sind. Das ist doch nicht homogen, sondern von vielen Faktoren abhängig. Der Benchmark zeigt eigentlich nur, dass der K10 unter grosser Datenlast effizienter arbeitet. Die Grafik fungiert quasi als Framelimiter.

Es gibt im Prinip kein reines CPU oder Grafiklimit. Das Limit ergibt sich aus der Komposition der Hardwarekomponenten, da ein Spiel eben kein homogenes Leistungsbild liefert, wie z.B. eine Datenbank.
 
Zuletzt bearbeitet:
Wartezyklen gibt es in jedem Bussystem. Natürlich gibt es auch Wartezyklen beim FSB. Die Leitungen, die auf dem Board verlötet sind, sorgen für eine feste Latenz, die das FSB-Protokoll einhalten muss.

Das hat miteinander nur leider gar nix zu tun.

Was für ein Schwachsinnsgelaber. Der Phenom hat einen kürzeren Weg zum Speicher, da der FSB keinen Weg über das PCB zurücklegen muss. Der Phenom hat selbstredend eine kürzere low-level-Latenz. Der Core2 hat einen besseren (Pre-)fetcher, deshalb die kurze virtuelle Latenz. Dessen Leistungskapazität ist aber begrenzt und kann letztendlich nicht die tatsächlich physikalisch kürzere Latenz des Nehalem bzsw. K8/K10 ersetzen.

Der physisch kürzere Weg stimmt in der Tat. Das was du allerdings als "virtuelle Latenz" bezeichnest ist viel mehr die reale Latenz, wenn man durchgutes prefetching in der Praxis letztlich doch das gleiche Resultat erzielt ist nur das entscheidend. Nehalem wird letztlich beide Vorteile kombinieren und nocheinmal einen weitaus schnelleren Zugriff besitzen.

Wieder kompletter Schwachsinn. Der Phenom hat im Unganged-Mode sogar weniger physikalische Bandbreite als der Core2.

Nocheinmal, die Theorie interessiert fü die praktische Performance Null. Nada. Niente. Real hat der Phenom mehr Bandbreite zur Verfügung, die er durch den im Vergleich kleinen Cache aber auch gut nutzen kann.

Und nochmal Schwachsinn. Die Latenz des FSB ist physikalisch bedingt annähernd 1/2 der Speicherlatenz. Der Weg von der CPU zur Northbridge ist etwas geringer als der Weg zum Speicher und das FSB-Protokoll ist etwas effizienter. Du kannst die physikalischen Gegebenheiten nicht wegdiskutieren. Virtuell kann der Core2 das verdecken, physikalisch ist das schlicht unmöglich und unlogisch.

Siehe oben. Auch hier wieder, theoretische Werte will ich hier gar nicht diskutieren, die interessieren nicht die Bohne. Siehe die TFlop-Diskussion bei GT200 vs. RV770.

Ja klar, Intel steigt um, weil der FSB kein Hindernis darstellt, sry aber :kotz:

Intel steigt um, weil der FSB im Multi-Sockel Betrieb bzw. perspektifisch auch Single-Socket mit mehr Kernen ein Hindernis ist bzw. werden würde. Um dies zu eliminieren sind immer weiter wachsende Caches nötig, was auf lange Sicht ein äußert unökonomischer Weg ist. Weiterhin bitte auch einfach nur genau lesen, es ging darum das der FSB im diskutierten Beispielfall keine Limitierung darstellt (da CPUs mit verschiedenen FSB-Takten ein und diesselbe Performance erzielen -> Bottleneck nicht an dieser Stelle)

Wenn du das nachweisen willst, bring Low-Level Benchmarks. Sandra und wie sie alle heißen, können hier kein reales Leistungsbild liefern, weil sie keine realen Nachteile finden können und auf den Prefetcher "hereinfallen".

Das ist ein Widersruch in sich. Low-Level spiegelt in keinster Weise eine reale Performance wieder, ein Programm wie Sandra geht einfach nur den gewünschten Weg über das schlaue Prefetching. Dieses bewusst zu umgehen, ist praxisirrelevant.

Sicher ist der FSB ein grosses Hindernis. Nicht von der Bandbreite her, sondern einfach vom physikalischen Weg her, den die Daten mehr zurücklegen müssen auf dem PCB. Ob die Daten über ein PCB bzw. Träger müssen, entscheidet, ob im Falle des Core2 Quad im Vergleich zum Nehalem/K10, ob die Latenz µs oder ns beträgt. Das ist ein ganz erheblicher Faktor, die dem K10 und dem Nehalem eine bessere Skalierung ggü. dem Core2 ermöglichen. Für die Speicheranbindung gilt ähnliches. Intel hat alles, was geht aus dem FSB herausgeholt, mehr ist aber nicht drin, ohne a.) die Stabilität zu gefährden und b) weil die Qualität der Impelementierung sonst zu hoch und zu teuer sein müsste für einen Mobo-Hersteller.
Der Weg von der CPU zum Speicher ist der einzige entscheidende Faktor für die Schnelligkeit des Speichers. Bandbreite ist praktisch immer im Überfluss vorhanden.

Das habe ich nie bestritten. Ich widersetze mich aber wehement deiner Theorie, abstrakte physikalische Einzelwerte zu vergleichen. Real erreicht der C2 eine identische Zugriffszeit wie der K10, und nur genau das zählt. Auf die Multi-Sockel Diskussion will ich mich jetzt gar nicht einlassen, aber hier kannst du mit einem Vergleich der letzten Xeon-Generationen sehr gut sehen, wie der angehobene FSB die Skalierung mit mehreren Sockeln verbessert hat. Hier bringt die Bandbreite dann doch etwas, schau dir einfach die entsprechenden Tests dazu in der c't an.

Und Bandbreitentests von Benchmarks zeigen nur die Bandbreite an, die in einer gewissen Zeit erriecht werden kann. Das ist natürlich Abhängig von der Latenz. Je höher die Bandbreite in einem Test ist, desto geringer ist die Latenz zum Speicher,

Grober Unfug. Bandbreite und Latenz müssen in keinerlei Zusammenhang zueinander stehen, ich kann alle 10ns ein Datenpaket übertragen oder alle 20ns zwei, gleiche Bandbreite steht hier doppelter Latenz gegenüber.

denn desto mehr Speicherzugriffe schafft die CPU in der Zeit. Das ist etwas, das der Prefetcher des Core2 nur mit Mühe leisten kann.
Der Nehalem/K10 liefert doch nicht mehr Bandbreite, ganz im Gegenteil. Er liefert im unganged-Mode sogar weniger, weil der unganged-Mode Single-Channel ist. Aber er der Nehalem/K10 kann aufgrund der geringeren Latenz die Bandbreite viel besser nutzen als der Core2. Was glaubst du, warum Intel beim Nehalem die Architektur von AMD quasi kompiert, so verbiegt sich Intel normalerweise nicht, es sei denn, es ist wirklich nötig ;).

Zuerstmal war der IMC mit Sicherheit keine AMD-Erfindung :haha: Und dann nochmal was zu deiner Bandbreiten-Theorie und das ja nur Latenz etwas bringt:



Wie man sieht wird erstmal der C2 durch den FSB bzgl. der Speicherbandbreite limitiert. Der A64 kann erwartungsgemäß den höheren Speichertakt auf Grund der direkten Anbindung in eine höhere nutzbare Bandbreite ummünzen.



Nun schauen wir uns an was passiert: Die sinkenden Speicherlatenzen von 200MHz 3-2-2-5 auf z.B. 400MHz 3-3-3-9 kaum 5% Mehrperformance. Der A64, welcher zusätzlich zu kürzeren Latenz die höhere Bandbreite nutzen kann, legt gleichzeitig über 20% zu. Man sieht, hier limitiert nicht die Latenz sondern die Bandbreite, beim Core2 allerdings zusätzlich durch den großen Cache abgemildert.


Und zum Schluss noch ein Nachweis, dass der FSB keinen Einfluss auf die Leistung hat, weil Intel die Latenz des FSB1600 an die des FSB1333 angepasst hat:
http://www.tomshardware.com/de/Intel-QX9770-X48-X38-QX9650,testberichte-239873-5.html

Wie auch, ohne das der Speichertakt im gleichen Maß erhöht wurde ;) Eine Verbreiterung eines Wasserrohres lässt am Ende auch nur dann mehr herausströmen, wenn ich erstmal eine höhere Menge einströmen lasse um die zusätzliche Kapazität zu nutzen ;) Bzgl. Wartezyklen weißt du damit gar nix nach.

Selbst in GPU-limiterten Spielen gibt es Stellen, die CPU-limitert sind. Das ist doch nicht homogen, sondern von vielen Faktoren abhängig. Der Benchmark zeigt eigentlich nur, dass der K10 unter grosser Datenlast effizienter arbeitet. Die Grafik fungiert quasi als Framelimiter.

Es gibt im Prinip kein reines CPU oder Grafiklimit. Das Limit ergibt sich aus der Komposition der Hardwarekomponenten, da ein Spiel eben kein homogenes Leistungsbild liefert, wie z.B. eine Datenbank.

Das hat keiner bestritten. Dann ist es im Umkehrschluss aber unsinnig, dass der Phenom mit sinkender Auflösung kein einziges FPS mehr liefert, wenn die Grafikkarte als wie du schon richtig sagtest "Framelimiter" entlastet wird. Das ist ein klarer Messfehler in diesem Test, und das nicht der einzige.
 
Zuletzt bearbeitet:
Das glaube ich dir gerne, also schieß mal los was das sei soll :) Ihr redet hier vom FSB, der kann es nicht sein wenn alle Core2 mit verschiedenen FSBs auf gleichem Niveau liegen. Wo also soll der Flaschenhals sein?
Wie bereits gesagt, muss das nicht nur einen Grund haben. Vielleicht liegts einfach daran, das beim Intel alles über diesen einen FSB läuft, also Speicherzugriffe(ziemlich großer Anteil glaub ich), Kernsynchronisation und jegliche Kommunikation mit der Periferie. Das könnte dazu führen, das ein höherer FSB sich nur noch im Bereich der Messungenauigkeit bemerkbar macht.
Klaro. Es wurde fast überall von den großen Vorteilen der 64bit-Unterstützung des Athlon 64 gesprochen, alle waren begeistert und es war eines DER Kaufargumente. Nur haben die meisten User sich die 2003 einen A64 gekauft haben bis heute nix davon ;)
Also ich will ja nicht gleich wieder meckern, aber was hat denn der 64bit Hype mit meinem Post zu tun?!? Es wurde schon so viel Gehypet, aber selten wurde so wehement versucht etwas schlechter dastehen zu lassen als heutzutage AMDs CPUs...
 
Zuletzt bearbeitet:
Nur mal so nebenbei, Sandra verwendet sehr ausgiebig proprietären Code. Dh, man kann nicht sicher CPUs unterschiedlicher Hersteller oder CPUs unterschiedlicher Generationen vergleichen. Das funktioniert weitestgehend zuverlässig nur innerhalb ein und derselben Generation. Zudem ist die Speicherlatenz, besonders bei Intel, auch sehr stark vom Chipsatz abhängig. Und dass der K10, wie auch schon der K8, eine geringere Speicherlatenz hat, sollte kein Geheimnis sein. Das ist nun mal der Witz an einem IMC und wird in diversen Tests auch immer wieder bestätigt. Siehe zB Everest.
Zur Not kannst du das auch selbst mal testen. Bei CPU-Z gibt es ua ein Latency Tool. Das verwendet vor allem auch unterschiedliche Paketgrössen, so dass Prefetching weitestgehend eliminiert wird. Nur mal zum Vergleich, ich habe zwar keinen Phenom oder Yorkfield hier, kann dir aber zumindest die Vergleichswerte eines Core2 (T5500) und eines K8 (3500+) Systems nennen. Beides natürlich mit identischen Settings getestet (1,66 GHz, DDR2-667 5-5-5-15). Erstes liegt oberhalb des L2 bei ~165 Zyklen, zweites bei ~100 Zyklen. Und je höher die Speicherlast ist, sequenzieller bzw random Zugriff haben ebenfalls einen Einfluss, umso ausschlaggebender wird dieser Unterschied. Und das ist "real". ;)
 
Zuletzt bearbeitet:
Das hat miteinander nur leider gar nix zu tun.
Nur mal so ein kleines Geheimnis nur für dich: Wartezyklen erhöhen die Latenz. Aber sags niemandem weiter :lol:
Der physisch kürzere Weg stimmt in der Tat. Das was du allerdings als "virtuelle Latenz" bezeichnest ist viel mehr die reale Latenz, wenn man durchgutes prefetching in der Praxis letztlich doch das gleiche Resultat erzielt ist nur das entscheidend. Nehalem wird letztlich beide Vorteile kombinieren und nocheinmal einen weitaus schnelleren Zugriff besitzen.
Nein. Die reale Latenz lässt sich mit anderen Tools, die die reale Latenz auch messen, ermitteln. Z.B. mit CPU-Z. Probier es mal aus, wir können ja einen extra Thread dafür ausmachen. Und, oh Wunder, der Phenom wird ca. 1/3 schneller sein.
Nocheinmal, die Theorie interessiert fü die praktische Performance Null. Nada. Niente. Real hat der Phenom mehr Bandbreite zur Verfügung, die er durch den im Vergleich kleinen Cache aber auch gut nutzen kann.

Siehe oben. Auch hier wieder, theoretische Werte will ich hier gar nicht diskutieren, die interessieren nicht die Bohne. Siehe die TFlop-Diskussion bei GT200 vs. RV770.
Was eigentlich interessiert, ist, wie die praktische Performance zustande kommt, um überhaupt interprätieren zu können, was diese überhaupt für eine Aussage hat. Wenn dich das nicht interessiert, kannst du das Diskutieren gleich ganz lassen...
Intel steigt um, weil der FSB im Multi-Sockel Betrieb bzw. perspektifisch auch Single-Socket mit mehr Kernen ein Hindernis ist bzw. werden würde. Um dies zu eliminieren sind immer weiter wachsende Caches nötig, was auf lange Sicht ein äußert unökonomischer Weg ist. Weiterhin bitte auch einfach nur genau lesen, es ging darum das der FSB im diskutierten Beispielfall keine Limitierung darstellt (da CPUs mit verschiedenen FSB-Takten ein und diesselbe Performance erzielen -> Bottleneck nicht an dieser Stelle)
Das kann der FSB auch leisten. Der FSB kann x CPUs und einen Chipsatz verbinden. Warum bekommt wohl beim Tigerton eine CPU einen doppelten FSB bzw. jeder CPU-Kern seinen eigenen FSB und warum ist Tigerton wohl monolithisch? Je mehr CPUs, desto mehr Wartezyklen, desto höher die Latenz. Tigerton umgeht das, indem er den FSB als Punkt-zu-Punkt-Verbindung nutzt. Es ist einfach unglaublich, was Intel da für einen Aufwand reingesteckt hat. Genau deshalb steigt Intel um. Ein IMC ist in datenlastigen Anwendungen einfach viel, viel performanter.
Das ist ein Widersruch in sich. Low-Level spiegelt in keinster Weise eine reale Performance wieder, ein Programm wie Sandra geht einfach nur den gewünschten Weg über das schlaue Prefetching. Dieses bewusst zu umgehen, ist praxisirrelevant.
Um reale Performance überhaupt interprätieren zu können, muss man wissen, was da vor sich geht. Die low-level-Performance ist kein Geheimnis, da kommt jeder drauf. Der Phenom hat eine um 1/3 niedriegere reale Speicherlatenz.
Das habe ich nie bestritten. Ich widersetze mich aber wehement deiner Theorie, abstrakte physikalische Einzelwerte zu vergleichen. Real erreicht der C2 eine identische Zugriffszeit wie der K10, und nur genau das zählt. Auf die Multi-Sockel Diskussion will ich mich jetzt gar nicht einlassen, aber hier kannst du mit einem Vergleich der letzten Xeon-Generationen sehr gut sehen, wie der angehobene FSB die Skalierung mit mehreren Sockeln verbessert hat. Hier bringt die Bandbreite dann doch etwas, schau dir einfach die entsprechenden Tests dazu in der c't an.
Nein das tut er nicht. Real ist er 1/3 langsamer pro Zugriff. Virtuell gleicht der (pre)fetcher diesen Malus wieder aus. Nur deshalb bekommst du identische Ergebnisse. Der Algorithmus wird mit purer Absicht genau darauf angepasst sein. Das sagt dir aber garnichts, nur, dass der C2D-Prefetcher begrenzt, nämlich genu bei diesem Algorithmus, genauso schnell auf Daten zugreifen kann. Das ist nicht repräsentativ für andere Situationen, ganz im Gegenteil.
Grober Unfug. Bandbreite und Latenz müssen in keinerlei Zusammenhang zueinander stehen, ich kann alle 10ns ein Datenpaket übertragen oder alle 20ns zwei, gleiche Bandbreite steht hier doppelter Latenz gegenüber.
Dazu muss man erstmal begreifen was Sandra überhaupt testet. Sandra testet im Bandbreitentest nicht die Bandbreite, das ist der ganze Witz bei der Geschichte. Sandra testet, wieviel Bandbreite bei der aktuellen Latenz mit Einfluss des (Pre)fetchers bei dem verwendeten Testalgorithmus zur Verfügung steht, sonst garnichts. Das hat für andere Anwendungen überhaupt keine Aussagekraft, weil da völlig anders geartete Datenzugriffe durchgeführt werden. SiSoft ist dafür bekannt, seine Benchmarks genau auf die vorhandene Hardware auf dem Markt optimal anzupassen. Teste mal uralte Sandra-Versionen, mit denen bekommst du andere Effekte, weil das andere Algorithmen sind.
Zuerstmal war der IMC mit Sicherheit keine AMD-Erfindung :haha: Und dann nochmal was zu deiner Bandbreiten-Theorie und das ja nur Latenz etwas bringt:[...]
Kann mich nicht erinnern, das behauptet zu haben. Nur du begreifst den eigentlichen Sinn des IMC einfach nicht, oder willst es nicht begreifen.
[...]Das hat keiner bestritten. Dann ist es im Umkehrschluss aber unsinnig, dass der Phenom mit sinkender Auflösung kein einziges FPS mehr liefert, wenn die Grafikkarte als wie du schon richtig sagtest "Framelimiter" entlastet wird. Das ist ein klarer Messfehler in diesem Test, und das nicht der einzige.
Was macht ein Framelimiter? Er schneidet die oberen FPS-Bereiche ab. Was bleibt übrig? Die unteren FSB-Bereiche. Und hier ist der Phenom offensichtlich besser... genau das zeigt der Bench. Das ist kein Messfehler. Diese Ergebnisse kommen doch nicht von Zauberhand zustande... der Rechner ist schneller, die Frage ist, warum... ;).

ev-writeftq.gif

Das ist Everest. Everest nutzt einen anderen Algorithmus als Sandra, ist aber im Prinzip ähnlich. Everest misst, wieviel Bandbreite bei aktueller Latenz und Prefetcher bei genau diesem Algorithmus erreicht werden kann, er misst weder nur Bandbreite noch nur Latenz.
Bei der realen, hohen, FSB-Latenz kann Everest nicht mehr Bandbreite des Speichers ausnutzen, deshalb ist die Linie da unten schon abgeschnitten. Der Prefetcher kann hier auch nicht mehr die miese Latenz ausgleichen, weil der Algorithmus dem Prefetcher offensichtlich nicht liegt und der C2D hier keine Vorteile daraus ziehen kann. Der Athlon kann durch die viel geringere Latenz die vorhandene Bandbreite des Speichers bei diesem Algorithmus jedoch halbwegs optimal nutzen. Der FSB hat eine deutlich höhere Bandbreite als das, was da gemessen wurde. Nur kann diese aufgrund des verwendeten Algorithmus nicht erreicht werden. Um zu begreifen, was da passiert, muss man Bandbreite und Latenz auseinanderhalten und wissen, wie diese zusammen bei einer High-Level-Anwendung interagieren.

hl2smk.gif


Man sieht recht gut, wie sich der oben festgestellte Effekt auf Halflife überträgt. Nur arbeitet hier der Prefetcher deutlich effizienter. Der C2D hat die Daten bereits vorliegen (im Cache) und kann sie verarbeiten, während der Athlon erst Speicherzugriffe fahren muss. Anders als bei Everest werden hier aber keine Daten gestreamt, sondern oftmals dieselben Daten aus dem TLB geladen. Hier ist der grosse L2-Cache des C2D im Zusammenhang mit dem mächtigen Prefetcher sehr stark im Vorteil. Die Speicherzugriffe des Athlon sind zwar schnell, aber immernoch ca. 10x so langsam wie der L2-Cache des C2D. Der C2D läd bevor der Speicherzugriff nötig wird und hat dadurch garkeine Latenz. Deshalb ist der C2D hier schneller. Das ist im Prinzip auch der riesige Vorteil des C2D. Er kann die Daten früh genug effizient besorgen, sodass die Anwendung sofort rechnen kann, ohne dass ein Speicherzugriff erfolgt. Dieses Prinzip gerät bei MT aber aus den Fugen und versagt bei andauernden Datentrasfer komplett, wobei es auch hier wieder auf die Art des Datentransfers ankommt, es ist also wichtig, wieviel gerechnet werden muss. Bei Everest wird nur gestreamt, hier hat der K8 den Vorteil, bei einem Videocodierer z.B. wird mehr gerechnet, hier hat der riesige L2 des C2D im Zusammenhang mit dem Prefetcher wieder den Vorteil. Der C2D ist der optimale DualCore, aber die optimale QuadCore sind hier nur K10 und Nehalem. Hier lässt sich nichts mehr durch den Prefetcher ausgleichen, hier zählt die reale Latenz. Deshalb ist der Nehalem wie der K10 vom Prinzip her designt.

Wenn man jetzt noch ne Schippe drauflegt und neue MT-Games vergleicht, wird das Verhalten durchaus erkärbar. Wenn ein Thread die Oberhand behält, also dauerhaft limitierend wirkt, kann der C2D-Prefetcher wieder gewinnen. So sind 90% der DualCore Games designt. Hier entlasten Hilfsthreads den Hauptthread, der Hauptthread limitiert aber das Game (Anno1701, C&C3, Quake 1.4 usw.). Hier bleibt der C2D aufgrund seiner Architektur der Gewinner, weil der seine Recheneinheiten besser auslasten kann. AC, LP und die ganzen XBox-Titel sind aber anders. Hier gibt es keinen Thread, der einzig limitiert, dafür wäre ein Kern der XBox-CPU zu schwach (die sind in-order, wie der Atom!). Deshalb muss hier die Arbeit effizient auf die 6 virtuellen Kerne verteilt werden. Hier kann der Prefetcher des C2D schlechter herausfinden, welche Daten grade gebraucht werden. Deshalb funktioniert er hier nur teilweise effizient. Läuft es gut, ist das Ergebnis sehr gut und L2 mit Prefetcher funzen wieder. Kommt was unvorhergesehenes, wird ein laaaanger Speicherzugriff fällig, und das ganze Gebilde bricht in sich zusammen. Somit kann man sehr gut schlussfolgern, was hier eigentlich passiert!
1.) Während der K10 die Daten im L3-Cache behält, weil der die Kohärenz der Kerne sicherstellt, hat er mehr Daten schon im L3, die der Core2 diese jedesmal neu aus dem Speicher holen müsste.
2.) Wenn der K10 Daten aus dem Speicher holen muss, weil er sie nicht hat, holt der Core2 die Daten um 1/3 langsamer rein.
Dadurch erklärt sich auch das Leistungsbild der Core2 ggü. dem K10. Wenns beim Core2 gut läuft, übertrifft er den K10 um längen, die FPS rasen bis zum GPU-Limit hoch. Wenns beim Core2 schlecht läuft, wird er langsamer als der K10, weil er die Daten erst langwierig reinholen muss. Wie gesagt passiert das nur bei massivem MT. Aber genau das erlärt das homogenere Leistungsbild des K10 ggü. des Core2 bei entsprechenden Games, und das erklärt noch mehr, warum Intel den Nehalem so designt hat. Man hat versucht, AMDs Architektur mit den Core2-Vorzügen zu verschmelzen. Das Ding wird sicherlich gut, aber beim Core2 braucht man nichts mehr beschönigen. Ggü. dem K10 ist er veraltet.
 
Zuletzt bearbeitet:
Was macht ein Framelimiter? Er schneidet die oberen FPS-Bereiche ab. Was bleibt übrig? Die unteren FSB-Bereiche. Und hier ist der Phenom offensichtlich besser... genau das zeigt der Bench. Das ist kein Messfehler. Diese Ergebnisse kommen doch nicht von Zauberhand zustande... der Rechner ist schneller, die Frage ist, warum... ;).

Undertaker schrieb:
Dann ist es im Umkehrschluss aber unsinnig, dass der Phenom mit sinkender Auflösung kein einziges FPS mehr liefert, wenn die Grafikkarte als wie du schon richtig sagtest "Framelimiter" entlastet wird. Das ist ein klarer Messfehler in diesem Test, und das nicht der einzige.

Nochmal lesen und verstehen. Wir schneiden die oberen FPS-Bereiche ab. Der Phenom liefert eine gewisse FPS-Zahl. Nun verschieben wir unsere Schnittgrenze durch das Absenken der Auflösung nach oben. Die zuvor abgeschnittenen Bereiche fließen mit ein, der Mittelwert der FPS steigt. Und jetzt schauen wir nochmal auf das Bild und sehen, dass eben genau dies nicht passiert.

http://www.abload.de/image.php?img=unbenanntj3o.png

-> Messfehler

Hast du jetzt deinen Denkfehler gefunden?
 
Die verwendete 8800 GT wird selbst schon bei den hier getesteten niedrigen Auflösung (aber Very High Quality +16*AF) sehr stark gefordert (http://www.tomshardware.com/de/Geforce-8800GT-G92,testberichte-239864-25.html) .

Wenn man diese Features (Quality + AF) abstellen würde hättest du auch deinen gewünschten Effekt.

Wie bereits einigen Post voraus gepostet zeigt der X3 in diesem Bench ein ähnliches homogenes Leistungsbild

http://www.overclockersclub.com/reviews/amd_phenom_x3_8750/12.htm
 
Cooler Vergleich, wenn man sieht, das drei Intel CPU´s 45nm haben und eine sogar
geoc´st ist. Dann ist da noch ein 65nm Intel und ein 65nm Phenom, wobei beim Phenom
das B2 Stepping zum tragen kommt. Und noch was 3200 MHz, 2660 MHz und 2400 MHz
Intel gegen 2300 MHz AMD. Sehr Aussagekrätig.
So lieben wir es.
 
Cooler Vergleich, wenn man sieht, das drei Intel CPU´s 45nm haben und eine sogar
geoc´st ist. Dann ist da noch ein 65nm Intel und ein 65nm Phenom, wobei beim Phenom
das B2 Stepping zum tragen kommt. Und noch was 3200 MHz, 2660 MHz und 2400 MHz
Intel gegen 2300 MHz AMD. Sehr Aussagekrätig.
So lieben wir es.

Kannst du mir erklären was daran nicht aussagekräftig sein soll? :hmm:
Ich verstehe nämlich deinen Beitrag irgendwie nicht, du schreibst nur das die verschiedene Fertigungsgrößen ( Die nichts mit der Performance zutun haben) und unterschiedliche Taktraten haben.
 
Zuletzt bearbeitet:
Die verwendete 8800 GT wird selbst schon bei den hier getesteten niedrigen Auflösung (aber Very High Quality +16*AF) sehr stark gefordert (http://www.tomshardware.com/de/Geforce-8800GT-G92,testberichte-239864-25.html) .

Wenn man diese Features (Quality + AF) abstellen würde hättest du auch deinen gewünschten Effekt.

Deswegen ist die 8800GT aber nicht in allen Auflösungen gleich schnell. Sieht man auch gut an den Core2 in den niedrigeren Auflösungen, dass dort die 8800GT den Phenom nicht komplett beschneiden kann. Insofern zwangsläufig unmöglich, dass dieser in allen Settings die gleichen FPS liefert.


Sehr guter Link. Der Vergleich X4-9600 vs. X3-8750 zeigt weitere Unstimmigkeiten dieses Reviews :) Das kann man also wirklich komplett in die Tonne werfen :)
 
Natürlich wird AMD bei den tests benachteiligt! Das war schon immer so. Auch zu PentiumD zeiten wurden immer benches rausgeholt in denen ein PentiumD vor nem Athlon 64 fx war und im fazit als die über-cpu dargestellt wurde.

Trotzdem hat intel im moment die besseren cpus, allerdings hinkt der phenom bei weitem nicht so hinterher wie es viele reviews zeigen, das beweisen zahlreiche user-erfahrungen.



Das gleiche sieht man auch oft bei den grakas, da wird auch Nvidia bevorteilt. Möchte gar nicht drauf ansprechen was mit Assasins Creed geschehen ist, für mich schon ein skandal!
 
Ich denke ihr haltet Sandra für irrelevant? Die kürzere Latenz der C2 dort wird ja auch nicht akzeptiert ;) Und dann schreibt die Seite noch sowas:

"The X3 held on strong, but was demolished by the Intel Core 2 Duo in the Multi Core Efficiency tests."

Ein Punkt, dem nicht mal ich zustimmen würde ;) Also entweder man erkennt ein Review als seriös an oder nicht, aber der Rosinenpickerei werde ich mich nicht anschließen. :)
 
Der Sandra Test weist je lediglich darauf hin das der TLB Patch aktiviert ist und dadurch die schlechten Perfomancewerte in WiC des X4 zu erklären sind. Oder warum meinst du ist der X3 dort über den X4 so übertrieben besser?

Hat nichtmal wer einen Phenom mit einer halbwegs passablen Graka und WiC dann könnten wir dieser Diskussion mal ein Ende bereiten.
 
Zuletzt bearbeitet:
Der Sandra Test weist je lediglich darauf hin das der TLB Patch aktiviert ist und dadurch die schlechten Perfomancewerte in WiC des X4 zu erklären sind. Oder warum meinst du ist der X3 dort über den X4 so übertrieben besser?

Hat nichtmal wer einen Phenom mit einer halbwegs passablen Graka und WiC dann könnten wir dieser Diskussion mal ein Ende bereiten.

Geht der Benchmark mit der WiC-Demo? Oder kann man mit der Demo nicht benchen?
 
Der Sandra Test weist je lediglich darauf hin das der TLB Patch aktiviert ist und dadurch die schlechten Perfomancewerte in WiC des X4 zu erklären sind. Oder warum meinst du ist der X3 dort über den X4 so übertrieben besser?

Hat nichtmal wer einen Phenom mit einer halbwegs passablen Graka und WiC dann könnten wir dieser Diskussion mal ein Ende bereiten.

Können wir auch so :)

http://www.computerbase.de/artikel/...black_edition/20/#abschnitt_world_in_conflict
 
ja nur ist das eine einzige auflösung und das bringt uns nicht weiter.

ich kann gerne benchen müsst mir nur sagen was, und in welchen settings.

ich hoffe mal ein Phenom 9750 und 3870 reichen.

kann dann heut abend testen.
 
Zuletzt bearbeitet:
Bench doch einfach die Tests aus dem hier strittigen Review

Also

1024*768 Very High Qualtiy 0*AA + 16*AF
1280*1024 Very High Qualtiy 0*AA + 16*AF
usw.
 
ok mache ich heute abend gegen 20-22 Uhr.

im test wird zwar ne 8800GT verwendet aber 3870 sollte da vergleichbar sein.

kann mir jm entsprechende Benchmarks/Demos verlinken oder braucht man dafür die Vollversion?
 
Zuletzt bearbeitet:
ja nur ist das eine einzige auflösung und das bringt uns nicht weiter.

Warum? Es zeigt doch nur, das eben alle CPUs unter einem GPU-Limit praktisch gleich schnell sind. Weder Takt noch Architektur ist von Bedeutung, sofern eine gewisse Mindestleistung erreicht ist. Das zeigen übrigens auch dutzende andere Reviews, ich hatte auf den letzten Seite bereits mehrere verlinkt.

Gegen einen Gegentest spricht natürlich nix, aber dafür müssten wir Nutzer mit zumindest gleicher Grafikkarte finden.
 
Nochmal lesen und verstehen. Wir schneiden die oberen FPS-Bereiche ab. Der Phenom liefert eine gewisse FPS-Zahl. Nun verschieben wir unsere Schnittgrenze durch das Absenken der Auflösung nach oben. Die zuvor abgeschnittenen Bereiche fließen mit ein, der Mittelwert der FPS steigt. Und jetzt schauen wir nochmal auf das Bild und sehen, dass eben genau dies nicht passiert.

http://www.abload.de/image.php?img=unbenanntj3o.png

-> Messfehler

Hast du jetzt deinen Denkfehler gefunden?

Wir verschieben den Framedurchschnitt nach unten, indem wir die Auflösung anheben, dadurch werden die oberen Bereiche abgeschnitten. Das bedeutet, dass die unteren Framebereiche mehr Einfluss auf die avg. FPS haben, weil die oberen Bereiche einfach fehlen. Beim Phenom werden die oberen FPS-Bereiche, also das GPU-Limit, einfach nie erreicht, weil er stets limitiert. Beim Core2 werden die "guten" Berieche einfach jeweils ein Stück mehr abgeschnitten, weil diese am GPU-Limit hängen. Die oberen Bereiche des Core2 müssen ziemlich krass höher sein als die des Phenom, desswegen verhält sich der Benchmark so. Das erklärt das gesamte Verhalten des Phenom in niedrigen Auflösungen ggü. des Core2 sogar ziemlich gut. Wenn 640x480 gebencht wird, ist der Core2 sehr oft erheblich schneller, was sich in höheren Auflösungen aber egalisiert bzw. umkeht. Aber schon das egalisieren zeigt eigentlich deutlich, dass die Min-FPS-Bereiche des Phenom mindestens gleich sein müssen, sonst würde es auch in höheren Auflösung "Absacker" geben, die einen kleinen Performancenachteil ergeben würden. AVG-FPS sind doch keine fixen Angaben, die kommen aus der Summe aller FPS zustande. Wenn der Core2 durch Cache+Prefetcher teilweise die Daten schon vorliegen hat, teilweise aber am langsameren Speicherzugriff durch massiv-MT oder durch unvorhersehbare "Ereignissen" leidet, die bei Spielen wahrscheinlich öfter vorkommen, als in jedem anderen Programm, ist es einfach logisch, dass die Höhen und Tiefen beim Core2 deutlich heftiger ausfallen müssen. Genau das sieht man eigentlich überall. Es gibt keinen "Messfehler". Es passiert doch nichts ohne Grund in einem Computer. Die Gründe für das Verhalten zu erforschen ist doch grad das Spannende an der Sache. Das kann man nicht einfach so als "komisches Verhalten" abtun.
 
Zuletzt bearbeitet:
Wir verschieben den Framedurchschnitt nach unten, indem wir die Auflösung anheben, dadurch werden die oberen Bereiche abgeschnitten. Das bedeutet, dass die unteren Framebereiche mehr Einfluss auf die avg. FPS haben, weil die oberen Bereiche einfach fehlen. Beim Phenom werden die oberen Bereiche nie erreicht, weil er stets limitiert.Beim Core2 werden die "guten" Berieche einfach jeweils ein Stück mehr abgeschnitten, weil diese am GPU-Limit hängen. Die oberen Bereiche des Core2 müssen ziemlich krass höher sein als die des Phenom, desswegen verhält sich der Benchmark so. Es gibt keinen "Messfehler". Es passiert doch nichts ohne Grund in einem Computer. Die Gründe für das Verhalten zu erforschen ist doch grad das Spannende an der Sache. Das kann man nicht einfach so abtun.

Die min-FPS sind nur leider kein bisschen besser:

http://www.pcgameshardware.de/aid,6...797696&article_id=637625&page=1&show=original

Die Quads untereinander verhalten sich bei den min-FPS äquivalent zu den avg und somit auch max-FPS.


Edit: Übrigens, hier erkennt man auch gut die starken Schwankungen bei den min-FPS, die Benchmark-Demo läuft wohl wirklich nicht 100% identisch ab (gerade Dinge wie Himmel o.ä. sind wohl zufallsgeneriert).
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh