[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

ich kann immer noch nicht glauben das der Bulldozer in iergentwelchen Modernen Spielen einem Gleich Stark getaktetem Phenom II Unterlegen sein kann. das wäre nur durch eine ICP Verschlechterung möglich. Allerdings soll es im BD ja ICP Verbesserungen geben. daher sick logic :stupid:

oder gibts moderne spiele wo ein Conroe einem Sandy Überlegen ist ? wäre ja in etwa zu vergleichen.

Das Spiele ziemlich heftige Datenmengen sind, spielen eher Caches, I/O Geschwindigkeit, wie schnell Cache-Kohärenz hergestellt werden kann usw eine Rolle. IPC ist so ziemlich das Letzte, was ein Spiel benötigt. Siehe auch Cell oder die XBox360 CPU. Beide haben eine eher schlechte IPC, sind teilweise in-Order, aber beide sind massiv multithreaded.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
danke für die aufklärung. hier im forum fehlt leider eine "danke" funktion für jeden Post.

also hat intel seine mehrleistung nur durch besseren und dickeren Chache erhalten ?
 
Boxleitnerb hat sich auf diese Amd Officially Benches Bulldozer Aussage bezogen und diese bezieht sich nur aufs Spielen...
Nicht nur. Es wurden 2 Sachen getestet, einmal H.264 und ein Spiel.
First they showed a comparison between a new unspecified AMD FX processor and an unspecified Intel processor i5 Sandy Bridge, with the help of the program Handbrake a video of 5 minutes is converted to H.264 video in SD resolution. The AMD FX processor with eight cores perform this function with an average of 223 frames per second, the i5 with four cores came in at 188 fps. Both systems will be comparable in price according to AMD, which it wants to show that AMD a better price / performance offering.
Nehmen wir mal an, der i5 war ein i5-2400 oder i5-2500 System. Bei vergleichbarem Preis kann es eigentlich nur einer der kleineren FX-8xxx gewesen sein, also mit 2,8 oder 3,1 GHz. Die Relation der Werte würde dann übrigens auch in etwa zu den OBR x264 Ergebnissen passen.


Also doch nicht 100%...
Doch. AM3+ == Zambezi (Bulldozer Generation 1) Plattform.

Unklar ist noch, auf welcher Plattform Bulldozer Generation 2 (Piledriver Kern) läuft. Bisher war die Aussage FMx. Nun scheint man bei AMD allerdings die Pläne geändert zu haben, so dass der Zambezi Nachfolger (neu: Vishera, alt: Komodo) auch auf AM3+ läuft. Gesichert ist das aber noch nicht.


oder gibts moderne spiele wo ein Conroe einem Sandy Überlegen ist ? wäre ja in etwa zu vergleichen.
Nein, wäre es nicht. Sandy Bridge ist eine Nehalem Weiterentwicklung, welche wiederum eine Weiterentwicklung der Core Architektur ist. Diese Kernarchitektur wiederum geht über Pentium-M, Pentium 3, Pentium 2 zurück bis hin zum Pentium Pro. Bulldozer hingegen ist eine völlig neue Kernarchitektur. Die hat mit der bisheriger Kernarchitektur (K7, K8, K10) nichts mehr zu tun. Es kann also durchaus Fälle geben, wo man langsamer ist.


Das Spiele ziemlich heftige Datenmengen sind, spielen eher Caches, I/O Geschwindigkeit, wie schnell Cache-Kohärenz hergestellt werden kann usw eine Rolle. IPC ist so ziemlich das Letzte, was ein Spiel benötigt.
+1

Dazu kommt, dass sich das Auslastungsverhältnis dieser Komponenten bei unterschiedlichen Auflösungen (genauer bei unterschiedlichen Frameraten) ändern kann. Daher ist es alles andere als garantiert, dass ein System bei niedrigen Auflösungen genauso skaliert wie bei höheren Auflösungen. Es kann, muss aber nicht. Über Reserven sagen niedrige Auflösungen also nicht unbedingt etwas aus. Seiten, die sowas testen, wollen ihren Lesern sicherlich detailliertere Vergleiche bieten. Im Endeffekt verbreiten sie leider noch mehr Halbwissen. Daher macht es imo nur Sinn, in praxisnahen Auflösungen zu testen. Welche Reserven ein Prozessor bietet, testet man am besten mit normalen Anwendungen, die einen Prozessor auch wirklich auslasten können und wo wirklich nur dieser zum Flaschenhals wird. Wobei es auch da Variationen gibt. So kann man die Kernarchitektur, Caches oder auch die Speicheranbindung intensiver testen.
 
Was man aber machen kann, ist, sowohl niedrige Auflösungen als auch höhere zu testen und mit den höheren die Grafikleistung massiv zu steigern (z.B. durch SLI/CF).

Dann kann man schon festhalten, dass verschiedene CPUs bei höheren Auflösungen in etwa (!) genausoweit auseinanderliegen wie in niedrigen. Ich hab schon x-mal (vergeblich) auf die beiden Computerbase CPU-Tests hingewiesen. Einmal mit einer HD5870 und einmal mit einer GTX480. Ergebnis war, dass man die Abstände in 640x480 mit dem alten System nun näherungsweise auch auf hohe Auflösungen ausgeweitet hat. Man wäre sicher noch weiter dran gewesen, wenn man zwei 480er verbaut hätte (oder eine hypothetische GTX680/HD7970).

Das sind Fakten (harte Messwerte), die niemand verneinen kann. An den Cache und I/O-Theorien mag schlussendlich schon was dran sein, aber die Leute, die sich dahinterstellen, haben bis zum heutigen Tag keine Beweise oder weitergehenden Analysen gebracht, was sehr schade ist.

Weiterhin muss man nur mal in diesen Thread hier schauen:
http://www.hardwareluxx.de/communit...rschiedenen-cpus-taktung-782990-new-post.html

Da kommen Erkenntnisse bzgl. der Performance unterschiedlicher CPUs/Systeme raus, die man durch die "praxisnahen" Tests nie erhalten hätte, weil dort durch die hohe Grafiklast alles zusammengestaucht ist.

Sorry, aber es bleibt dabei. I/O, Caches haben sicherlich einen gewissen Einfluss, ja. Aber es ist immer noch die Grafikkarte, die in hohen Auflösungen idR am meisten gefordert wird von allen Komponenten im System. Und wenn man schon praxisnah benchen will, dann mit AA/AF - wobei da selbst gewisse Leute zustimmen müssen, dass sowas in einem CPU-Test rein gar nichts zu suchen hat. Also wozu so halbe Sachen? Entweder ganz "praxisnah" benchen oder eben die Grafikkarte möglichst stark entlasten.
 
Zuletzt bearbeitet:
das thema spiele und cpus ist sowieso eine ganz eigene sache
amd hat bei steigender aufloesung (ergo steigender grafiklast) immer aufgeholt. wohl wegen besserer chipsaetze. was man dabei aber nicht vergessen darf sind die minimum fps. hilft ja nix wenn der amd bei 2560x1440 zwar mehr avg. fps hat, dafuer die halben min fps eines intels. deshalb wirds wohl eine weile dauern bis man sich ueber den BD eine anstaendige meinung bilden kann.
Nene, das liegt an dem 50% größeren L1 und L2 Cache den AMD schon immer mehr gegenüber Intel hat. (Wenn L3 Cache vorhanden ist)
Die min. FPS sind bei hohen Auflösungen auch mehr von der GPU abhängig.
Bei Intel werden die min. und max. FPS immer mehr ausseinander gerissen.
Warum nutzen denn wohl sonst die cleveren Gamer einen FPS Limiter mit den Intel CPU´s?

MfG
 
Zuletzt bearbeitet:
http://www.techspot.com/review/403-dirt-3-performance/page7.html

Der i7 920 überbietet den 2600k. Der 980X den 920iger (normalerweise). BD sollte besser als der 980X sein = bei Dirt3 putzt der BD mit dem 2600k den Boden auf? Richtig verstanden?
Vergiss diese Benchmarks, die stimmen hinten und vorne nicht. Das was AMD gebencht hat, war GPU-Limit. Kein Bulldozer FX ist schneller als ein 980X in Dirt 3, das ist eine Messschwankung.

amd hat bei steigender aufloesung (ergo steigender grafiklast) immer aufgeholt. wohl wegen besserer chipsaetze. was man dabei aber nicht vergessen darf sind die minimum fps. hilft ja nix wenn der amd bei 2560x1440 zwar mehr avg. fps hat, dafuer die halben min fps eines intels
AMDs CPUs haben nicht aufgeholt, sondern die Intel-CPUs wurden von der Grafikkarte gebremst. Und die Minimum-Fps sind bei AMD sicherlich nicht doppelt so hoch ... diese orientieren sich idR an den Average Fps und da ist Intel seit 2006 in Front.
 
Vergiss diese Benchmarks, die stimmen hinten und vorne nicht. Das was AMD gebencht hat, war GPU-Limit. Kein Bulldozer FX ist schneller als ein 980X in Dirt 3, das ist eine Messschwankung.

Aha, weißt Du etwa mehr, als wir?
 
Ein Athlon mit 60mb L1 Cache wird auch keine Bäume aussreißen.
60 MB L1-Cache wäre so groß, dass allein aufgrund der auf maximal Lichtgeschwindigkeit limierten Signalgeschwindigkeit die Ansprechzeit viel zu lahm wäre.
In der Tat kann man aber festhalten, dass bei den Core-i Systemen die Caches schneller antworten als bei AMDs K10 und K8-Modellen. Keine Ahnung wie sehr sich das auswirkt.


Wenn Bulldozer-1 so richtig mies werden würde, steigen die Chancen das Bulldozer-2 noch mit Hypertransport-Anbindung kommt, also ohne großen Aufwand wohl auch auf AM3+ laufen würde. :d
 
Vergiss diese Benchmarks, die stimmen hinten und vorne nicht. Das was AMD gebencht hat, war GPU-Limit. Kein Bulldozer FX ist schneller als ein 980X in Dirt 3, das ist eine Messschwankung.

AMDs CPUs haben nicht aufgeholt, sondern die Intel-CPUs wurden von der Grafikkarte gebremst. Und die Minimum-Fps sind bei AMD sicherlich nicht doppelt so hoch ... diese orientieren sich idR an den Average Fps und da ist Intel seit 2006 in Front.

anscheinend habe ich mich unklar ausgedrueckt, oder du schlecht gelesen.

1. amds "holen" nicht auf. das meinte ich nie. amds haben bei steigender gpu last bessere karten. sprich ein und dasselbe game in 800x600 ist auf intel cpus meinetwegen 40% schneller. in 2560x1440 isses aber sehr oft so, dass der amd gleichzieht oder sogar vorne liegt.

guckstdu:
Phenom II X6 1055T and 1090T review
bei 1920x1080 ueberholt der amd x6 den 980x

du wirst das wahrscheinlich gleich "messungenauigkeit" nennen. ich nenne das beschissene (nicht gut skalierbare) architektur/chipsaetze bei intel ;)

2. sprach ich von geringeren min fps beim amd. nicht beim intel. lesen!!!
 
Zuletzt bearbeitet:
y33H@ schrieb:
Kein Bulldozer FX ist schneller als ein 980X in Dirt 3, das ist eine Messschwankung.

Soso :fresse:

Ich behaupte jetzt mal aufgrund von meinen internen Informationen, dass Bulldozer in Cinebench R11.5 5% vor dem i7 980X liegt.
 
Zuletzt bearbeitet:
Willst du auf diese internen Informationen wetten? :coolblue:

EDIT
du wirst das wahrscheinlich gleich "messungenauigkeit" nennen. ich nenne das beschissene (nicht gut skalierbare) architektur/chipsaetze bei intel.
Ich nenne das die bekannte Ausnahme Far Cry 2, die die Regel bestätigt ... ich messe das Gleiche und nur in FC2 und je nach Save in Anno 1404. Das war's. Ansonsten bedeutet GPU-Limit, dass alle CPUs maximal gleich schnell sind (sofern die CPU mehr leistet als das GPU-Limit erlaubt). Davon ab sind in dem verlinkten Bench alle CPUs in Full-HD praktisch gleichauf, das nennt sich - ja, Messungenauigkeit. Vor allem da der FC2-Bench eh gerne schwankt.
in 2560x1440 isses aber sehr oft so, dass der amd gleichzieht oder sogar vorne liegt.
Ich benche vermutlich mehr Spiele und CPUs als fast jeder andere auf dieser Welt und kenne das Verhalten von Spielen und CPUs im GPU-Limit ziemlich gut. Sehr oft ist eine meiner Ansicht nach nicht haltbare Aussage. Aber viel Erfolg beim Belegen, wenn ich mir nämlich die beiden anderen Spiele bei Guru3D anschaue, liegen alle CPUs in Full-HD gleichauf oder Intel vorne :shot:
 
Zuletzt bearbeitet:
was das interessante bei diesem AMD-bench ist, ist dass der i7 980x eben durch sein triple-channel-interface höher als ein 2600k liegen könnte. Ich will es mal nicht beschreien, viel kann man aus dem bench nicht ableiten, aber ich bin seit dem oc-wr und diesen kleinigkeiten überzeugt, dass der bd sein geld wert sein wird.

wer in der vergangenheit amd gekauft hat, kann es beim bd locker auch wieder tun. der prozzi wird spass machen. besseres oc sowohl beim prozzi als beim ram, eine spannende neue architektur, und in jedem fall nicht viel langsamer als die derzeitigen spitzenprozessoren, zu einem preis der ok ist, mit freiem multi usw... für mich passt es.

nur stromverbrauch bin ich noch gespannt, wenngleich zuversichtlich..
 
Bei Video-Rendering ist Triplechannel keine nennenswerte Hilfe. Nicht viel langsamer als ein "derzeitiger Spitzenprozessor" namens Core i7-990X ist nach aktuellen Leaks und dem i5-Benchmark von AMD völlig utopisch. Leider.
 
im video-rendering kam ein (nicht näher definierter) sandy-bridge zum einsatz, nicht der 980x.

990x oder 980x sind auch nur ein paar prozent unterschied. frage ist, was du unter "nicht viel langsamer" verstehst. aber auf die diskussion will ich mich gar nicht einlassen, ich hab inzwischen eine recht gute vorstellung davon was die stärken und schwächen des bulli ungefähr sein werden, mich stellt es zufrieden, daher juckt mich die diskussion nicht (mehr)
 
Zuletzt bearbeitet:
Für mich ist "nicht viel langsamer" ein Abstand von unter 10 Prozent - messbar, aber in der Praxis irrelevant. Ein Core i7-980X wäre [bei Multithreading] grob 45 Prozent schneller als ein FX-8150, wenn sich dieser tatsächlich zwischen i5-2500 und i7-2600 positioniert. Und das ist alles, aber keineswegs ""nicht viel langsamer". Unabhängig davon spricht mich ein Bulldozer ebenfalls an, mir graut's vor SNB(-E).
 
Davon ab sind's bei den Werten von AMD nur 2,3 Prozent ...
 
Für mich ist "nicht viel langsamer" ein Abstand von unter 10 Prozent - messbar, aber in der Praxis irrelevant. Ein Core i7-980X wäre [bei Multithreading] grob 45 Prozent schneller als ein FX-8150, wenn sich dieser tatsächlich zwischen i5-2500 und i7-2600 positioniert. Und das ist alles, aber keineswegs ""nicht viel langsamer". Unabhängig davon spricht mich ein Bulldozer ebenfalls an, mir graut's vor SNB(-E).

da gehst du von einem linearen scaling zwischen single- und multithreaded beim bulli aus. er hat aber eher singlethreaded schwächen, man weiss also noch nicht, wann er sich genau wo einordnet, und wie das dann mit 2600k vs. 980x zu vergleichen ist, von daher sehe ich das keineswegs als sicher an, dass er 45% unter dem 980x liegt.

die verschiedenen vergleiche werden interessant sein. es könnte sein dass sich der bulli in games eher beim 980x ansiedelt, obwohl es games gibt, die auf dem 980x schneller laufen als auf dem 2600k (beispielsweise wenn ramdurchsatz ins spiel kommt). das zusammenspiel von turbo und cmt wird unter umständen eine ganz andere performance-characteristik haben als das was wir bislang kennen und vorteile vom 2600k und 980x vereinen.

Die Demo von AMD zeigt insofern mindestens, dass man sich vorm Bulli nicht als Spaßbremse zu fürchten braucht ;) Games werden laufen, und decoden kann er auch :p

snb-e als sixcore wird den bulli in multithreaded benchmarks natürlich abledern. aber darauf kommt es garnicht so sehr an. gefühlte performance im multitasking, "snappiness" auch wenn man einige sachen laufen hat (beispielsweise mehrere game-fenster), interessiert mich fast noch mehr... zu einem guten preis (snb-e wird viel teurer und für zuhause eher unsinnig sein, ivy-bridge ist da ein viel größerer konkurrent zum bulli)
 
Willst du auf diese internen Informationen wetten?

Ja, ne kleine Wette schadet nie. :d
Ich sag je nach Board und Speicherausstattung 0 bis 10% Vorsprung in Cinebench vor dem 980X.

y33H@ schrieb:
ch nenne das die bekannte Ausnahme Far Cry 2, die die Regel bestätigt

Da gibt es deutlich mehr Ausnahmen, als nur Far Cry 2.
Bench mal im absoluten GPU Limit und vergleiche Sockel 1336, sowie Sockel 1156 CPU´s mit einem Phenom II x4.

Und laut meinen Quellen ist Cinebench R11.5 nicht Dirt 3..

Ich meine ja auch nicht den Dirt 3 benchmark.
Ich habe vor ca 5 Monaten mal eine kleine Folie für Leistungsprognosen aufgestellt. D.h.

Cinebench R11.5 X-CPU Reihenfolge:

FX-8150>i7 980X>i7 970>FX 8100>2600K>1100T>2500K :coolblue:
 
Zuletzt bearbeitet:
y33H@ schrieb:
mir graut's vor SNB(-E).

Kann ich mit deiner sonstigen Haltung bei Intel vs. AMD eigentlich nicht verstehen wieso es denn Bulldozer werden sollte.
Weniger IPC, wahrscheinlich höherer Verbrauch, halt n guter Preis.
 
Ich meine ja auch nicht den Dirt 3 benchmark.
Ich habe vor ca 5 Monaten mal eine kleine Folie für Leistungsprognosen aufgestellt. D.h.

Cinebench R11.5 X-CPU Reihenfolge:

FX-8150>i7 980X>i7 970>FX 8100>2600K>1100T>2500K :coolblue:

Dann solltest du das nicht als Antwort auf y33h@s Aussage zur Leistung des BD in Dirt 3 schreiben...
 
Ich hab schon x-mal (vergeblich) auf die beiden Computerbase CPU-Tests hingewiesen. Einmal mit einer HD5870 und einmal mit einer GTX480.
Und dich hat man schon x-mal (vergeblich) darauf hingewiesen, dass zwei solch unterschiedliche Vergleiche nicht viel aussagen. ZB GPU Architektur und Treiber sind hier völlig unterschiedlich. Und das hat auch Auswirkungen auf die CPU. Wie gesagt, Prozessorpotenzial mittels Spiele messen zu wollen, IST Murks. Da gibt's bessere Möglichkeiten. Man kann mit herkömmlichen Mitteln lediglich messen, ob ein Prozessor ausreichend dimensioniert ist für ein bestimmtes Spiel mit entsprechenden Einstellungen. Und mehr gibt es dazu eigentlich nicht zu sagen.
 
Zuletzt bearbeitet:
Und dich hat man schon x-mal (vergeblich) darauf hingewiesen, dass zwei solch unterschiedliche Vergleiche nicht viel aussagen. ZB GPU Architektur und Treiber sind hier völlig unterschiedlich. Und das hat auch Auswirkungen auf die CPU. Wie gesagt, Prozessorpotenzial mittels Spiele messen zu wollen, IST Murks. Da gibt's bessere Möglichkeiten. Man kann mit herkömmlichen Mitteln lediglich messen, ob ein Prozessor ausreichend dimensioniert ist für ein bestimmtes Spiel mit entsprechenden Einstellungen. Und mehr gibt es dazu eigentlich nicht zu sagen.

Erstens hast du nie auf diesen Hinweis geantwortet. Zweitens sollte der Einfluss dieser Dinge recht überschaubar sein.
Es ist nicht Murks, Spieleperformance von CPUs in Spielen (wenn das Grafiksystem nicht limitiert) zu messen :fresse:
Dass das auf andere Sachen übertragbar ist, hat keiner gesagt.
Ich bin übrigens gerade dabei BFBC2 zu benchen in 5 Auflösungen einmal mit einer 580 und einmal mit zwei. Und verschiedene CPU-Taktraten, um zwei (sonst wirds zuviel) unterschiedlich schnelle CPUs zu simulieren. Die Ergebnisse kannst du dir dann gerne ansehen und du wirst sehen, dass diese y33H@ und meine Behauptungen untermauern.
 
Euer Gezocke mal außen vor - wie wurden die 150 Takte für eine fcos-Instruktion eigentlich gemessen? fcos wird in eine Reihe von µOPs dekodiert und dann von den Ausführungseinheiten ausgeführt.

Misst man das nur Single-Threaded darf der genau-eine Thread die FPU-Einheit des Nachbarkerns mit nutzen. Alle Messprogramme die ich kenne, arbeiten Single-Threaded.
Multithreaded würde das ja noch übler aussehen, hat man doch dann noch weniger FPU-Resourcen zur Verfügung. Im schlimmsten Fall wären es dann 300 Takte für ein fcos - i486 lässt grüßen.
 
Erstens hast du nie auf diesen Hinweis geantwortet. Zweitens sollte der Einfluss dieser Dinge recht überschaubar sein.
Es ist nicht Murks, Spieleperformance von CPUs in Spielen (wenn das Grafiksystem nicht limitiert) zu messen :fresse:
Dass das auf andere Sachen übertragbar ist, hat keiner gesagt.
Ich bin übrigens gerade dabei BFBC2 zu benchen in 5 Auflösungen einmal mit einer 580 und einmal mit zwei. Und verschiedene CPU-Taktraten, um zwei (sonst wirds zuviel) unterschiedlich schnelle CPUs zu simulieren. Die Ergebnisse kannst du dir dann gerne ansehen und du wirst sehen, dass diese y33H@ und meine Behauptungen untermauern.

Für zwei GTX580 bringt es teilweise sogar was wenn man nen SandyBridge mit 5Ghz hat!
Bei starken GPUs ist leistung alles besonders wenn man zwei oder 3 GPUs hat die einen 120Hz Monitor mit 120FPS gefeueren sollen und das ohne einzubrechen!
Einen X6 oder X4 AMD könnte das nichtmal@ Vapochill schaffen was der SB unter luft macht!
 
Zuletzt bearbeitet:
Da gibt es deutlich mehr Ausnahmen, als nur Far Cry 2.
Bitte benennen und aufzeigen.

Kann ich mit deiner sonstigen Haltung bei Intel vs. AMD eigentlich nicht verstehen wieso es denn Bulldozer werden sollte.
Weniger IPC, wahrscheinlich höherer Verbrauch, halt n guter Preis.
Ich hab jahrelang dicke CPUs gekauft, vom Athlon XP/64 über Core 2 bis zum Core i7 - halt das, was schnell ist. Aber bei dem ganzen Crossplatform-Zeug muss es kein SNB-E sein [kein Bock auf 500+ Euro, geh ich lieber mit meiner Freundin in Urlaub] und ich habe "gehört", in BF3 macht sich ein FX-8150 ziemlich gut ... das reicht mir zusammen mit (m)einer GTX 580 :coolblue:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh