[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Mir geht es auch nicht draum, dass du MS die Schuld gibst, aber hier wird gerne nach Windows-Patch geschrien oder wegen dem Scheduler-Problem lamentiert und wie gesagt, dass Problem dürfte AMD schon länger kennen, die sind ja nicht erst im März damit angefangen den zu entwickeln. ;)

Der neue Windows-Scheduler ist wahrscheinlich den allgemien geändereten Anforderungen für das verwalten von Threads geschuldet. Einen Turbo haben ja beide Hersteller inzwischen. :)

Bleibt aber noch die Frage offen, in wiefern das Potential momentan verschenkt
wird, wenn die Threadverteilung derzeit wirklich so ist, wie auf der vorherigen
Seite beschrieben.

---------- Beitrag hinzugefügt um 22:01 ---------- Vorheriger Beitrag war um 21:59 ----------

Wessen denn dann? Intel hat den Bulldozer nicht entwickelt. AMD hat es getan und die müssen sich dieser Problematik bewusst gewesen sein. ;)

Ich verstehe nicht ganz worauf du hinaus willst.
Deiner Meinung nach muss also AMD einen Sheduler für jedes OS bereitstellen,
wenn sie möchten, dass ihre CPUs voll unterstützt werden?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bester cherry pick ever, Respekt
Ich sprach auch ausdrücklich von Leistungspotenzial, falls du das wieder mal absichtlich überlesen haben solltest. Zudem ist das der einzige Test, den ich mit AVX und FMA bisher gesehen habe. Du darfst aber gerne weitere Anwendungen mit AVX und/oder FMA Support posten, damit wir einen aussagekräftigeren Überblick über das Leistungspotenzial bekommen. ;) Der Sachverhalt sollte doch klar gewesen sein. Wenn man die Möglichkeiten nutzt, die Bulldozer zu bieten hat, dann ist er deutlich potenter als ein bisheriger K10. Das wirst auch du nicht leugnen können. Auch wenn man als normaler Desktop User momentan vielleicht nicht viel davon hat.

Er wird auch im Desktop-Markt und muss auch da beweisen was er taugt.
Aber nur spezielle Modelle und nicht das Design oder die Architektur ansich.

Nein, ist es nicht. Etliche Tests belegen das ja nun. Cinebench ist aufgrund seiner Intel Affinität natürlich nicht sonderlich aussagekräftig, um das Leistungspotenzial von AMD wiederzugeben. Zudem hat es meines Wissens auch noch keinen AVX/FMA Support.

Vorher gab es keine Compute Unit
Doch, die hiessen nur einfach Kern. Das Design zielt ja genau darauf ab, den Durchsatz pro CU zu erhöhen, also mehr IPC pro Kern zu generieren. Da die Möglichkeiten mit ILP aber begrenzt sind, macht man es mit TLP. Macht Intel genauso. Nur bei denen nennt sich das Hyperthreading. ;) Der eigentliche Punkt war aber, es gibt nicht DIE IPC. IPC kann auf mehreren Ebenen betrachtet und ermittelt werden.

Das Teil kommt so in den Handel, also muss es sich auch so vergleichen lassen wie es ist.
Was trotzdem kein Urteil über das Design zulässt, wenn dieses noch unter Bugs leidet und damit Potenzial verschenkt.


Dann ist es aber - im Kontext dieses Forums - doch ein FAIL.
Woher willst du wissen, wie jeder einzelne User des Forums denkt? Viele tun hier so als wäre Bulldozer als gesamtes ein Fail. In Wirklichkeit sprechen sie aber von einem konkreten Modell (FX-8150), dessen Eindrücke sie anhand von ein paar Reviews gewonnen haben und anhand spezieller Anforderungen vergleichen.
 
@highwind
Fast richtig gebe es da nicht CF/ SLI .
Und wenn ihr von Gpu limits spricht gibt es nahe zu gleich starke Cpus die weit aus billiger sind die für eine Karte reichen.
Womit die Diskusion über Leistungsfähige Cpus dahin wäre.

Genau das wollte ich damit ausdrücken... nur leider bestehen auch heute noch viele Benchmarkpacoure zu mindestens 50% aus Spielen und dann teilweise mit "Highlights" wie Unreal Tournament in 1024x768 und ob dass dann mit 500 oder 700 FPS läuft (erfundene Zahlen) wird ernsthaft als relevantes Kriterium in die Wertung mit einbezogen.

Wenn man schon "Spieletauglichkeit" bei CPUs testen möchte, dann sollte man das unter Vorraussetzungen machen, die heutzutage relevant sind: CF/SLI oder Multi-GPU Karten am besten auf Multi-Screen-Setups... da haben wenigstens noch ein paar % der Leser was von, denn für Unreal Tournament oder 1024er Auflösungen kauft sich NIEMAND einen FX-8150 oder 2500K
 
Zuletzt bearbeitet:
Ich verstehe nicht ganz worauf du hinaus willst.
Deiner Meinung nach muss also AMD einen Sheduler für jedes OS bereitstellen,
wenn sie möchten, dass ihre CPUs voll unterstützt werden?

Nein sie müssen ihn nicht selber bereitstellen, aber sie haben sich offentsichtlich nicht dadrum gekümmert, dass zum Launch da Verbesserung da ist, so fern möglich. Es wäre AMDs Job gewesen sich zeitig im Microsoft in Verbindung zu setzen und zusammen an einer Lösung zu arbeiten. Microsoft muss nicht bei AMD anrufen und fragen "Braucht ihr irgendwo Hilfe?", aber bei einigen hier klingt das so. ;)
 
Nachdem heutigen Tag muss man doch ganz offen und ehrlich zugestehen das Bulldozer als wegweisendes Konzept für die Zukunft vorerst eine Sackgasse ist.
Eigentlich ist er genau das nicht:
Bei Anwendungen die viele Threads nutzen können (und das werden in Zukunft mehr und nicht weniger) ist er teilweise recht stark.

Doch genau das ist es leider :(
Eigentlich startet man mit einer guten IPC geringem Takt geringem Verbrauch und wenigen Cores am Anfang einer Architektur weil es nämlich das ist was man recht einfach aufbohren kann -> mehr Cores -> mehr Takt -> mehr Leistung

Beim Bulldozer seh ich aber genau das Gegenteil: viel Cores (die bei gutem Willen unter günstigen Umständen mal ausgelastet werden) hoher Takt hoher Verbrauch und geringe IPC und geringe Gesamtleistung....

Das ist doch wie auf Sand gebaut....wo soll denn da die Mehrleistung erzielt werden in Zukunft?
 
Eigentlich ist er genau das nicht:
Bei Anwendungen die viele Threads nutzen können (und das werden in Zukunft mehr und nicht weniger) ist er teilweise recht stark.

Der Großteil der "Anwendungen" bei denen er hingegen schlecht aussieht sind synthetische Benchmarks und Spiele, die oft so "eingestellt" wurden, dass die CPU Unterschiede deutlich werden... denn sind wir ehrlich, im Jahr 2011 spielt niemand mehr mit weniger als 1650er Auflösung und jeder halbwegs intelligente Gamer "tuned" seine Grafiksettings so weit es geht und das heißt beim Großteil der aktuellen Spiele, dass die GPU der limitierende Faktor ist.

Stromverbrauch geht trotzdem nicht klar und objektiv gesehen kommt die CPU auch fast ein halbes Jahr zu spät.

Schöner Kommentar! Sachlich geschrieben, damit es wirklich jeder kapieren sollte!

Mit Inhalt und ohne geflame, fast ein Wunder in diesem Thread. :hail:
 
Doch, die hiessen nur einfach Kern. Das Design zielt ja genau darauf ab, den Durchsatz pro CU zu erhöhen, also mehr IPC pro Kern zu generieren. Da die Möglichkeiten mit ILP aber begrenzt sind, macht man es mit TLP. Macht Intel genauso. Nur bei denen nennt sich das Hyperthreading. ;) Der eigentliche Punkt war aber, es gibt nicht DIE IPC. IPC kann auf mehreren Ebenen betrachtet und ermittelt werden.

Also da solltest du noch mal Rücksprache mit der Geschäftsleitung halten, die sagen nämlich, dass in jedem Modul zwei Kerne sitzen und laut Test geht denen relativ schnell die Luft aus... :wink:
 
Super wieso wird uns jetzt hier ein Benchmark im klaren GPU Limit gezeigt? Wo ein i7 26k @ default schneller als ein auf 4.8Ghz übertakteter (durch Messaufbau, Messungenauigkeit etc.) ist?
 
Eigentlich ist er genau das nicht:
Bei Anwendungen die viele Threads nutzen können (und das werden in Zukunft mehr und nicht weniger) ist er teilweise recht stark.

Der Großteil der "Anwendungen" bei denen er hingegen schlecht aussieht sind synthetische Benchmarks und Spiele, die oft so "eingestellt" wurden, dass die CPU Unterschiede deutlich werden... denn sind wir ehrlich, im Jahr 2011 spielt niemand mehr mit weniger als 1650er Auflösung und jeder halbwegs intelligente Gamer "tuned" seine Grafiksettings so weit es geht und das heißt beim Großteil der aktuellen Spiele, dass die GPU der limitierende Faktor ist.

Stromverbrauch geht trotzdem nicht klar und objektiv gesehen kommt die CPU auch fast ein halbes Jahr zu spät.

Der Bulldozer limitiert doch sogar in 1920 bei manchen Games :d. Das find ich dann eher ungünstig ;).
 
wieder 1000 Posts, die nur rumpalabern, es ist fakt, das AMD ne Tolle CPU gebaut hat, aber eben eine die nicht zu gebrauchen ist, mit Aktueller Software, das ist wie wenn Opel das Beste Auto der Welt bauen würde, nur es würde nciht auf unsere strassen passen,weils 3 meter breit ist !
 
da der i7 übertaktet sogar langsamer wird anstatt schneller kannst du davon ausgehen dass bei den benchmarks die gpu wohl stark limitiert

edit: mist 4 poster vor mir in der selben minute xD
 
Ich sprach auch ausdrücklich von Leistungspotenzial, falls du das wieder mal absichtlich überlesen haben solltest.
Dann hat ein Sandy Bridge mit AVX noch weit mehr Potenzial bei entsprechender Nutzung und am Ende sind wir wieder beim gleichen Punkt: SNB > Bulldozer
Nein, ist es nicht. Etliche Tests belegen das ja nun.
Dann zeige "etliche Tests" auf, die FX-8150 und Core i7-2600K in Sachen Performance und Leistungsaufnahme im gleichen (!) Benchmark vergleichen. Wie üblich wirst du vermutlich entweder keine "etlichen Tests" parat haben oder mich persönlich angreifen. Und nein, "etliche Tests" ist nicht ein cherry picked Test, sondern mehrere.
Das Design zielt ja genau darauf ab, den Durchsatz pro CU zu erhöhen, also mehr IPC pro Kern zu generieren.
Was bei einem Thread völlig ins Leere läuft und dieser pro Takt langsamer abgearbeitet wird als bei einem Phenom II. Von Sandy Bridge ganz zu schweigen.
Was trotzdem kein Urteil über das Design zulässt, wenn dieses noch unter Bugs leidet und damit Potenzial verschenkt.
Ich sehe kein AMD-Statement, welche dem Bulldozer Bugs attestiert. Du stützt dich auf ein Gerücht. Das heute releaste B2-Stepping muss sich ein aktuelles Urteil gefallen lassen.
 
Duplex, der Bench ist für die Tonne. Das solltest du doch eigentlich selbst gemerkt haben oder? :fresse:.

Edit: Sry, zu langsam^^.
 
Doch genau das ist es leider :(
Eigentlich startet man mit einer guten IPC geringem Takt geringem Verbrauch und wenigen Cores am Anfang einer Architektur weil es nämlich das ist was man recht einfach aufbohren kann -> mehr Cores -> mehr Takt -> mehr Leistung

Beim Bulldozer seh ich aber genau das Gegenteil: viel Cores (die bei gutem Willen unter günstigen Umständen mal ausgelastet werden) hoher Takt hoher Verbrauch und geringe IPC und geringe Gesamtleistung....

Das ist doch wie auf Sand gebaut....wo soll denn da die Mehrleistung erzielt werden in Zukunft?

Beim Verbrauch stimme ich dir wie schon gesagt zu.

Der Takt ist gering wenn man bedenkt was jetzt schon mit den ersten Modellen OC-technisch drin ist.
Die Pro-MHz Leistung ist nicht besonders gut, aber das gab es auch schon bei anderen CPUs die dann nach einigen Revisionen gut wurden (S478 P4s zb)

Und es gibt 4 Core FX-ler nur hat die keiner bis jetzt getestet (was ich sehr schade finde)
 
@Duplex
BF3 kannst du net Benchen vergiss es ich habe 4 Anläufe gemacht für den BF3 Beta Thread und kam nie zum selben Ergebnis ob wohl ich die selbe strecke abgelaufen bin waren teilweise bis zu 10 FPS unterschied da bei .
 
es ist fakt, das AMD ne Tolle CPU gebaut hat, aber eben eine die nicht zu gebrauchen ist, mit Aktueller Software, das ist wie wenn Opel das Beste Auto der Welt bauen würde, nur es würde nciht auf unsere strassen passen,weils 3 meter breit ist !

Das ist ja genauso wie zu sagen, der Bulli ist nicht langsamer, die Zeit läuft nur verkehrt herum :fresse:
 
Deshalb hatte ich meine CPU Ergebnis auch nie gepostet weil sie nicht Aussage kräftig waren.
Und man will sich ja nicht zum Horst machen im Forum oder sich irgend einen Shit aus den Fingern saugen.:wink:
 
Naja, der BF3 Bench zeigt uns eines sehr genau bzw. sehr gut:

Im GPU Limit ist es egal, ob X6 1100t, SB 2600K oder BD 8150.
Und da wir bei BF3 solange die Details hochstellen, bis es "noch" spielbar ist, sind wir zu 90% alle im GPU Limit. Dabei ist es egal ob SLI/CF oder nicht.
 
Naja, der BF3 Bench zeigt uns eines sehr genau bzw. sehr gut:

Im GPU Limit ist es egal, ob X6 1100t, SB 2600K oder BD 8150.
Und da wir bei BF3 solange die Details hochstellen, bis es "noch" spielbar ist, sind wir zu 90% alle im GPU Limit. Dabei ist es egal ob SLI/CF oder nicht.

Das sagt uns dann aber auch, dass sich von AMD der X6 mehr lohnt als der 90€ teurere 8150. ;)
 
Blender sieht auf dem BD gar nicht mal schlecht aus.
Sehe aber keinen Grund, von meinem X6 aufzurüsten.
Bei dem Transistor-Budget wär ein X12 drin gewesen.
 
Schöner Kommentar! Sachlich geschrieben, damit es wirklich jeder kapieren sollte!

Mit Inhalt und ohne geflame, fast ein Wunder in diesem Thread. :hail:

danke :)

Der Bulldozer limitiert doch sogar in 1920 bei manchen Games :d. Das find ich dann eher ungünstig ;).

aha, was denn?

wer als gamer >200 euro für einen fx-8150 (oder eine andere cpu) ausgibt sollte mindestens eine 6970 oder bessere grafikkarte im pc haben (alles andere wäre aus gamer-sicht unsinnig).
damit kann man 99% der aktuellen spiele problemlos in fullhd spielen.
 
Zuletzt bearbeitet:
danke :)



aha, was denn?

wer als gamer >200 euro für einen fx-8150 (oder eine andere cpu) ausgibt sollte mindestens eine 6970 oder bessere grafikkarte im pc haben (alles andere wäre aus gamer-sicht unsinnig).
damit kann man 99% der aktuellen spiele problemlos in fullhd spielen.

"Schon bei 1680 x 1050 wird die CPU zum Flaschenhals, und auch bei 2560 x 1600 reicht die Grafiklast nicht aus, um das Nadelöhr Richtung Grafikkarte zu verschieben."


Benchmarks: F1 2011 : AMD FX-8150 im Test: Der Bulldozer rückt an
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh