[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Multano
genau wie Dich interessiert mich der Stromverbrauch mehr als overclocking. Da scheint der 6100 gefühlsmäßig gar nicht so schlecht dazustehen.
Frage: wie sieht es mit dem undervolten aus? Gibt es irgendwo schon verlässliche Aussagen?
 
Das Problem ist doch aber, dass er eine um 45% höhere TDP als der i3 hat und dann wohl auch mehr Strom zieht. Was man an der Plattform spart, zahlt man dann für den Strom, falls die Kiste längere Zeit unter Vollast läuft. Und wenn man den FX-4100 dann noch kräftig übertaktet, kann man sich wahrscheinlich gleich einen i5 kaufen.

Das ist in der Tat Ärgerlich. ich bin auch schon am schwanken ob ich den mehrprei für ein gutes board + i3 zahlen soll um auf 4,5 ghz zu kommen oder den FX4100 zu nehmen..... :(

Wurde der Test des FX-6100 hier schon gepostet???

:: PC Ekspert - Hardware EZine - lanci ::

Ich muss ehrlich sagen das mir diese CPU schon deutlich besser gefällt als der FX-8150. Die Spieleleistung ist ausreichend bei erfreulich geringen Verbrauch (Wobei man hier nur mit den AMD- Vorgängern verglichen hat, leider nicht mit Intel CPUs).

finde den test auch interressant. kennt jemand einen test wo der stromverbrauch des FX4100 gezeigt wird ? am besten auch mit OC @ 5 ghz.

Ihr vernachlässigt hier immer den Aspekt der Energieeffizienz des BD.

edit: Ich finde es jedenfalls enorm, daß alleine der Wechsel PII auf i5 mir schon wesentlich niederigere CPU und Gehäusetemperaturen bescherte und der i5 @ 4,5GHz unter last im Endeffekt nur marginal höher heizt, als der PII-X4 965BE @ 4GHz im idle. Das ist ein Update!

wohl wahr. mein X3 @ 3,5 ghz zieht leider auch die meisten FX 6xxx ab und bleibt dabei sparsamer....
 
"Die Desktop-Baords sind damit garnicht ausgestattet. " <- falsch, alle boards können das. warum auch nicht? ist ja dieselbe hardware..

Eben nicht. Bitte lies dir die Primärquellen durch. Damit ist das Thema in diesem Thread aber bitte erledigt.

Ich bin auch enttäuscht: Bulldozer versprach ein außerordentliches Design mit guter Leistung zu werden. Leider sind diese Ziele nicht erreicht worden. Das kann an vielem liegen, auch am Win7-Scheduler, aber wie der arbeitet, war ja bekannt.
 
lol sry hab das falsche gequotet ;D nebenher noch arbeiten ^^

meinte deinen gesprächspartner damit ;)


EDIT//: du warst doch gemeint lol
du solltest nicht arbeiten während du im hwluxx schreibst :P

Eben nicht. Bitte lies dir die Primärquellen durch. Damit ist das Thema in diesem Thread aber bitte erledigt.
habe ich schon, und bin zu dem ergebnis gekommen was ich schon geschrieben habe. aber wenn du das thema in diesem thread nicht haben willst ok ;)
 
Wie üblich und wie ich vorhersagte, kannst du deine Behauptung nicht belegen
Wie üblich habe ich meine Aussage belegt. Wie üblich willst du es einfach nur nicht wahrhaben und ignorierst fröhlich, was ich sagte. :wall:


Ich zitiere dazu mal leonidas/3dcenter:

"Primäres Problem von Bulldozer ist dabei der Punkt, daß ein auf hohe Taktraten ausgelegtes Prozessorendesign letztlich nicht auf Taktrate gebracht werden konnte. Sicherlich hat Bulldozer nett anzuschauende Taktraten zu bieten, aber gemäß der abgesenkten Pro/MHz-Leistung müsste Bulldozer mit deutlich mehr Taktrate kommen und war ursprünglich wohl auch auf ebensolcher geplant (angeblich 4.5 GHz ohne Turbo).
Diese Behauptung ist schon mal komplett falsch.

"Trotzdem muß die Frage aufgestellt werden, ob AMDs Ansatz des taktratenoptimierten Designs wirklich die beste Lösung war. Eine höhere Pro/MHz-Leistung von 30 Prozent zu erreichen, ist schweres Brot, aber mit viel Ingenieursarbeit doch irgendwie zu realisieren. Eine 30 Prozent höhere Taktrate ausgehend von ca. 3.5 GHz zu erzielen (Zieltaktrate demnach 4.5 GHz), hat das nicht vermeidbare Risiko, daß dies produktionstechnisch nicht herzustellen ist oder eben – wie aktuell bei Bulldozer – mit einer zu hohen Verlustleistung einhergeht.
Der Ansatz ist wieder ein völlig falscher. Erstens gibt's IPC Verbesserungen nicht gratis. Die erfordern, wenn man an die Grenzen geht, sogar mehr Energie als Takt. Zusätzlich kosten sie natürlich Transistoren. Zweitens, wer sagt denn, dass man die IPC nicht steigert? Warum interpretiert man so viel in den Launch? Es sollte doch offensichtlich sein, dass das Teil noch nicht so funktioniert, wie es gedacht war. Drittens, die Leistungsaufnahme kann man bisher auch nur bedingt beurteilen. Idle ist recht gut, Volllast schwankt bisher zu sehr, Teillast misst leider niemand ausführlich. Es bleibt zudem ein Serverdesign. Mal abgesehen von Llano haben wir hier mehr als doppelt so viele Transistoren wie bisherige Prozessoren. Wart mal SB-E ab, der wird unter Volllast auch mehr brauchen als Prozessoren mit <1 Mrd Transistoren. ;) Es ist traurig, dass selbst Hardwareseiten so oberflächlich schreiben und zB einfach Architektur und Design wild durcheinanderwürfeln, ohne differenzieren zu können.

Jetzt macht mal nicht aus jeder Mücke einen Elefanten. Solche Polemik kann man sich echt sparen. Es sollte klar sein, dass das lediglich ein Versehen ist. Schau in den Specs nach, die AMD zum Schluss auflistet. Da steht korrekterweise i5 2500.


Wenn man betrachted das zB im intel i7 9xx auch Netburst technik drin steckt ...
Und nicht gerade wenig. Branch Prediction, µOp Cache, Hyperthreading, etc. Aber das scheinen einige ja auch wieder mal zu ignorieren.


Ja, so wie mir auch auffällt, dass es immer wieder die gleichen AMD-Jünger sind, die hier ins andere Extrem verfallen. Das ist normal.
Allerdings ist es ein AMD Thread, falls du das übersehen haben solltest. Da sollte man diese Freiheiten den "AMD Jüngern" auch zugestehen. Ich habe zwar auch öfters auf die Euphoriebremse gedrückt, wenn einige wenige zu viele Wunder von Bulldozer erwartet haben. Ich habe ihnen aber ihren Spass gelassen. In Intel Threads beschwert sich ja auch niemand, wenn die Intel Jünger zu euphorisch werden. Und ich wüsste auch nicht, dass dann von den AMD Jüngern so rumgebasht wird.

Sicher nicht allumfassend. Das wäre vermessen.
Genauso tun aber einige jetzt.

Aber mal so gefragt: Welche Metrik bevorzugst du wenn nicht konkrete Benchmarks?
Also erstmal bevorzuge ich funktionierendes Silizium und ausgereiften Softwaresupport. Ohne diesem nützen selbst die besten Metriken nichts. Und zweitens, da Bulldozer für Server entwickelt wurde, werde ich mir natürlich auch Serverbenchmarks genauer anschauen.

Was lässt dich glauben, dass die Architektur wirklich taugt?
Ist zwar unhöflich, ich mache es aber trotzdem mal und stelle die Gegenfrage. Was lässt dich glauben, dass die Architektur nichts taugt? Nur wegen momentanen Reviews, die auf der einen Seite noch zu viele Ungereimtheiten zeigen, auf der anderen Seite aber auch das grosse Potenzial erkennen lassen? Ich erinnere nur mal an den R600. Was daraus geworden ist, weisst du ja hoffentlich. Nicht immer so kurzsichtig denken. ;) Die Basis, das Clusterdesign, ist mMn jedenfalls der richtige Weg und man sieht mit bis zu 80% klar die bessere Skalierung im Vergleich zu SMT. Jetzt lass mal das Thread-Scheduling richtig funktionieren, Bugs oder Flaschenhälse fixen, die momentan noch Performance pro CU kosten, und verpacke das ganze in einem kompakten Client-Design ohne Server-Schnickschnack. Dann würden einige hier ganz anders denken.


Vor BD gab es auch keine wirkliche Konkurrenz zum i5/i7 - hat Intel da die Preise in astronomische Höhen angehoben?
Ja, haben sie. Ein i7-870 startete zB bei über $500. Erst als Thuban kam, hat Intel die Preise deutlich nach unten korrigiert. ;)
 
Zuletzt bearbeitet:
Ich habe mir mal den Beitrag anzeigen lassen, dass is genau das was ich mal schrieb was er jetzt macht wofür ein iche verwarnung bekommen habe.

Aber genau so hab ich ihn eingeschätzt ^^ herrlich
 
Energiespartechnisch sollte der BD doch auch einzelne Module deaktivieren können, wenn ich das noch recht in Erinnerung habe. Das scheint ja auch nicht zu funktionieren, denn das sollte mehr ausmachen als 6Watt zum X6. Könnte aber auch am Scheduler liegen, wenn der die Tasks einfach wie wild auf die Kerne verteilt.

Benchs unter Linux gibt es noch keine oder? Vielleicht kann ja deren Scheduler das besser.
 
man könnte jetzt spasseshalber aber den spies umdrehen:

man gehe davon aus das immer mehr kerne in prozessoren eingesetzt werden, den trend gibt es nicht erst seit gestern und ist somit fakt?!

Dann hat microsoft den anschluss an diesen trend wohl verschlafen, indem sie erst zu windows 8 den neuen scheduler entwickelt haben und nicht schon zu windows 7 wo es ja schon 6 kern cpus von intel und amd gab und sogar zwei 6kerner auf eine platine gelötet wurden woraus 12 physische kerne resultieren...

oder is da nen denkfehler drin?
 
Ich erinnere nur mal an den R600. Was daraus geworden ist, weisst du ja hoffentlich. Nicht immer so kurzsichtig denken. ;)

Der R600 ist aber kein Vorbild für Bulldozer, bei der R600 Weiterentwicklung ala RV770 hat man die Einheiten 2,5mal erhöht, wie wir wissen hat der Nachfolger von Bulldozer pro Compute Unit weiterhin 2 Cluster...

AMD sagt selber 10-15% mehr Leistung und 2012 wird BD weiterhin in 32nm gefertigt.

AMD wird wahrscheinlich versuchen das Cache Design & Frontend zu verbessern oder Bugs beseitigen die die IPC beeinflussen.

Erwartet nicht zuviel, normalerweise müsste BD2 mind. 30% zulegen damit man im Mainstream konkurrenzfähig sein kann.
 
Zuletzt bearbeitet:
Energiespartechnisch sollte der BD doch auch einzelne Module deaktivieren können, wenn ich das noch recht in Erinnerung habe. Das scheint ja auch nicht zu funktionieren, denn das sollte mehr ausmachen als 6Watt zum X6. Könnte aber auch am Scheduler liegen, wenn der die Tasks einfach wie wild auf die Kerne verteilt.

Benchs unter Linux gibt es noch keine oder? Vielleicht kann ja deren Scheduler das besser.

genau das macht windows 8 mit dem neuen scheduler über den wir hier diskutieren ;) atm. wird in win 7 jeder thread auf alle cores zerlegt und somit geht keiner schlafen ;) so kann software für hardware vernichtend sein ^^
 
Also erstmal bevorzuge ich funktionierendes Silizium und ausgereiften Softwaresupport. Ohne diesem nützen selbst die besten Metriken nichts. Und zweitens, da Bulldozer für Server entwickelt wurde, werde ich mir natürlich auch Serverbenchmarks genauer anschauen.

Warum bringt AMD den Bulldozer dann ins Desktopsegment, wenn er dafür nicht gemacht ist? Die Benchmarks belegen dies momentan leider recht eindrucksvoll. Wieviel Aussagekraft haben Benchmarks wie Linpack für einen typischen Single-User-Workload?
 
@mr.dude: deine Ansichten in allen Ehren, aber du hast Denkweisen und "Hoffnungen", die ich so nicht nachvollziehen kann, denn du sagst: "was ist aus dem R600 geworden".
Du vergleichst eine GPU-Architektur und schließt darauf auf eine evtl. dann auch bald funktionierende CPU-Architektur? leicht kindischer Geddanke. Man vergleich Äpfel und Birnen. Hier zeigt sich doch wohl deutlich, dass die Verzweiflunf und Hoffnung auf bessere Zeiten, der Realität davoneilen.

Du sagst der BD wurde für den Server Bereich entwickelt. Warum schmeißt AMD sie dann auf den Desktop Markt? Außerdem unterscheiden sich Server und Desktop CPUS's nur in wenigen zusätzlichen Funktionen. spielt also keine Rolle für was sie entwickelt wurde. sie muss Leistung bringen und effizient sein, das ist der BD nicht, fakt.

Und außerdem möchte ich doch mal enige offizielle Sheets sehen, in dem AMD davon spricht, dass BD für den Server konzipiert wurde. kannst du dir mir mal zeigen? (ernst gemeint).
 
Zuletzt bearbeitet:
Warum bringt AMD den Bulldozer dann ins Desktopsegment, wenn er dafür nicht gemacht ist? Die Benchmarks belegen dies momentan leider recht eindrucksvoll. Wieviel Aussagekraft haben Benchmarks wie Linpack für einen typischen Single-User-Workload?

weil er mehr potential bietet als phenom 2 und vorallem, weil es ihn gibt.

auch wenn einem das jetzt nicht so vorkommen mag aber meiner meinung nach ist die k10 architektur genug aufgebohrt worden.

Da bietet BD schon mehr spielraum als phenom 2 für die zukunft.
 
Ja, haben sie. Ein i7-870 startete zB bei über $500. Erst als Thuban kam, hat Intel die Preise deutlich nach unten korrigiert. ;)
Gegenfrage: War der BD nicht anfänglich von AMD auch preislich höher katalogisiert und wurde der nicht auch sehr schnell hinunter gestuft? ..und würde AMD nicht auch "horrende" Preise für deren BD vom Kunden abverlangen, wäre da nicht Intel? ..und was war zu Zeiten als AMD noch tricky war und bessere Prozessoren als Intel anbot? Hat nicht AMD mit den alten FX da ordentlich zugelangt? ;)

..ok, waren jetzt schon 4 Gegenfragen, aber die eine resultiert ja aus der anderen, von daher.. :)

edit: Meiner Meinung nach tun die sich beide nix. AMD ist dort keinen deut besser als Intel und würden, wenn sie denn könnten, keinesfalls den Volkssamariterbund günstiger CPUs spielen. Die würden genauso zulangen wie jedes andere Unternehmen das nur marktwirtschaftliche Eigeninteressen verfolgt die allgemein lauten: höchstmöglicher Profit bei minimalen Einsatz.
Daher verstehe ich auch nicht diese teils herrschende Sympathie für das eine Unternehmen und die gleichzeitige Antipathie dem anderen Unternehmen gegenüber. Beide würden euch, wenn sie denn könnten, die Brieftasche mit einen breiten lächeln leeren.
 
Zuletzt bearbeitet:
Bevor hier weiter der hohe Stromverbrauch herhalten muss:

Wieso ist der FX8150 bei heise.de auf einem 880G-Chipsatz deutlich stromsparender (200 W statt 223 W unter Vollast) als der X6 1100?

Das sollte geklärt werden! (oder hab ich was verpasst?)
 
Naja, es ist eigentlich nur ein User, y33H@. Der legt es aber auch immer regelrecht darauf an und ist an sachlichen Diskussionen gar nicht interessiert. Stattdessen ignoriert er Aussagen und wirft einem lieber "Unfug" und "Getrolle" an den Kopf. Also lass mich doch. y33H@ ist bekannt für seinen Spam. Der will nur spielen. :haha: Der Rest sind normale Diskussionen.

hehe das kenn ich :P aber auf einen user würde ich das nicht beschränken wollen :d
 
Bevor hier weiter der hohe Stromverbrauch herhalten muss:

Wieso ist der FX8150 bei heise.de auf einem 880G-Chipsatz deutlich stromsparender (200 W statt 223 W unter Vollast) als der X6 1100?

Das sollte geklärt werden! (oder hab ich was verpasst?)

Das hatte ich gestern auch schon mal gefragt. Der hohe Stromverbrauch liegt zum Teil an dem von AMD mit geschicktem Board dem Asus 990FX. Nur ob es jetzt am Bios vom Asus, nur am 990FX liegt oder alle 900er Chipsätze betroffen sind konnte mir keiner sagen.

Deshalb finde ich den BD auch nicht so schlecht für leute mit einem AM3+ Board. Mehr Leistung als der 1100er bei 10% weniger Strom ist nocht so schlecht.
Naja, einfach mal abwarten. Nein mich interessiert nicht wieviel schneller SB bei noch weniger Verbrauch ist.

Gruß,
Daniel
 
Zuletzt bearbeitet:
Bevor hier weiter der hohe Stromverbrauch herhalten muss:

Wieso ist der FX8150 bei heise.de auf einem 880G-Chipsatz deutlich stromsparender (200 W statt 223 W unter Vollast) als der X6 1100?

Das sollte geklärt werden! (oder hab ich was verpasst?)

Jaja, jetzt ist für mich nur noch interessant wie verhält es sich auf nem 890FX. :fire: Vielleicht habe ich Glück und das gute STück kommt doch noch in Frage. Ich kauf mir ja nich xtra vorher superdupa Deluxe Mainboard mit dickstem Chipsatz um dann hinterher erzählt zu bekommen das auf allen x90FX ob jetzt 8 oder 9 egal, 200 Watt mehr verbruacht werden. :stupid: Gehts noch?
Ist ja schon bei 226 angekommen der Preis :) Bei 200 schlag ich dann zu :)
 
Zuletzt bearbeitet:
Also dieser heise Artikel ist schon sehr oberflächlich. :)
 
Also dieser heise Artikel ist schon sehr oberflächlich. :)

Jetzt ist aber mal gut. Das heise.de keine 10Seiten Tests auf ihrer Homepage machen ist nichts neues. Wie viele Zeilen Text brauchst du für einen eifachen Sachverhalt, dass bei denen BD weniger Strom verbraucht als ein 1100t?

Gruß,
Daniel
 
Zuletzt bearbeitet:
@Nighteye
Unseriös, sehr billiger versuch...warum wird der i7 bei OC langsamer als stock?
 
HARDOCP - Battlefield 3 Open Beta - AMD Bulldozer / FX-8150 Gameplay Performance Review

also ich finde er hat seine darseins berechtigung.

viel mehr interessiert mich zz aber der strom verbrauch des FX4xxx @ stock oder OC. hat da niemand eine quelle ?

Der Bench ist Müll zum einen wird ein nicht reproduzierbares Szanario gebencht, zum Anderen ist in dem Bench ein 2600k, der auf 4,8 ghz übertaktet wird langsamer als ain 2600k im Standardtakt. Außedem gammelt BF3 im GPU-Limit, da kommste mit dem 1100T auch hin.

---------- Beitrag hinzugefügt um 14:45 ---------- Vorheriger Beitrag war um 14:44 ----------

Es gibt fast kleine Resultate zum FX 41xx, weil AMD anscheinden nur FX 8150er verschickt hat als Samples und die Benches für FX 41xx wohl simuliert sind.
 
Warum bringt AMD den Bulldozer dann ins Desktopsegment, wenn er dafür nicht gemacht ist? Die Benchmarks belegen dies momentan leider recht eindrucksvoll. Wieviel Aussagekraft haben Benchmarks wie Linpack für einen typischen Single-User-Workload?

Sehe ich auch so. BD ist eine klassische Multithread CPU und hat die selben Probleme wie alle anderen Multithread CPUs auch, sie brauchen auch entsprechende Software und vor allem einen Scheduler der das Potential auch nutzen kann.

In entsprechenden Serverumgebungen zählt quasi das Produkt aus Anzahl der Core und Clock. Das ist auch der Grund warum Cray auf den BD setzt und der Markt erst später damit versorgt wird.
Solch eine CPU hier AMD Opteron 6180 SE, 12x 2.50GHz, Sockel-G34, tray (OS6180YETCEGO) | Geizhals.at Deutschland läßt einen X6 PhII bei solchen Anwendungen locker hinter sich, nur wird diese CPU beim Gamen, was wohl der häufigste Einsatz solch performanter CPUs @home ist, eben nicht viel Land gegen den X6 sehen.
Und das obwohl beide CPUs auf der selben Grundarchitektur aufbauen.

Und da der Consumermarkt eben noch nicht wirklich multithreaded ist, ist es in der Tat wirklich fragwürdig, warum man solche CPUs auf diesem Markt plazieren möchte. Es passiert genau das, was in diesem Thread zu lesen ist, die Leute sind mit der Performance unzufrieden. Im Serverbereich, bzw HPC Markt, hingegen kann diese CPU/Technik wirklich Berge versetzen, was auch auf ihrer Grundlegenden Architektur beim CPU-Vernetzen basiert.

Die Idee von AMD ist grundlegend richtig, nur denke ich, dass der Markt, insbesondere der Consumermarkt, dafür eben noch nicht bereit ist. Da wird noch viel Zeit vergehen, bis man aus einer solchen Architektur wirklich einen Nutzen ziehen kann, schade eigentlich.
 
Zuletzt bearbeitet:
Jetzt ist aber mal gut. Das heise.de keine 10Seiten Tests auf ihrer Homepage machen ist nichts neues. Wie viele Zeilen Text brauchst du für einen eifachen Sachverhalt, dass bei denen BD weniger Strom verbraucht als ein 1100t?

Gruß,
Daniel
Mir reichen schon Screens und Auflistung der Testszenarien. Keine 10 Seiten. Schreiben kann ich auch alles mögliche, belegen ist aber wieder was ganz anderes. Wenn du denen das so abkaufst, bitteschön! Verlange aber nicht, daß andere den Crap auch für voll nehmen. :)
 
Mir reichen schon Screens und Auflistung der Testszenarien. Keine 10 Seiten. Schreiben kann ich auch alles mögliche, belegen ist aber wieder was ganz anderes. Wenn du denen das so abkaufst, bitteschön! Verlange aber nicht, daß andere den Crap auch für voll nehmen. :)

Gibt nicht viele denen ich sowas abnehmen würde, aber der ct schon. Wenn Du denen nicht traust ok, dann kann ich auch nichts dafür. :stupid:
Ich weiß auch nicht warum Du mit Deinem ach so tollen SB hier immer rummosern musst? Habt Ihr keinen eigenen Sammelthread.
 
Zuletzt bearbeitet:
viele argumentieren hier mit BD wäre für den Server markt gut. was ist dann aber mit dem 2 und 3 KERNER aller FX4 und FX6 ? diese sind dann weder für den server noch für den desktop gut oder wie ?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh