[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da AMD nicht vorhat die Fehler im B2 Stepping auszumerzen, kann man dann davon asuegehen das sich zumindest dadurch beim nächsten Stepping Performance mässig nicht so viel tut? Also gibbet nur noch ne kleine Schüppe durch den Win Scheduler?

richtig. das nächste stepping wird evtl höher zu takten gehen oder weniger spannung bei gleichem takt brauchen, mehr aber auch nicht.


LoL Max OC mit so nem Kack dinge...
Wenn du MAX OC willst wirste schon einiges Berappen müssen.
Heißt Prolimatech Genesis/Super Mega - Silverarrow - EKL K2 - Noctua.

hey der kühlt immerhin 160w verlustleistung weg. so schlecht kann das doch nicht sein.

Ich würde den Thermaright Macho nehmen,

wie viel verlustleistung kann er in seinem sofortkauf zustand abführen ? (also ohne 2t lüfter)

Der passt da definitiv drauf. AM3+ Sockel hat von der Befestigung her nur kleine optische Änderungen. Zb. die Seitenstege sind nicht mehr vorhanden. Ansonsten befestigungsseitig genau wie AM3.

Am3 und am3+ sind gleich von den Kühlern das sollte so passen

danke euch beiden.


und wie viel verlustleistung kühlt der so weg ?
 
^
für Ocer sind die FX6xxx besser geeignet meiner Meinung nach.

auch wenn der FX8xxx 150 euro kosten würde, würde ich einen FX6xxx vorziehen. weil 5 ghz mit luft wird beim FX8xxx echt Schwierig.

welche cpu kühler habt ihr eig geplant zu verwenden für Max OC ?

habe zz so einen hier.

Freezer Xtreme Rev.2

soll laut beschreibungs bis zu 160W verlustleistung abführen können.

aber ka ob der mit den am3+ boards kompatibel ist.

bei allen geschiempfe u. gelache,meinereiner selbst, ist der AMD FX-Series FX-6100 mir entgangen.

gegenüber phenom II x6 ist der inkl. oc deutlich besser, meiner einschätzung nach.

vielleicht klemmt es leistungsmäßig ja etwas im stepping u. stromverbrauch wird bestimmt auch noch was gehen mit optimierung.

mal schauen was noch so kommt.
 
und wie viel verlustleistung kühlt der so weg ?

Ich sag es mal so.
Mein X6 bei 4Ghz @1,4V und 1,35V CPU-NB läuft unter Prime bei 52°C

Bei BF3 etc. lag er unter last bei 48°C im idle turnt er immer so bei 38°C rum.

Edit:

Hier noch ein kleines Review gefunden im vergleich zum IFX-14 von Thermalright

Hab aber nicht raus lesen können welche Rev die vom Megahalmes die getestet haben.

http://www.meisterkuehler.de/content/prolimatech-megahalems-die-testergebnisse-393.html

Man sollte aber auch auf das Board aufpassen ob der echt passt.

Bei meinem Formula V in Verbindung mit meinen G-Skills wirds knapp ;)



Edit 2:

Als WLP ist AS5 im Einsatz.
 
Zuletzt bearbeitet:
hey der kühlt immerhin 160w verlustleistung weg. so schlecht kann das doch nicht sein.
Kannst du leider nicht immer nach gehen. Der Be Quiet Dark Rock Pro C1 zb. ist mit einer max. Leistungsaufnahme von stattlichen 220W. TDP angegeben, hat es aber dennoch nicht geschafft, meinen damaligen PII 965BE auf gleicher Plattform wie mit den Prolimatech Genesis herunter zu kühlen. Da waren unter Last Differenzen im 2stelligen Gradzahlenbereich - zugunsten des Genesis. ;)

Ergo, wenn du den FX-6100 wirklich max. OC preschen willst und nicht möchtest, daß dir die Temps. dabei total aus den Ruder laufen, wirst du um eine gute WaKü eh nicht herum kommen.
 
Zuletzt bearbeitet:
Das neue Stepping bringt nicht viel, vielleicht 200Mhz mehr Takt, mehr wird man nicht rausholen können, AMD braucht ca. 1Ghz mehr.
 
der größte stromfresser wird wohl der quadchanel sein.

die erste i7 reihe mit triplechanel hat sich beim stromverbrauch auch nicht mit rum bekleckert zur vorhandenen leistung.

bei der kommenden sandy-e reihe wird wahrscheinlich auch hoher stromverbrauch bei rauskommen.
 
Das neue Stepping bringt nicht viel, vielleicht 200Mhz mehr Takt, mehr wird man nicht rausholen können, AMD braucht ca. 1Ghz mehr.

Oder bei gleichem Takt weniger Strom verbrauch. Mir persönlich würde ein 8150 auf 4,2Ghz auf allen Modulen mit noch akzeptabler Leistungsaufnahme reichen.
Die 5Ghz brauche ich nicht zwingend.
 
der größte stromfresser wird wohl der quadchanel sein. die erste i7 reihe mit triplechanel hat sich beim stromverbrauch auch nicht mit rum bekleckert zur vorhandenen leistung. bei der kommenden sandy-e reihe wird wahrscheinlich auch hoher stromverbrauch bei rauskommen.
Der X58 ist der Stromfresser in erster Linie.
 
also sollte ich den Scythe Mugen 3 nehmen der mir empfohlen wurde ? oder ist der genesis so viel besser ?
 
Das ist von Fall zu Fall verschieden.
 
also sollte ich den Scythe Mugen 3 nehmen der mir empfohlen wurde ? oder ist der genesis so viel besser ?

Der Genisis ist viel zu teuer, nimm den Mugen oderden Macho. Die tun sich nicht viel in der Leistung und sind weit günstiger und nicht viel schwächer als ein Genisis.

Beim BD dürfte ab einer gewissen Spannung eh der Punkt erreicht sein, wo man nur noch mit Wasserkühlung weiterkommt. ;)
 
DonBanana schrieb:
die Mehrleistung in Windows 8 schaffen auch die Sandy Bridge, falls das hier wieder angeführt werden sollte.

Das hätte ich aber gerne mal erklärt wie du darauf kommst.
Tests sagen da was ganz anderes.
Nach denen soll heuptsächlich Bulldozer zulegen, was aufgrund der technischen Begebenheiten klar ist.
SMT-Parking hilft dem Bulldozer nicht.

Max70 schrieb:
sondern die völlig korrekte Darstellung der Fakten,wie sie sich im Hier und Jetzt zeigen.

Der 3D Center Kommentar ist doch nur eine Schätzung.
4,5ghz waren höchstwahrscheinlich niemals angepeilt, warum auch.

Duplex schrieb:
Das neue Stepping bringt nicht viel, vielleicht 200Mhz mehr Takt, mehr wird man nicht rausholen können, AMD braucht ca. 1Ghz mehr.

Sehe ich nicht so. Bei Anwendungen kann man dem 2500k recht gut Paroli bieten.
Ein kleines Taktupdate auf den FX-8170 (7%) von 3,9ghz zu 4,2 , verbessertes Bios (2%) (wie es damals beim Phenom II x6 1090T zum 1100T war) und nommal (5%) durch das Windows Update.
So kommen gut und gerne die fehlenden 15% raus die man aktuell für ein deutlich besseres Fazit hinterherhinkt. AMD´s kleiner Fail wird sich schon noch mausern.

Außerdem verspätet sich Server SB-E bis ende erstes Quartal und Ivy kommt auch erst mitte März.
Man hat also noch Zeit um gewisse Dinge zu optimieren und mehr Prozessoren nachzuschieben.

Man sollte übrigens nicht vergessen, dass Computerbase alle CPU´s die getestet worden sind nur lapidar simuliert hat. Außer das Topmodell.

Wann kommt nochmal Windows 8?
 
Zuletzt bearbeitet:
Das hätte ich aber gerne mal erklärt wie du darauf kommst.
Tests sagen da was ganz anderes.
Nach denen soll heuptsächlich Bulldozer zulegen, was aufgrund der technischen Begebenheiten klar ist.
SMT-Parking hilft dem Bulldozer nicht.

Bei den Windows 8 Benches wurde aber lustigerweise der 8150 mit dem 2500k verglichen um das wirklichtesten zu können hätte man das mit dem 2600k vergleichen müssen, denn die bprofitieren beide eher eine besondere Threadveteilung als eine normaler quad ala 2500k.
 
Ich sag es mal so.
Mein X6 bei 4Ghz @1,4V und 1,35V CPU-NB läuft unter Prime bei 52°C

Bei BF3 etc. lag er unter last bei 48°C im idle turnt er immer so bei 38°C rum.

Edit:

Hier noch ein kleines Review gefunden im vergleich zum IFX-14 von Thermalright

Hab aber nicht raus lesen können welche Rev die vom Megahalmes die getestet haben.

Prolimatech Megahalems - Die Testergebnisse - Meisterkuehler

Man sollte aber auch auf das Board aufpassen ob der echt passt.

Bei meinem Formula V in Verbindung mit meinen G-Skills wirds knapp ;)



Edit 2:

Als WLP ist AS5 im Einsatz.

Das sind auch schon ein paar Watt :)

Im Vergleich zum Thuban @ 4Ghz ist der Bulli sparsam ;)

@ 3,5Ghz bringt mein System ca. 250-300W Last auf die Uhr, Bei 4 Ghz+ sind es über 400W

Höchster Verbrauch bei mir seitdem ich messe war aber der x4 965BE mit ca. 450W Prime Last @ 4 Ghz aufm DFI-Board :)

Sandy hat die Latte ganz schön hoch gelegt in Sachen Effizienz. Gegenüber Nehalem hätte der Bulli nicht ganz so schlecht ausgesehen in Performance und Verbrauch. Ich denke, AMD hatte mit dem Sandy in der Form einfach nicht gerechnet, und auch daher verschieben müssen.

Insofern sorgt auch Intel für Wettbewerb und Fortschritt :) In hoffe, AMD haut die Hacken in den Teer... :) Weniger Single-Thread-Perf hätte ich mir gefallen lassen (übrigens BF3-Bench im AMD-Blog http://blogs.amd.com/play/2011/10/13/our-take-on-amd-fx/ ), aber deutlicher Verlierer in Sachen Energieeffizienz geht bei mir nicht durch. Dann lieber ressourceneffizient gar kein neues System kaufen ;)
 
Zuletzt bearbeitet:
Dazu müsstest du aber immer die jeweils identische Plattform einsetzen um das definitiv zu schreiben.
Du könntest ja jetzt noch den FX-6100 kaufen und den direkt gegen testen. Bei den AM3+ Boards ist das ja kein Thema. Passt ja Phenom & Bulldozer drauf und ich schätze mal, daß werden die seriösen Tester auch genau so gemacht haben und sind daraufhin auf diese Werte gekommen. Alles andere wäre Muckefuk.

edit: Es verfälscht zb. das Gesamtergebniss, einen X6er PII auf AM3 Board gegen einen FX-6100 auf AM3+ Board gegen zu testen, weil AM3+ ein geändertes Spannungsdesign besitzt. Richtig wäre, den X6er PII auf diesen AM3+ Board gegen den FX-6100 zu testen. Wenn du zb. mehrere Kühlersamples testest, nimmst du ja auch nicht für jeden Kühler ein anderes Board + CPU und bewertest dann nachher, Kühler A ist viel besser als Kühler B weil dieser einen X3 wesentlich besser gekühlt hat als Kühler B den X6er.
 
Zuletzt bearbeitet:
Der 6100er ist übrigens nun bei MF auch lieferbar.
 
Zuletzt bearbeitet:
@ Spieluhr: Quatsch, gegenüber Intel kannste ja auch nicht das gleiche Board nehmen. Da wird auch cross-Plattform verglichen, teilweise noch unter Vernachlässigung zusätzlicher 3V- und 5V-Verbräuche der Intel-Prozessoren. Und AM3 ist eben für AM3. Wenn ein AM3-Prozessor auf einem AM3+-Board weniger oder mehr verbraucht, ist DAS nicht eine Verfälschung? Ich kaufe mir ja kein AM3+ - Board wenn ich nicht aufrüsten will. Für mich ist der relevante Vergleich also AM3-Plattform vs. AM3+-Plattform.

Respektive beides kann Sinn machen, in jedem Fall nicht so definitiv NUR der Vergleich beider Prozzis auf nem AM3+-Board (das eben nur, wenn man bereits nen AM3+-Board hat oder kaufen will).

Der Unterschied wird eh marginal sein... Wenn es um 10 oder 20W geht gibt es auch andere Methoden die einzusparen, bzw. dann würde ich andere Überlegungen heranziehen für den Kaufentscheid (Leistung/Verbrauch bei max. OC im Vergleich evtl... Und da sieht es nicht so schlecht aus für BD oder sehe ich das falsch? Der kleinere Prozess macht sich schon bemerkbar...)
 
Was und wie Intel das macht darf nicht Thema dieses Threads sein. Da habe ich meine eigene Meinung zu.

Was du jedoch schreibst AM3 vs. AM3+ ist so nicht richtig. Frag mal nach bei den Testern, die werden dir das bestätigen. Mehr schreibe ich nicht dazu.

ps: Das der Unterschied ebend nicht marginal ist, auf gleicher Plattform, dürfte dir ja anhand der mittlerweile zahlreichen Tests nicht entgangen sein, oder?
 
Zuletzt bearbeitet:
Das hätte ich aber gerne mal erklärt wie du darauf kommst.
Tests sagen da was ganz anderes.
Nach denen soll heuptsächlich Bulldozer zulegen, was aufgrund der technischen Begebenheiten klar ist.
SMT-Parking hilft dem Bulldozer nicht.

Wo gibts denn Test's mit finalem Win8,gegen den 2600 ?

Der 3D Center Kommentar ist doch nur eine Schätzung.
4,5ghz waren höchstwahrscheinlich niemals angepeilt, warum auch.

Warum?Nicht dein Ernst oder?Weil er in diese Richtung kommen muss,um zur Spitze aufzuschliessen.Schon mal daran gedacht das man vieleicht gerne diesem Takt gebracht hätte,aber es aufgrund der dann explodierenden Leistungsaufnahme schlicht nicht kann ohne sich komplett zu disqualifizieren?
Außerdem spielt es für den Rest seiner Erläuterung keine Rolle ob die 4,5 zum Start angedacht waren oder nicht.
 
Zuletzt bearbeitet:
Das ist auch ein ding was mich interessiert.

Warte schon ewig auf Bulli. Nun ist er da. Das System perfekt auf diese CPU vorbereitet.

Nun ist die brennende Frage die mich interessiert, ob es sich lohnt nen 8er zu holen.

Meiner rennt wie gesagt bei 4Ghz.
Das dürfte wohl schneller sein als der 8er @stock und dürfte sich auf 2600k @stock bewegen. (So darf man das aber ja nicht sehen... )

Da stellt sich die Frage wie weit der 8er nun durchschnittlich zu ocen geht und wie viel mehrleistung gegenüber jetzt den x6 bei 4Ghz man raus bekommt und ob es dabei zu relevaten mehrverbrauch kommt oder eben nicht.

Ich hoffe ihr könnt mir folgen.

Sollte das lohnenswert sein, würde ich den X6 wohl verkaufen (Der Grad mal etwas über ein Monat alt ist - hatte andere Gründe warum der her musste) und gegen geringen Aufschlag ne FX-8x rein stecken.

hm...
 
@Black2Soul
Ein umstieg von 1090T 4Ghz > 8150 lohnt niemals, das wäre ein downgrade.
Wenn du deine Komponenten wechseln möchtest wegen mehr Leistung, dann kauf dir ein S.1155 System
 
Zuletzt bearbeitet:
@ max70: Irgendwas finales gibbet noch nicht. Soweit ich aber weiß, war hier mal zig Seiten vorher ein Link gepostet, wo über Win8 (mit Patch?) der BD und ein i7 getestet wurde und der Sheduler da wohl beim BD performer war und beim i7 kaum zugelegt hat. Ob das allerdings ein Fake war, keine Ahnung.
 

Ein Jemand sagte mal "die 32nm Produktion bei GF liegt voll im Plan"

Tjo

Die Redaktionen beschweren sich über zu wenig Samples und nun diese News

Passt irgendwie alles nicht ins Bild einer problemlosen Fertigung

Von 28nm für den Grafiksektor wollen wir da erst gar nicht anfangen zu reden

Allerdings halte ich eine Auslagerung der BD Produktion von jetzt auf gleich für absolut nicht durchführbar
 
Zuletzt bearbeitet:
Das ist auch ein ding was mich interessiert.

Warte schon ewig auf Bulli. Nun ist er da. Das System perfekt auf diese CPU vorbereitet.

Nun ist die brennende Frage die mich interessiert, ob es sich lohnt nen 8er zu holen.

Meiner rennt wie gesagt bei 4Ghz.
Das dürfte wohl schneller sein als der 8er @stock und dürfte sich auf 2600k @stock bewegen. (So darf man das aber ja nicht sehen... )

Da stellt sich die Frage wie weit der 8er nun durchschnittlich zu ocen geht und wie viel mehrleistung gegenüber jetzt den x6 bei 4Ghz man raus bekommt und ob es dabei zu relevaten mehrverbrauch kommt oder eben nicht.

Ich hoffe ihr könnt mir folgen.

Sollte das lohnenswert sein, würde ich den X6 wohl verkaufen (Der Grad mal etwas über ein Monat alt ist - hatte andere Gründe warum der her musste) und gegen geringen Aufschlag ne FX-8x rein stecken.

hm...

Die Mehrleisung bei CPUS fällt deutlich geringer aus, als z.B. bei Grafikkarten.
Deswegen lässt sich die Frage, ob man von einem X6 auf einen BD updaten soll irgendwie...
Noch dazu kommt, daß die Mehrleistung auch von Programmen/Spielen genutzt werden muss, was ja auch momentan nicht der Fall ist und noch etwas länger so bleiben wird.
CPUS muss man vlt. alle 4-5 Jahre updaten, dann erst lohnt es sich. Alles anderes ist Spaß am Hobby.
 
Die Mehrleisung bei CPUS fällt deutlich geringer aus, als z.B. bei Grafikkarten.
Deswegen lässt sich die Frage, ob man von einem X6 auf einen BD updaten soll irgendwie...
Noch dazu kommt, daß die Mehrleistung auch von Programmen/Spielen genutzt werden muss, was ja auch momentan nicht der Fall ist und noch etwas länger so bleiben wird.
CPUS muss man vlt. alle 4-5 Jahre updaten, dann erst lohnt es sich. Alles anderes ist Spaß am Hobby.

manche games laufen mit patches oder optimierung von ini-dateien 30% schneller, da ist die frage berechtigt warum sie für 5% soviel geld ausgeben!
 
Die Mehrleisung bei CPUS fällt deutlich geringer aus, als z.B. bei Grafikkarten.
Deswegen lässt sich die Frage, ob man von einem X6 auf einen BD updaten soll irgendwie...
Noch dazu kommt, daß die Mehrleistung auch von Programmen/Spielen genutzt werden muss, was ja auch momentan nicht der Fall ist und noch etwas länger so bleiben wird.
CPUS muss man vlt. alle 4-5 Jahre updaten, dann erst lohnt es sich. Alles anderes ist Spaß am Hobby.

Alle 4-5jahre kannste aber total vergessen wenn man die aktuellsten games zocken will!
Eher alle 2 jahre!
Wenn man noch zwei Grafikkarten sein eigen nennt kannste sowieso immer die schnellste CPU verbauen und dann noch max OC dauf geben!
man sieht ja jetzt schon wie derbe der BD@OC gegen einen I7 2600k@OC bei Crossfire verkackt...
Da hat man mit dem Intel höhere min FPS als das BD sys avg hat!
Mit dem erscheinen der GTX680 und HD7970 wird der BD höchstwarscheinlich schon bei einer GPU limitieren und bremsen und wer dann denkt naja ich bau bei mir mal CF oder SLI ein weil ich mehr FPS brauch wird dann bitter entäuscht sein weil sich nix tut!
FÜR 680SLI oder 7970CF braucht man sicher nen SB@5Ghz oder besser IvyBridge/SB-E @ max OC!

Ich würde mir aber auch wünschen das die Spiele entwickler die spiele so programmieren das man diese vielen kerne auch voll nutzen kann wie z.B. DICE wo der BD ja garnicht so schlecht abschneidet aber trozdem nicht mit dem SB mithalten kann!
 
Zuletzt bearbeitet:
@ max70: Irgendwas finales gibbet noch nicht. Soweit ich aber weiß, war hier mal zig Seiten vorher ein Link gepostet, wo über Win8 (mit Patch?) der BD und ein i7 getestet wurde und der Sheduler da wohl beim BD performer war und beim i7 kaum zugelegt hat. Ob das allerdings ein Fake war, keine Ahnung.

Das war eigendlich auch keine Frage,denn finales Win8 gibts ja nicht.;)Außerdem wurde mit einem 2500 verglichen.Fällt da nix auf?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh