[Sammelthread] AMD Bulldozer "New CPU Architecture" Sockel 942 AM3+ Sammelthread [Part 2]

Status
Für weitere Antworten geschlossen.
Die sixcore-Bulldozer verwerten den Ausschuss ja schon, bei den quadcores müssten dann schon vier Kerne defekt sein, zwei komplette Module, was bestimmt nicht so oft vorkommt.
Kuma war seinerzeit auch lediglich ein Agena, wo man die Hälfte der Kerne abschaltete. ;)

Was mich einfach stutzig macht, dass man bisher noch rein gar nichts von einem anderen Design ausser Orochi gehört hat. ZB Propus und Regor waren schon lange vor ihrem Launch bekannt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Duplex:
Ein Bulldozer mit zwei Modulen kann ja nicht nur halbsogroß sein wie einer mit vier Modulen, da die Northbridge und vor allem der L3-Cache auch sehr viel Fläche einnehmen, vor allem wenn der unabhängig von der Modulzahl gleichgroß bleibt.

wenn der L3 kleiner ausfällt, dann ist der Chip auch schon kleiner, 2 Module benötigen ca. 61,8mm² Fläche, evtl. gibt es noch Feintuning bei der Maske, auch möglich das einige teile rausfliegen ;)
 
Zuletzt bearbeitet:
Kuma war seinerzeit auch lediglich ein Agena, wo man die Hälfte der Kerne abschaltete. ;)

Was mich einfach stutzig macht, dass man bisher noch rein gar nichts von einem anderen Design ausser Orochi gehört hat. ZB Propus und Regor waren schon lange vor ihrem Launch bekannt.

Bei Kuma gingen auch vorher Gerüchte um, dass er eine eigene Maske bekommen soll, hier war das aber ein Sonderfall; kann sein, dass die Maske aufgrund der Probleme beim Agena einfach gecancelt wurde.

Übrigens ist der Software die Anzahl der Kerne völlig egal. ob es jetzt 3, 6, 9 oder 10 sind, spielt für die Software keine Rolle. Wenn es genug Threads gibt, die die Kerne auslasten, ist das eben so, wenn nicht dann halt nicht.
Es gab bei den 3-Kernern einige ganz wenige Sonderfälle, bei denen die Threads offenbar fest verteilt wurden, die waren aber schon damals und erst recht in Zukunft vernachlässigbar.
Man kann natürlich auch Prozessoren auf der Basis 3 aufbauen, warum auch nicht? Wenn man damit das optimale Transistorbudget pro Takt erreicht heiligt der Zweck durchaus die Mittel.
 
Bei Kuma gingen auch vorher Gerüchte um, dass er eine eigene Maske bekommen soll, hier war das aber ein Sonderfall; kann sein, dass die Maske aufgrund der Probleme beim Agena einfach gecancelt wurde.

Übrigens ist der Software die Anzahl der Kerne völlig egal. ob es jetzt 3, 6, 9 oder 10 sind, spielt für die Software keine Rolle. Wenn es genug Threads gibt, die die Kerne auslasten, ist das eben so, wenn nicht dann halt nicht.
Es gab bei den 3-Kernern einige ganz wenige Sonderfälle, bei denen die Threads offenbar fest verteilt wurden, die waren aber schon damals und erst recht in Zukunft vernachlässigbar.
Man kann natürlich auch Prozessoren auf der Basis 3 aufbauen, warum auch nicht? Wenn man damit das optimale Transistorbudget pro Takt erreicht heiligt der Zweck durchaus die Mittel.

Kuma kam so spät, da hatte ich das Gefühl, AMD wollte die schrottigen Agena-Phenoms nur noch schneller loswerden :d Aber ich kann mich auch noch an Gerüchte über einen eigenständigen Kuma-Die erinnern.
Callisto ist aber noch so ein kurioses Beispiel, dass AMD teildeaktivierte Denebs als dualcores als als quadcores verkauft, die ohne Berücksichtigung der Freischaltmöglichkeit imho mit L3-Cache und dem Preis keine Existensberechtigung haben.

Und klar ist es der Software egal, wieviel Kerne es gibt, aber hat es nicht den gleichen Effekt, wenn die Software eben so programmiert wird, dass es nur so viele Threads gibt, wie zum Zeitpunkt der Entwicklung Kerne vorhanden waren? Oder haben aktuelle Spiele jetzt schon genug Threads für Gulftown und mehr? Ich weiss, immer nur die Spiele zu betrachten ist beschränkt, aber hier wird am meisten über den mangelnden Nutzen zusätzlicher Kerne gemeckert.
 
Zuletzt bearbeitet:
Schrott waren die Agena garantiert nicht. Die haben bloß nicht die Erwartungen an Taktfrequenz erfüllt.
 
Nach Erscheinen des Deneb weniger als zwei Monate Später waren die aber bei weitem nicht mehr so interessant. Das hat bei mir den Eindruck hinterlassen, damit sollten die Lager geleert werden.
 
das weis ich selber ;) z.b. Phenom II X2 ist seit launch ein teil deaktivierter Deneb Quad Core (einige schaffen es sogar die restlichen Cores freizuschalten & das ohne Fehler :)).
mir ging es darum das ein 2 Modul BD mit halbierter Orochi Chipfläche weniger kostet, es passen doppelt soviele DIEs auf einem Wafer, vorrausgesetzt der Chip ist halb so groß wie Orochi, dann kann man in einem Jahr auch viel mehr Gewinn erziehlen als mit einem 294mm² Orochi.

Darum gings mir aber nicht ;)
Es ging eher darum, das es nicht zwingend von Anfang an immer die klare Trennung der eingesetzten Masken gab. Sondern das man sowohl bei Intel als auch bei AMD in der Vergangenheit wärend der Produktion Änderungen an ein und dem selben CPU Modell ausgeführt hat.
Der von dir angeführte Phenom X2 ist doch seit Jahr und Tag teildeaktivert. Wurde aber nie als nativer Dualcore gefertigt... Die genannten Beispiele von mir hingegen schon. (wobei sich die beide auf den Cache beziehen)

Wobei der Core2 Intel eben nur Anfangs als Conroe Kern verkauft wurde. Nach ner Zeit fertigte Intel diesen wohl ausschließlich mit Allendale Kern.
Beim X2 3800+ AMD hingegen war es mal so mal so. Scheinbar willkürlich waren mal Toledo, mal Manchester Kerne verbaut. Es gab irgendwie kein richtiges Muster oder kein klar von außen sichtbaren Grund dafür.

Heist unterm Strich, es ist nicht auszuschließen das man hier ähnliches fabriziert. Vllt will man erstmal den BD ordentlich anrollen lassen mit möglichst wenig verschiedenen DIEs. Eben um die Produktion auf hochtouren zu bringen. Spätere Gewinnoptimierungen durch angepasste Masken oder weitere Modelle sind ja nicht ausgeschlossen. Für den Anfang wird aber wohl der Ausschuss ziemlich hoch sein, den man so immernoch gewinnbringend an den Mann bringen würde.

Ja, so hab ich das bisher auch immer gehört. Ich dachte es geht nur multithreaded oder nicht bzw. nur dualthreaded. Aber es scheint ja doch so zu sein, dass zumindest im Bereich der PC-Spiele sixcores erst wieder auf neueren Spielen ihre Vorteile ausspielen können, so wie quadcores gegenüber dualcores das erst später konnten.
Das ist alles eine Frage der Software, kann man nicht mehr optimieren, bzw. will man nicht mehr optimieren, so wird idR mehr Last (also mehr Berechnungen) in die Software eingebaut um mehr Threads nutzen zu können...
Wie im Beispiel gerade schon erklärt. Um so mehr Threads gleichzeitig und unabhängig voneinander benutzt werden, desto mehr Auslastung wird man hinbekommen. Bei heutigen Games ist es teils halt so, das man Berechnungen halt in soweit mehrfach ausführt, das vier Cores genutzt werden. Würde man das quasi OpenEnd bauen, wäre kein PC in der Lage maximal Settings zu fahren. Irgendwo muss man also ein Limit setzen...
 
AMD hat beim K10 @45nm auch mehrere DIEs, Propus ohne L3 Cache, Deneb mit L3 Cache & Thuban @ultralowk stepping
 
Du hast Regor mit doppeltem L2-Cache vergessen :d
Aber hier wird bis auf wenige Ausnahmen nie mehr als ein verschiedener DIE für eine Prozessormarke benutzt. PhenomII X2-X4 sind im freien Handel immer Deneb (bis auf 840, der ist immer Propus), X6 immer Thuban. AthlonII X2 sind immer Regor. Nur AthlonII X3 und X4 waren anfangs sowohl Propus, als auch Deneb (und sind es immernoch?).

Ich weiss schon, was fdsonne sagen will, bei den K8 mit E-Stepping hat AMD von Anfang bis Ende munter paralell DIEs mit echten 512KB L2-Cache und teildeaktivierte 1024er verkauft, AFAIR auch beim C-Stepping. Beim F2-Stepping war damit aber glaub ich Schluss, da hat man ja sogar die langsamer getakteten Windsor-1024 zumindest im F2-Stepping nie im Handel gesehen, weil sie sich nicht lohnten.
Bei Allendale und Conroe weiss ich es nicht, ich glaube, spätestens als es die E6x20er mit garantiertem Conroe gab, war hier Schluss mit teildeaktiviert.

Ich weiss aber nicht, ob das auf Bulldozer so übertragbar ist. Hier muss wesentlich mehr deaktiviert werden, als ein bischen Cache oder ein Kern, AFAIK muss es immer ein ganzes Modul sein.
 
Zuletzt bearbeitet:
Und klar ist es der Software egal, wieviel Kerne es gibt, aber hat es nicht den gleichen Effekt, wenn die Software eben so programmiert wird, dass es nur so viele Threads gibt, wie zum Zeitpunkt der Entwicklung Kerne vorhanden waren? Oder haben aktuelle Spiele jetzt schon genug Threads für Gulftown und mehr? Ich weiss, immer nur die Spiele zu betrachten ist beschränkt, aber hier wird am meisten über den mangelnden Nutzen zusätzlicher Kerne gemeckert.

Wie gesagt, du solltest dich von der Meinung lösen, das die Anzahl der Cores entscheidend ist. Denn das ist sie nicht.
Viel eher ist entscheidend, wie sich die Software aufteilen lässt. Also wie gut werden mehr Threads auch gleichzeitig abarbeitbar sein.
Games gehören seit Jahr und Tag zur Kategorie des extrem dynamischen Inhalts. Es lässt sich nicht alles gleichzeitig berechnen. Da viel voneinander abhängt und auch viel sequenziel berechnet werden muss mit Ergebnissen vorheriger Berechnungen usw. Dazu kommt die Aktion des Games durch Eingaben mit der Maus/Tastatur usw.

Was man heutzutage macht um Games Multicore ready zu machen ist eben anstatt zu optimieren einfach immer mehr an Berechnungen reinzuknallen. So wird halt die Physik oder KI für jeden NPC in einem Thread berechnet. Laufen vier durchs Bild, werden vier Threads quasi unabhängig voneinander abarbeitbar sein.
In zwei Jahren laufen dann halt 10 Leute durchs Bild usw.

Vllt nochmal das fiktive Beispiel von Kaffee kochen.
Du willst Kaffee kochen und hast eine Kaffeemaschine.
Arbeitsschritte wären:
- Wasser in Kanne
- Wasser von Kanne in Maschine
- Filter in Maschine
- Kaffee in Filter
- Kanne unter Maschine stellen
- start drücken und kochen lassen

Diese sechs Schritte brauchen angenommen immer die gleiche Zeit. Mit nem SingleCore würdest du alle sechs hintereinander abarbeiten. Brauchst also sechs Zeiteinheiten für eine Kanne Kaffee.
Fängst du nun an zu optimieren, könnte man "Wasser in Kanne" sowie "Filter in Maschine" also auch "Wasser von Kanne in Maschine" sowie "Kaffee in Filter" jeweils gleichzeitig ausführen.
Macht also:
- Wasser in Kanne / Filter in Maschine
- Wasser von Kanne in Maschine / Kaffee in Filter
- Kanne unter Maschine stellen
- start drücken und kochen lassen

In Summe noch vier Zeiteinheiten für eine Tasse Kaffee mit einem DualCore.

Weiter lässt sich diese Berechnung nicht optimieren. Die Kanne kann erst unter die Maschine, wenn das Wasser aus ihr raus ist. Auch kann erst gestartet werden, wenn alle anderen Schritte vorher getätigt wurden.
Mehr Rechenkerne würden absolut keinen Vorteil bringen...

Es werden also defintiv vier Zeiteinheiten gebraucht um eine Kanne Kaffe zu kochen.

Um auf die Games zurück zu kommen. Man kann jetzt für QuadCore CPUs einfach zwei Kannen Kaffe kochen lassen. Sprich man stellt zwei Maschinen auf und lässt beide gleichzeitig arbeiten. Schon hast du nen Quad ausgelastet. Und kannst innerhalb von ebenso vier Zeiteinheiten aber zwei Kannen Kaffee, also die doppelte Menge in gleicher Zeit kochen...

Vllt wirds anhand des Kaffeebeispiels verständlicher... Denn so läuft das aktuell.
Würde man aber die Berechnung nach oben hin nicht begrenzen und der User dreht maximale Settings ein, so würden heutige DualCore CPUs oder QuadCore CPUs mit 8, 12, 16 oder noch mehr Berechnungen überstrapaziert werden. Es würde also nix mehr laufen. Irgendwo muss eine Grenze rein... Und die begrenzt bei derartiger Auslastungspolitik die Nutzbarkeit der Cores...

Mit der Anzahl der nutzbaren Threads hat das aber nix zu tun...

PS: schau mal in deinen Taskmanager von Windows. Dort steht die Anzahl der aktuell laufenden Threads ;) bei mir sind das aktuell über 1000 Stück bei nem Quad als CPU... Nur im Vergleich...

Du hast Regor mit doppeltem L2-Cache vergessen :d
Aber hier wird bis auf wenige Ausnahmen nie mehr als ein verschiedener DIE für eine Prozessormarke benutzt. PhenomII X2-X4 sind im freien Handel immer Deneb (bis auf 840, der ist immer Propus), X6 immer Thuban. AthlonII X2 sind immer Regor. Nur AthlonII X3 und X4 waren anfangs sowohl Propus, als auch Deneb (und sind es immernoch?).

Ich weiss schon, was fdsonne sagen will, bei den K8 mit E-Stepping hat AMD von Anfang bis Ende munter paralell DIEs mit echten 512KB L2-Cache und teildeaktivierte 1024er verkauft, AFAIR auch beim C-Stepping. Beim F2-Stepping war damit aber glaub ich Schluss, da hat man ja sogar die langsamer getakteten Windsor-1024 zumindest im F2-Stepping nie im Handel gesehen, weil sie sich nicht lohnten.
Bei Allendale und Conroe weiss ich es nicht, ich glaube, spätestens als es die E6x20er mit garantiertem Conroe gab, war hier Schluss mit teildeaktiviert.

Ich weiss aber nicht, ob das auf Bulldozer so übertragbar ist. Hier muss wesentlich mehr deaktiviert werden, als ein bischen Cache oder ein Kern, AFAIK muss es immer ein ganzes Modul sein.

Genau darum gehts mir... Aber ob nun ganzes Modul oder nur bisschen Cache ist denke ich ziemlich banane... Sofern es sich deaktivieren lässt, spricht nichts dagegen.
Wie gesagt, ich schließe nicht aus, das AMD andere Masken für die kleineren CPUs nutzen wird. Aber es muss denke ich nicht von Anfang an sein. Eben gerade weil die Yields wohl mit neuer Architektur + neuer Fertigung noch nicht sonderlich berauschend sein werden. Man könnte beinahe sagen, für die kleinen Modelle ist das was deaktivert wird quasi als Reserve vorhanden, auf welche man bei schlechten Modellen zurück greift. Für die Dauer ist derart viel deaktiveren sicher aber nix, das mag schon stimmen ;)

Zum Thema Core2. Das war noch weit vor es diese ganzen neueren Modelle vom Core2Duo gab.
Anfangs gabs nur die E6300-X6800 CPUs im DualCore Bereich.
Ich hab zum Beispiel bei nen E6400 mit Conroe DIE damals bei nem Kumpel verbaut. Kurze Zeit später gabs aber nur noch welche mit Allendale Kern zu kaufen. Man berichtete gar, das diese im OC weit weniger erreichen als die erste Ladung Conroe CPUs.
Guckst du hier: (hab nur das auf die schnelle gefunden)
http://hwbot.org/signature.img?iid=8535&thumb=false&iehack=.jpg
http://valid.canardpc.com/cache/screenshot/1511539.png
 
OK, ich denke das Kaffebeispiel hat es verdeutlicht. Wird natürlich auch dadurch begrenzt, wieviel Kannen Kaffe sinnvoll sind. Bestimmte Dinge kann man ja auch nicht einfach beliebig hoch und runterschrauben, wie z.B. KI-Berechnungen.
Dass heisst also, wenn neue CPUs mehr Threads berechnen können, müssen die Programmierer diese erstmal wieder auslasten. Bei einer CPU mit einer bisher nicht dagewsenen Thread- oder Kernzahl, die aber nicht höher als bisher ist (Bspw. 5- oder 9-Kerner) kann aber das Programm einfach die Thread anders verteilen und diese Auslasten.

Wegen der Fertigung: Ja, komplett neue Architektur UND neue Fertigung wäre schon ein Wunder, wenn da nicht ordentlich Ausschuss anfällt. Aber meinst du wirklich, dass sich genauso lohnt, 2 Module zu deaktivieren, wie damals den halben L2-Cache?

Und was soll ich auf den beiden Screenshots sehen? Dass der eine den E6400 mit 1,213V auf 3,9GHz kriegt, evtl. weil das board nur 488MHz FSB mitmacht, während der andere die gleiche CPU mit wahnwitzigen 1.952V und irrsiingen 672MHz FSB auf 5,4 GHz prügelt?
Das ist wohl kaum ein Indiz für eine bessere Übertaktbarkeit der älteren CPU, eher für die Waghalsigkeit des Übertakters. Und ich kann anhand der CPU-Z Infos auch nicht erkennen, wie sich die CPUs unterscheiden sollen, beide werden als B2-Stepping erkannt.
Und wenn ich mich recht erinnere, gab es erst eine Weile nur nur Conroes, bei den Modellen E6400 und E6300 eben teildeaktiviert, diese dann etwas später auch als Allendales und mit Einführung der E6x20er Modelle nur noch als Allendales.
 
Kuma kam so spät, da hatte ich das Gefühl, AMD wollte die schrottigen Agena-Phenoms nur noch schneller loswerden :d Aber ich kann mich auch noch an Gerüchte über einen eigenständigen Kuma-Die erinnern.
Callisto ist aber noch so ein kurioses Beispiel, dass AMD teildeaktivierte Denebs als dualcores als als quadcores verkauft, die ohne Berücksichtigung der Freischaltmöglichkeit imho mit L3-Cache und dem Preis keine Existensberechtigung haben.
Also die Agenas "Schrottig" zu nennen, ist dann doch schon arg daneben, denn das Design konnte ja nichts für den ungeeigneten Fertigungsprozess. Mit einem neuen Fertigungsprozess gings ja plötzlich mit dem gleichen Design sehr gut (Deneb). Das Gesamtkonzept stimmte nicht, aber schrottig war da nix ;). Und die Existenzberechtigung für bestimmte CPUs wird AMD wohl am besten selbst beurteilen können. Es wird betriebswirtschaftlich und technisch Sinn gemacht haben, ansonsten hätten sie die nicht so verkauft ;) (und verkaufen sie immernoch). Es ist doch wohl eher so, dass die Phenom II X2-Serie einen eher verschwindend geringen Marktanteil hat und der Verkauf dieser CPUs mehr Geld einbringt als er kostet.
Und klar ist es der Software egal, wieviel Kerne es gibt, aber hat es nicht den gleichen Effekt, wenn die Software eben so programmiert wird, dass es nur so viele Threads gibt, wie zum Zeitpunkt der Entwicklung Kerne vorhanden waren? Oder haben aktuelle Spiele jetzt schon genug Threads für Gulftown und mehr? Ich weiss, immer nur die Spiele zu betrachten ist beschränkt, aber hier wird am meisten über den mangelnden Nutzen zusätzlicher Kerne gemeckert.
Was hat das mit der Anzahl der Kerne zu tun? Das Problem beträfe ja 6-Kerner heute genauso. Es ist bei Echtzeitanwendungen nunmal nicht einfach effizientes MT zu betreiben, aber die Entwickler arbeiten dran. Natürlich haben Programme viel mehr Threads als die CPUs Kerne haben, aber davon sind nicht alle zeitkritisch, da liegt der springende Punkt.
 
Zuletzt bearbeitet:
@ fdsonne

die X2 3800+ waren der ausschuss vom ausschuss!

die besten toledos waren denmark (opteron)

was nicht als opteron taugte wurde zur desktop CPu und die X2 3800+ waren qualsi davon der ausschuss. gab da nur noch die X2 3600+ die aber erst sehr sehr spät kamen!
 
Zuletzt bearbeitet:
@Tigerfox
Das eine ist ein Allendale, das andere ein Conroe... Nicht auf die OC Werte schauen. Hab einfach ausm hwbot.org x beliebige rausgesucht. Ging eher darum, das es beide Versionen gab. Weil du dir ja oben nicht ganz sicher warst ;)


Und ja, klar mein ich das es sich lohnt. Würde man nur vollständige CPUs verbauen, sprich alle Einheiten aktiviert, so fällt halt gerade bei neuer Fertigung und neuer Architektur viel Ausschuss an, der in den Müll wandern würde. Diesen kann man sozusagen reanimieren. Ein nativ gefertigter Dual Modul BD würde mit den gleichen "Problemen" kämpfen wie die Quad Modul Version. Die Fehlerquote rechnet sich ja Prozentual auf den cm² und bleibt bei beiden Masken identisch. Mal abgesehen davon, das kleinere DIEs sich wohl etwas fehlerfreier fertigen lassen.
Und ein Dual Modul BD mit eigener Maske würde beim produzieren von Ausschuss eben dann immernoch in den Müll wandern.
Wenn ich mir überlege. Fertigt man 10 Quad Modul BDs bei 50% Yield, bleiben 5 Stück übrig. Man bekommt also fünf mal Quad Modul + fünf mal Dual Modul BD aus einer Maske.
Fertigt man nun 10 Quad Modul + 10 Dual Modul BDs bleibt bei 50% Yield die gleiche Menge übrig. Man braucht aber zwingend eine zweite Maske + die zweite Fertigungsstraße. (ist aber ne Milchmädchenrechnung)
Bei gut laufender Fertigung könnte man dann immernoch umswitchen. Sofern halt die Nachfrage hoch ist und man somit durch sinkende Produktionskosten eben mehr Gewinn einfahren könnte. Wie aber schon gesagt wurde, muss die Entwicklung der weiteren Maske ja auch finanziert werden.

Läuft ja quasi ähnlich wie bei den X2 Phenoms. Die sind ja fast zur Hälfte deaktiverte große Phenoms. Theoretisch könnte AMD hier auch ansetzen und optimieren... Scheint ihnen aber zu viel Geld zu kosten, oder die sehen den Sinn einer weiteren Maske nicht.
Auch braucht man natürlich um das dann gleichzeitig zu fertigen ne weitere Produktionsstraße... Die ja ebenso kostet und ausgelastet werden möchte.
 
Ich war mir ganz sicher, dass es beide gab, nur meine ich, dass damit eben mit Erscheinen von E6420 und E6320 Schluß war. Und woran erkennt man, welcher Conroe und welcher Allendale ist? Als einzigen Unterschied bei CPU-Z sehe ich VT-X. Außerdem sind beide B2, Allendale müsste L2 sein.

Die Frage, ob es sich lohnt, stellt sich mir, weil für einen Dulamodul-Bulldozer ja schon zwei Module defekt sein müssten. Bei 50% Yield sind bei dem Rest ja vielleicht 30% oder mehr mit nur einem defekten Modul. Wie oft sind schon zwei Module defekt? Und kann AMD nun ein Teildefektes modul nutzen?

Und was sollen die PhenomII X2 bitte anderes sein als teildeaktivierte Denebs? Gibt ja keinen speziellen Callisto-Core, das war Regor bei AthlonII X2. Oder meinst du hier die AthlonII-Modelle mit halbiertem Cache, die dann sowohl Propus, als auch Deneb sein könnten?

@[HOT]Schrottig meinte ich relativ. Nach Erscheinen von Deneb, wer hätte da noch einen Agena-Phenom gekauft, wenn nicht deutlich billiger? Der erste Phenom hatte einfach einen hundsmiserablen Start und wurde erst gegen Ende so einigermaßen konkurrenzfähig. Einige davon liegen ja jetzt noch in den Shops rum.
Ich weiss ja auch, dass Agena und Deneb bei gleichem Takt nur ein paar Prozent auseinanderliegen, aber durch den besseren Fertigungsprozess war Deneb dann doch um einiges besser und hatte auch einen problemloseren Start.
Und wirklich toll ist selbst Thuban ja immernoch nicht, wenn selbst alte Core2-CPUs nur mit deutlich mehr Takt geschlagen werden können.
 
Zuletzt bearbeitet:
@ fdsonne

die X2 3800+ waren der ausschuss vom ausschuss!

die besten toledos waren denmark (opteron)

was nicht als opteron taugte wurde zur desktop CPu und die X2 3800+ waren qualsi davon der ausschuss. gab da nur noch die X2 3600+ die aber erst sehr sehr spät kamen!

Ähm ja und nun?
Mal ganz davon ab das ich in den Listen beim hwbot.org keine Denmark CPUs höher takten sehe (ganz im Gegenteil, der schnellste DC S939 ist ein Toledo) ändert das an der damaligen Situation, das eben mal so mal so gefertigt wurde absolut überhaupt nichts... Und um nix anderes ging es gerade...

@Tigerfox
Wie man Allendale von außen erkennt? Kein Plan...

Zum Teildefekten... Du gehst zu hart an die Sache ran... Es spielt bei sowas weniger die Rolle, was wirklich defekt ist. Wenn die Yieldrate recht niedrig ist, fallen halt defekte DIEs an oder vllt auch DIEs, die die Spezifikationen in gewissen Teilen nicht erfüllen.
Ob da nun 50% oder 30% defekt im DIE defekt sind, spielt keine Rolle. (Defekte treten idR auch wohl eher in winzig kleinen Bereichen auf, welche dann einen größeren Teil komplett lahm legen) Da setzt sich auch niemand hin und prüft jeden DIE haarklein durch... Die Zeit ist da wohl gar nicht vorhanden.

Die Frage die es also zu klären gilt, wie viele unterschiedliche Versionen will AMD am Anfang bauen? Und was sind mögliche Modelle?
Baut man anfangs eben nur 4 Modul Versionen und will aber auch 2 Modul Versionen an den Mann bringen. So nimmt man teildefekten Ausschuss. Wenn man dann aber merkt, die 2 Modul Version verkauft sich gut, damit lässt sich gut Gewinn einfahren, kann und wird man wohl auch immernoch eine Maske dafür einführen...
Eben so wie Intel beim Allendale...
Der Manchester/Toledo 3800+ war denke ich deswegen so durchwachsen, weil die Nachfrage nach der CPU denke ich ziemlich hoch war...

Und zum Phenom X2. Auch hier verstehst du mich falsch. Ich will damit ausdrücken, das AMD mit diesen CPUs auch massiv viele Teile des Cores deaktivert. Aber scheinbar keine Notwendigkeit sieht, da eine eigene Fertigung für diesen CPU Typ hochzuziehen um eben die Fläche des Wafers effizienter nutzen zu können.
Ganz im Gegenteil, wie man teils sehen kann gibts gar vollständig lauffähige X2 Phenom Modelle (nach Freischaltung)
 
Ich will nicht wissen, wie man die von außen erkennen kann, sondern was dich auf den Screenshots dazu bringt zu glauben, dass eine sei ein Allendale, das andere ein Conroe (welcher ist welches btw.?).

Und ich hatte dich insofern falsch verstanden, dass ich es so gelesen hab, dass die Hälfte der Phenom X2 teildeaktivierte Phenoms sind und nicht dass Phenom X2 fast halbe Phenoms sind.
Das ist natürlich ein Argument, muss sich ja offensichtloch lohnen, obwohl ich niemandem einen Phenom X2 empfehlen würde, außer man spekuliert aufs Freischalten. Und darum geht's bei der CPU offensichtlich. Es hat mich aber immer gewundert, warum der X2 nach Erscheinen der AthlonII wirtschaftlich noch mehr Sinn hat, als der Phenom X3.
Nach meinem Verständnis sollte so aber immernoch viel eher ein ausreichender Ausschuss an triplemodul-Bulldozern anfallen, als an dualmodul-Bulldozern. Dass es sich dadurch aber viel eher lohnt, eine eigene Maske für letztere einzuführen als für erstere, verstehe ich.
Ich denke aber generell, wenn Bulldozer so gut wird, wie wir alle hoffen, können wir uns gleichzeitig von Freischaltereien und günstigen Modellen mit offenem Multi verabschieden, trotz FX-Label. Daher fand ich die Black Edition eigtl. ganz gut, auch wenn es bei meiner kaum was bringt.

Bzgl. Allendale meine ich aber mich erinnern zu können, dass es schon fast ganz zu Anfang Allendales gab oder geben sollte, die kleinen CPUs aber zeitweise nur Conroes waren. Zumindest der Name Allendale war stand von Anfang an in Verbindung mit diesen beiden CPUs.
 
Schau doch nochmal in die Screens, da steht beim einen bei Code Name Allendale, beim anderen Conroe. An irgend ner Stelle muss CPU-Z ja die Unterscheidung treffen. Denn das ganze zieht sich durch alle Versionen. Wie gesagt, Kumpel von mir hat damals von mir so nen Conroe E6400 verbaut bekommen. Gleichsam hab ich auch Allendale CPUs schon in der Hand gehabt.

Aber sei es drum, das ist hier stark OT ;)
 
@ fdsonne

klar gingen die X2 höher
schneller waren aber dennoch die denmark mit vollem cache ;)

aber BTT
 
@fdsonne: Ja, manchmal sieht man den Wald vor lauter Bäumen nicht. Also Erkennt CPU-Z kein L2-Stepping?
@Techtrancer: Toledo und Denmark hatten doch gleichviel Cache? Aber ich kann mich auch erinnern, das gegen Ende der S939-Ära plötzlich viele einen Opteron verbaut hatten und hab mich gefragt warum.

Damit es nciht zu OT ist: Was meint ihr nun zum Freischalten und freien Multi bei den verschiedenen Bulldozer-Modellen?
 
nur manche von den toledos hatten 2 x 1mb L2 (X2 4400+ und X2 4800+ wenn ich mich recht erinnere)
bei den denmark alle
voller L2 war hald deutlich schneller als halber L2
ein hoch getakteter opteron zusammen mit schnellen DDR1 war dazumals sogar schneller als die meisten AM2 CPu´s und lies sich oftmals auch besser takten!
erst als die F3 windsor und G2 brisbane heraus kamen lohnte sich ein wechsel!
bei den board konnte erst AM2+ überzeugen. die guten 9393er bretter waren meist besser als die AM2 bretter
 
Zuletzt bearbeitet:
AMD wollte doch bei CEBIT ein BD zeigen?! Gaben die dass gemacht oder doch nicht? (Ich denke - NEIN)

Ich bin leider ziemlich weit weg, um auf die Frage aufzupassen...
 
Nein, AMD wollte wohl doch nicht den BD zeigen sondern Llano. Das war wohl ein Fehler auf der Cebit-Seite. AMD wollte einen neuen Prozessor vorstellen und die sind von BD ausgegangen und haben das geschrieben.

Gerüchten zufolge startet der Launch zur E3 im Juni. AMD redet leider nicht viel über den BD.
 
nein auf der Cebit Seite stand das die Next CPU Generation 50% schneller wäre, das bezog sich auf Bulldozer, Llano ist nur ein Athlon2 ohne L3 Cache mit IGP in 32nm, Lesitung ca. X4 640, dafür besitzt er aber eine gute IGP. Das ist hier aber nicht das Thema!
 
@Techtrancer: Schon klar dass nur jeder zweite Athlon 64 X2 1MB L2-Cache hatte(ob Toledo oder später Winchester), aber es gab eben auch welche mit 1MB und die Topmodelle hatten es immer und selbst die dürften günstiger gewesen sein als der billigste Denmark-Opteron. Und so gewaltig war die Auswirkung des Caches nicht, jedenfalls nciht so groß wie bei Deneb vs. Propus.
Ob DDR1 tatsächlich bei gleichem Grundtakt deutlich schneller als DDR2 war, wage ich zu bezweifeln, aber tatsächlich war DDR2 höchstens messbar schneller und manchmal auch langsamer, dafür aber mit wesentlich weniger Spannung so hoch zu takten. Ebenso kann ich nichts dazu sagen, ob das E6-Stepping besser ging als F2, wage es aber zu bezweifeln.
Und woran misst du, ob AM2 Boards schlechter waren als S939, an der Ausstattung oder am erreichbaren Referenztakt oder woran? Ersteres kann nicht sein, der nForce5 war immer deutlich besser ausgestattet als der nForce4, bei AMD/ATI gab es endlich die SB600, außerdem hat man sich endlich fast flächendeckend von den nervigen mini-Lüftern verabschiedet.
Das mit dem Referenztakt mag in Einzelfällen (mein Board z.B.) stimmen, aber es gab ebensoviele Beispiele wo der Referenztakt auch über 350 ging.
Und das größte Argument für AM2 und gegen S939 war damals die Aufrüstbarkeit. Anfangs konnte man sich noch gute Hoffnungen machen, dass später ein Phenom auf dem Board läuft und auch wenn viele da enttäuscht wurden (wieder mein Board), ging es mit dem F3- und G2-Stepping doch deutlich weiter als mit dem Toledo, da war schon vor AM2 mit dem FX-60 schluß.
Wer damals noch S939 gekauft hat, der steckte ebenso in der Aufrüstfalle, wie jemand der vorher S754 oder heute noch AM2+, AM3 oder S1156 kauft.

@Topic: Ich denke, bei der Ankündigung auf der CeBit-Seite hat irgendein CeBit-Mitarbeiter bei der Ankündigung aufgrund der letzten Gerüchte an Bulldozer gedacht und das mit den 50% dahin geschrieben, ohne dass das von AMD so gewollt war.

Damit es nicht zu OT ist: Was meint ihr nun zum Freischalten und freien Multi bei den verschiedenen Bulldozer-Modellen?

EDIT:@Duplex: Steht es eigtl. schon fest, dass Llano keinen L3-Cache hat?
 
Zuletzt bearbeitet:
nein auf der Cebit Seite stand das die Next CPU Generation 50% schneller wäre, das bezog sich auf Bulldozer, Llano ist nur ein Athlon2 ohne L3 Cache mit IGP in 32nm, Lesitung ca. X4 640, dafür besitzt er aber eine gute IGP. Das ist hier aber nicht das Thema!

:lol:
vergiss nicht das der die kleiner ist u.a. :wink: gute igp :rolleyes:

hat amd nicht angekündigt modelle auf der messe im juni/july? vorzustellen, parralel zum ivy bridge...
 
@ Tigerfox

nicht ohne grund hab ich erst als die AM2+ bretter kamen von 939 auf AM2+ gewechselt
meine DDR1 liefen knap 300 bei 3-3-2-2-1T mit moderater spannung......waren extrem seltene CF-5 Speicherchips
meine opteron 3,2 ghz
und ausstattung was bei meinem CFX3200 auch besser als bei den AM2 brettern
 
Zuletzt bearbeitet:
@ Tigerfox

nicht ohne grund hab ich erst als die AM2+ bretter kamen von 939 auf AM2+ gewechselt
meine DDR1 liefen knap 300 bei 3-3-2-2-1T mit moderater spannung......waren extrem seltene CF-5 Speicherchips
meine opteron 3,2 ghz
und ausstattung was bei meinem CFX3200 auch besser als bei den AM2 brettern

Ja, wenn man schon ein gutes S939-Brett hatte und eine gute CPU, dann lohnte sich ein Wechsel natürlich nicht. Wobei dein Speicher, wie du selbst sagst, extrem selten war und dein Opteron wohl auch ziemlich gut ging. Das mit dem RD580-Brett lag an den Herstellern, da haben Asus und DFI bei AM2 einfach nicht so gute Bretter rausgebracht, Abit garnicht, beim RD480 ebenso, was auch an merkwürdigen Prioritäten lag (lieber noch einen JMB362 über PCIe, dafür Gbit-LAN über PCI).
Bei MSI war's aber genau andersrum, deren RD580-Brett war ganz gut (bis auf mangelnden Phneom-Support). Die nForce5-Bretter waren aber durchweg besser als ihre nForce4-Vorgänger.
Aber trotzdem war mit AM2 der S939 für Neukäufer wie mich damals Unsinn.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh