[Sammelthread] AMD Bulldozer "New CPU Architecture" Sockel 942 AM3+ Sammelthread [Part 2]

Status
Für weitere Antworten geschlossen.
Das klingt ja bald als müsstest du dir und uns die CMT Geschichte schon schön reden...
warum schön reden? Planet 3DNow! Forum - Einzelnen Beitrag anzeigen - Bulldozer rollt an....

Und hier muss aber neben der Die-Fläche auch an den Energieverbrauch gedacht werden. Die 2 CMP-Kerne hätten eine höhere Leakage und auch einen höheren Verbrauch (mehr aktive Logik). Und dank Ineffizienzen, Bubbles zwischen Bursts usw. hättest du mit dem ganzen Aufwand gerade mal 25% mehr Rechenleistung bei gleicher Thread-Zahl, dafür aber weniger Kerne bei gleichem Stromverbrauch, also statt 8C Zambezi eine CPU mit 5C u. knapp 80% der Rechenleistung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na weil es nix anderes ist ;)
Irgend eine theoretische Betrachtung...

Auch halte ich Verbrauchsspekulationen ohne definierten Workarround für irgendwie sinnfrei, denn mit diesem steht und fällt der Verbrauch.
 
wenn dann kommt Tripple Channel mit Sockel 2012 als AM3+ Nachfolger oder es bleibt bei FM1, alles andere ist sinnlos.
Ist es nicht gerade der Sinn von Hyperthreading / Doppel-Integerkernen die Latenzen und Flaschenhälse im Speichersystem zu kompensieren? Gehen einem Thread mal kurzzeitig die Daten aus, darf der andere den ganzen Kern mit allen Resourcen für sich nutzen. Das allein nimmt ja schon die Schärfe aus der Suppe, und wie man bei Grafikkarten sieht, funktioniert das eigentlich auch ganz gut (dort gibt's kein so ausgeklügeltes mehrstufiges Cache-System). Tripple-Channel ist insofern vielleicht etwas Wunschdenken. Mal abgesehen davon, dass es ziemlich unpraktisch ist und die Platinen teuer macht.

Btw: Läuft ein aktueller AM3-CPU wie der Athlon II auch mit einem einzigen Modul oder müssen es zwei sein?
 
Irgend eine theoretische Betrachtung...

Auch halte ich Verbrauchsspekulationen ohne definierten Workarround für irgendwie sinnfrei, denn mit diesem steht und fällt der Verbrauch.
Dresdenboy hat viel ahnung von Architekturen, sogar die Leute von Intel lesen seinen Blog

Gehen einem Thread mal kurzzeitig die Daten aus, darf der andere den ganzen Kern mit allen Resourcen für sich nutzen
richtig wenn der 1. Cluster einen Thread ausführen kann & der 2. Cluster durch Clockgating runtertaktet, dann kann der 1 Cluster alle Resourcen von einem Modul inkl. L2 Cache nutzen.

Tripple-Channel ist insofern vielleicht etwas Wunschdenken. Mal abgesehen davon, dass es ziemlich unpraktisch ist und die Platinen teuer macht.
wir werden es sehen, Sockel C2012 ist bereits für BD2 2012 angekündigt, BD2 hat PCIe intregriert, bei AM3+ müsste dann AMD extra PCIe deaktivieren, das ist ziemlich unwahrscheinlich! Eine andere möglichkeit wäre den Fusion FM1 Socket zu nutzen, Llano hat bereits PCIe im Chip.

Btw: Läuft ein aktueller AM3-CPU wie der Athlon II auch mit einem einzigen Modul oder müssen es zwei sein?
Der Athlon II hat keine Module wie bei Bulldozer, er hat normale K10.5 Kerne ohne L3 Cache, Kerne kann man deaktivieren ;) ein Beispiel wäre der Sempron 140.
 
richtig wenn der 1. Cluster einen Thread ausführen kann & der 2. Cluster durch Clockgating runtertaktet, dann kann der 1 Cluster alle Resourcen von einem Modul inkl. L2 Cache nutzen.
Turbo mal beiseite gelassen. Arbeiten zwei Threads pro Modul teilen sie sich das für vier parallele Befehle ausgelegte 'Front-End', also zwei Befehle pro Takt pro Thread.
Wenn jeder Thread nonstop laufen würde (also nie auf Daten warten müsste), ergibt der Aufwand für Hyperthreading/Doppel-Integerkerne keinen Sinn. Dann kann man auch gleich einen Thread laufen lassen, der vier Takte pro Befehl verarbeitet.
Also so hab ich zumindest die Intention von Hyperthreading beim P4 verstanden, ist auch ohne Turbo sinnvoll (mit der richtigen Software).

Mal abgesehen davon, dass bei 2 Threads mit je zwei Befehlen weniger Befehle in der Pipeline laufen und bei einer misslungenen Sprungvorhersage weniger Befehle erneut abgespult werden müssen.

@santa clause: Jap, meinte 'DDR-3 (Speicher-)Module'.
 
Danke für den Hinweis, ich hoffe dass Bulldozer das nicht auch schon integriert hat. Und falls doch, dass es gleich beim Launch kommuniziert wird.

Unterschrieben haben die den Schweinkram auch...mal sehen obs sie es genau so geschickt vertuscht bekommen wie Intel wenn sie es einbauen.....
 
Was ist das denn für ne Argumentation?
Das klingt ja bald als müsstest du dir und uns die CMT Geschichte schon schön reden...

Die muss man nicht schön reden - sie ist schön, denn einen optimaleren Kompromiss aus Leistung und Transistorbudget wird man kaum finden. Man könnte gewissermaßen sagen, das ist eine sehr elegante Lösung - die ist sogar evtl noch auf 4 Threads erweiterbar. Das war doch immer das große Ziel in den ganzen Jahren der Prozessorentwicklung - es ging doch immer darum die Leistung bei möglichst wenig Energieaufwand zu steigern. Das erreicht man oft durch Fertigung, aber auch durch die Frage: Was braucht man wirklich und was nicht. Wenn man Redundanzen im Prozessor abbauen kann, ohne dass das viel Leistung kostet (siehe Bobcat) kann da was sehr effizientes bei rauskommen.
 
Zuletzt bearbeitet:
Ist eigentlich schon bischen was bekannt, zu den Boards? z.B. PCIE 3.0 und solchen Sachen? Die neuen Intel die nach dem Bulldozer kommen, sollen ja schon PCIE 3.0 haben!?
 
Ist eigentlich schon bischen was bekannt, zu den Boards? z.B. PCIE 3.0 und solchen Sachen? Die neuen Intel die nach dem Bulldozer kommen, sollen ja schon PCIE 3.0 haben!?
Jo, die 900er Chipätze sind erstmal nur umbenannte 800er, also PCIe2. PCIe3 gibts vermutlich 2012 mit Bulldozer 2.0.
 
Hmm, das wäre sehr sehr schade! Dann muss mich der Bulldozer schon richtig übel überraschen, sonst wart ich auf den neuen Intel!
Warten kann man immer ...
Der neue Intel Ivy kommt frühestens im Q4 ... zu der Zeit kannst Du dann vielleicht schon wieder auf BD2.0 mit Triple Channel und sagenhaften Cachegrößen dank T-RAM warten (beides noch Spekulation), der kommt dann irgendwann 2012.
Überhaupt, wozu brauchst DU PCIe3 ?
 
Lucif3rhawk schrieb:
Hmm, das wäre sehr sehr schade! Dann muss mich der Bulldozer schon richtig übel überraschen, sonst wart ich auf den neuen Intel!

Die aktuelle PCie Spezifikation hat noch genug Durchsatz, um aktuelle Grafikkarten mit Daten einwandfrei zu versorgen, ich glaub das Warten auf PCie 3.0 rentiert sich nicht.^^
 
Brauchen tu ich es nicht, aber warum ein Feature nicht mitnehmen wenn man kann? PCIE 3 wird kommen und dann muss ich ned wieder umsteigen, wenn dann die ersten Grakkas von 3.0 ihren nutzen ziehen können! Ich möchte ja ned nach 1 Jahr wieder wechseln! ;-)
Zudem finde ich es ned gut, wenn die 900er eigentlich identisch sind mit den 800er!
Aber erstmal abwarten und schauen was den nun kommen wird! ;-)
 
Der wird eventuell einer feineren Fertigungstechnologie unterliegen. Aber von PCI-E 3 werden auch kaum zukünftige Grafikkarten wirklich profitieren...
 
Brauchen tu ich es nicht, aber warum ein Feature nicht mitnehmen wenn man kann? PCIE 3 wird kommen und dann muss ich ned wieder umsteigen, wenn dann die ersten Grakkas von 3.0 ihren nutzen ziehen können!
Im Moment bin ich mir nichtmal sicher, ob Grafikkarten nutzen aus PCIe 2.0 ziehen ^^

Das sieht man doch andauernd an den CF Benches, die in schlechteren Brettern mit "nur" x8 / x8 laufen.
Da ist nicht viel Unterschied, irgendwas zw. 1-3%. Bandbreitenmäßig entspricht x8 PCIe2.0 x16 bei PCIe 1.0 ... ergo bringt das nicht viel.

Das wird bei PCie 3.0 dann noch weniger bringen. Ist einfach Bandbreite satt. Da wird mMn etwas (zu)viel gehypt. Nur wg. PCie3 brauchst Du Deine Kaufpläne auf alle Fälle nicht verschieben.

Wenns wegen 22nm und besserem OC und/oder weniger Stromverbrauch ist, würde ichs verstehen. Aber PCIe3 ist wirklich das allerletzte Argumentchen ;-)

Die kleineren 900er sind nicht identisch, sind etwas besser, aber zumindest der 990/890 hat featureseitig nix Neues.
 
Zuletzt bearbeitet:
Wie schon gesagt, falls der Unterschied von 890 zu 990 nicht schlau wird, dann muss der Bulldozer ne menge rausholen, sonst muss das Sys halt noch bischen halten! ;-)
 
Ne, aber wenn ich einen neuen Chipsatz habe, dann hätte ich auch gerne mehr Leistung oder Features. Aber wie schon gesagt, mal abwarten. Dauert ja ned mehr so lange! ;-)
CPU Leistung ja, die ist nie verkehrt, aber bei der I/O Leistung reichen die 800er Chipsätze nachwievor.
 
CPU Leistung ja, die ist nie verkehrt, aber bei der I/O Leistung reichen die 800er Chipsätze nachwievor.

Stimmt wo bekommt man denn sonst noch z.B. 6 x SATA III (6Gb/s)? :d

Edit:
Hehe, wenn AMD mit den 800er Chipsätzen nur 2 x SATA III (6GB/s) eingeführt hätte und erst mit den 900er Chipsätzen 6 x SATA III (6Gb/s) bringen würde, gäbe es eine Steigerung die man bejubeln könnte ;-) Tatktisch unklug von AMD gewesen, nicht scheibchenweise vorzugehen^^
 
Zuletzt bearbeitet:
CPU Leistung ja, die ist nie verkehrt, aber bei der I/O Leistung reichen die 800er Chipsätze nachwievor.

Das mag stimmen, ich hätte halt gerne noch USB3 in den 900er gesehen, was ja nicht der Fall zu seien scheint. So wird dann immer ein extra Chip verbaut, der extra Platz und PCIe-Lanes kostet und manchmal das Layout kaputt macht.
 
Das mag stimmen, ich hätte halt gerne noch USB3 in den 900er gesehen, was ja nicht der Fall zu seien scheint. So wird dann immer ein extra Chip verbaut, der extra Platz und PCIe-Lanes kostet und manchmal das Layout kaputt macht.
PCIe Lanes hat AMD genug, da herrschte noch nie Mangel, im Gegensatz zu den alten 1156er Intels können auch alle Leitungen der 800er Chipsätze die volle PCIe2.0 Speed. also nichts worüber man sich Sorgen machen müßte.
Layout ist eh immer Geschmackssache, soll ja auch noch Leute geben die über fehlende Floppy Anschlüsse trauern :fresse:

Solange diverse Features ohne Flaschenhals zur Verfügung stehen reichts mir :)
 
Wenn wie bei einigen Intel-Boards zusätzlich noch 2 Marvel-SATAIII Chips verbaute werden müssen, beeinflusst das nicht weniger das Layout.

Und wegen der Panik das PCIe-Lanes nicht ausreichen könnten, der Sockel LGA1156 muss ja ganz schön Eindruck hinterlassen haben, wenn dessen Unzulänglichkeiten (begrenzte Anzahl an PCIe-Lanes, PCIe 1.0 statt PCIe 2.0) nun auf AMD projiziert werden.

btw, kommt PCIe 3.0 nicht ohnehin erstmal nur maximal als PCIe 3.0 x8? Das entspricht doch PCIe 2.0 x16, der 890/990FX hat zwei davon. Gut für Triple-CF wirds irgendwann knapp.

Edit: Opteron war etwas schneller :-)
 
Zuletzt bearbeitet:
PCIe Lanes hat AMD genug, da herrschte noch nie Mangel, im Gegensatz zu den alten 1156er Intels können auch alle Leitungen der 800er Chipsätze die volle PCIe2.0 Speed. also nichts worüber man sich Sorgen machen müßte......
... stimmt genau. Und die SATA 6 GB Ports der SB850 sind auch flott. Die Chipsets >= FX8xx sehe ich da entspannt. Wer unbedingt mehr Ports / Anschlüsse braucht, kann 15 € investieren und z.B. einen ASRock/Marvell Dual-Port Controller zusätzlich draufpacken - der braucht nur einen PCIe_x1 Slot. Oder eine nur etwas teurere Kombikarte mit zusätzlichen 2 USB 3 Ports drauf - die braucht dann halt einen PCIe_x4 Slot.
Nun muß BD nur noch kommen und auch die AM3+ Bretter - und preislich in bezahlbarem Rahmen liegen. Dann wird's doch sehr, sehr spannend.... :d
 
Brauchen tu ich es nicht, aber warum ein Feature nicht mitnehmen wenn man kann? PCIE 3 wird kommen und dann muss ich ned wieder umsteigen, wenn dann die ersten Grakkas von 3.0 ihren nutzen ziehen können! Ich möchte ja ned nach 1 Jahr wieder wechseln! ;-)
Zudem finde ich es ned gut, wenn die 900er eigentlich identisch sind mit den 800er!
Aber erstmal abwarten und schauen was den nun kommen wird! ;-)

PCIe3 wird aber in 2011 für den Normalnutzer total unrentabel sein (SB 6-8 Kerner) und erst in 2012 mit IVY und BD2 den Massenmarkt erreichen.
 
lol, jetzt hängt mich ned alle auf wegen dem PCIe 3.0! :-) Ich sagte ich würde das Feature gerne mitnehmen, falls es das schon hätte! Aber wenn der 990 praktisch genau die gleichen Features hat wie der 880, dann finde ich das eigentlich zu wenig, da müsste der Bulldozer schon der oberknaller werden. Sonst muss mein Sys halt noch bischen halten! *g*
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh