Endgültige technische Details von AMDs "Trinity" geleakt?

An diesem Punkt muss ich dir bedingungslos zustimmen.
Solche Lösungen sind kaum erreichbar.
Und wie es mit Unterstützung für ARM Cpus aussieht, ist unklar aber wenn alle Hersteller auf die Metrooberfäche umsteigen, dann wäre das denkbar.
Aber dann würden sie ja nicht mehr an 7 Nutzer und die noch große Anzahl der XP Nutzer verkaufen können, also nein.
Es sei denn Microsoft verteilt Windows 8 kostenlos als Software Update - oder nur die Metro Anwendungs Kompatibilität.

Die Metrooberfläche ist im Moment die größte Schwachstelle von Windows 8, so wie das jetzt gelöst ist ist ein Produktives Arbeiten damit nur umständlich möglich. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gabs da nicht die Tage mal ne Meldung, das man dran arbeitet?
Aber sei es Drum... Wie gesagt, für Tablets könnte AMR durchaus interessant sein, oder für kleine Netbooks, die nix anderes sollen, als mal ne Seite im Inet aufzumachen oder mal ein Bild/Video anzuschauen...
Geht man aber den Schritt weiter und will die Programmfielfalt des Notebooks oder Desktop PCs auf auf dem Netbook/Tablet unterwegs haben, wirds mit ARM wohl nix.

Aber ich denke hier könnten dann AMD und auch Intel Punkten, indem man vllt etwas mehr verbrauchende "vollwertige" CPUs in die Tablets und Netbooks pflanzt, wie man es heute auch schon tut. Oderflächentechnisch läuft wiederum Windows (7 oder 8) und der Anwender hat hal vollen Support für jegliche Software auf dem PC Markt.
 
Da arbeitet MS bestimmt dran, die dürften für die Windows 8 Preview teilweise beschissenes Feedback bekommen haben. Ich hab beid er Preview das Kotzen bekommen... ;)

Naja mal abwarten was ARM mittelfristig noch auf die Beinestellt, die wollen ja ins Desktop-Segment und da werden die sich wohl nicht nur auf Windows 8 setzen....

Naja AMD und Intel haben ja auch relativ sparsame "Vollwertige" CPUs die sind schon Konkurrenz genug für ARM. denen sollte wie geasgt nur sorgen machen was ARM vor hat. ;)
 
Was hat denn ARM vor!? Schaut für mich nicht unbedingt so aus, als würde es in Zukunft brenzlich werden für die beiden großen ;)
 
Naja, die wollen da ja wohl mitspielen. Ich sag ja auch nicht, dass es brenzlig werden muss, aber ich Weiß, dass ich es nicht wirklich weiß und wer will der kann so einiges. ;)

Schaun mer mal, wie der Kaiser so schön sagt. :d
 
Wie schon gesagt, den x86 Markt zu kippen halte ich für ausgeschlossen... Man kann bestenfalls aufspringen. Und als dritte Alternative mitmischen. Mit was gänzlich anderem braucht man nen Starken Partner an seiner Seite, der die Hardware pusht. Ich könnte mir sowas in ner Konsole vorstellen oder auch beispielsweise bei Apple... Im normalen Desktop/Notebook Endkundenmarkt eher nicht... Einfach weil die Anwendungen nicht laufen werden, die es aktuell gibt. Bestenfalls noch im HPC Servermarkt, wo man seine Software selbst schreibt... ;) Oder im Tablet PC Markt, wo es eigentlich keine Zusatzsoftware bedarf und man ein paar Nettigkeiten via Apps bereit stellt. Das ist aber in meinen Augen alles nix, vor dem AMD und Intel aktuell aufpassen müssten ;)
 
Zuletzt bearbeitet:
AMDs Problem ist aber, dass es, wenn es so weiter geht, Pleite geht.
Das Effizienzdefizit, das, was den BD ausbremst, muss behoben werden.
 
1. FM1 kompatibel zu Trinity

Bei einer neuen Architektur würde ich es eher weniger erwarten, dass diese auf dem gleichen Sockel lauffähig ist.

rein gar nichts aber auch wirklich rein gar nichts tritt davon ein, Intel wird den Abstand mit IvyBridge weiter vergrössern. Mehr Performance bei geringerer Leistungsaufnahme (TDP max. 77W). Sollte dazu noch die iGPU ca. A6 3650er Niveau erreichen, dann gute Nacht AMD.

AMD peilt auch mehr Performance bei geringerer Leistungsaufnahme an.
Inwieweit sie afholen können oder am gleichen Stand verweilen, wird man sehen müssen.
Und davon ob irgendetwas nicht eintreten oder eintreten wird, weißt du nunmal gar nichts, also was soll das?
Zudem, wenn Intel die Performance des A6-3650 erreichen sollte, dann hat man immernoch 50% Vorsprung mit der neuen GPU.
Intel packt laut 3D Mark 11 auch nur in etwa 30 bis 50% drauf und dann hat man noch lange kein AMD Niveau erreicht. Auch nicht mit den Treibern.
Erläuter doch mal die unklaren Punkte etwas genauer und ohne Polemik bitte. Danke

Im CPU Part stagniert man weiter, oder man ist immer noch schlechter daran als gegen PhneomII X4. Wo ist da der Fortschritt zu erkennen? Ich hatte mir grosse Träume mit Trinity zurecht geschmiedet, die in allen Punkten nicht in Erfüllung gehen werden.

Du kaufst dir ein neues System, was für deine Bedürfnisse ausreicht und schmiedest dann hoffnungsvolle Pläne für ein Update innerhalb eines halben Jahres, um dann wieder aufzurüsten?
Wo liegt da konkret der Sinn?
Beim CPU Part steigert man den Takt von 2,9 auf angeblich über 4 ghz (Turbo) bei anzunehmend ähnlich hohen Verbrauch.
Mit der für Piledriver Kerne angekündigten Mehrleistung von 10-15% ist man damit ungefähr auf IPC Niveau eines Llano, bzw Phenom II x4.
Inwiefern Trinity performen wird, musst du also noch abwarten. Aufgrund deiner haltlosen und unsinnigen Analysen wirst du da nichts eruieren können.

Auf welcher fundierten Grundlage basieren deine Behauptungen doch gleich? Erläutere mal etwas genauer...
 
Zuletzt bearbeitet:
AMDs Problem ist aber, dass es, wenn es so weiter geht, Pleite geht.
Das Effizienzdefizit, das, was den BD ausbremst, muss behoben werden.

Quark, AMD hat Jahre lang tiefrote Zahlen geschrieben und ist immernoch putzmunter ;)
Warum sollte auf einmal jetzt, wo es gerade recht stabile schwarze Zahlen gibt und wo man mit einigen interessanten Ansätzen und ner nagel neuen CPU Architektur an den Start geht, anders werden?
Und zum BD, auch wenn BD im Vergleich zur Sandy "nicht taugt" so hat man immernoch minimal zum Phenom II im gesamten zugelegt, benötigt dabei weniger Fläche auf dem Wafer, und zahlt im Moment nur eine einzige Produktionslinie, wo alle DIEs hinten der kompletten neuen Desktop und Server Palette runter laufen. Dazu gibts die Bobcat und Llano Fertigung.
In Summe dürften das deutliche Einsparungen sein zum Phenom II, wo es dann gegen Ende doch schon viele verschiedene Masken und eigene Fertigungen gab.
Wie sich das ganze nun mit dem BD entwickelt wird sich zeigen...

Intel packt laut 3D Mark 11 auch nur in etwa 30 bis 50% drauf und dann hat man noch lange kein AMD Niveau erreicht. Auch nicht mit den Treibern.
Erläuter doch mal die unklaren Punkte etwas genauer und ohne Polemik bitte. Danke

Ein unklarer Punkt ist immernoch, wen man mit mehr GPU Leistung überhaupt beeindrucken will?
Durch mehr CPU Leistung skallieren sehr viele Programme die die Endkunden im Alltag nutzen. Durch mehr GPU Leistung skallieren eigentlich nur Games und ner Hand von Programme, die auf GPU Beschleunigung setzen können.
Wobei bei letzterem mittlerweile auch die Intel GPUs so schnell sind, das sowohl diverse in 3D gerechneten Desktops diverser verschiedener OSen anständig laufen, sowie der Speed der GPU voll fürs FullHD Video Playback und anständige Browserbeschleunigung ausreichend ist.

Was bleibt also noch übrig außer Games?
 
Mann was fürn unnötiges Geblubber wegen der TDP überall... FM2 hat eh 125W TDP, weil ursprünglich gedacht war, auch High-End-Prozessoren (Komodo) darauf laufen zu lassen. Man "verspielt" da überhaupt nichts und jegliches Untergangsscenario aufgrund der TDP ist schlicht und ergreifend absurd. Kann nämlich sogar sein, dass Steamroller mit 5 Modulen darauf laufen wird später.
Und wenn man den Spielraum sowieso hat, ist jeder Trinity mit 125W eher eine Bereicherung, weil da auch höhere Taktraten möglich sind und die neue Fusion-Infrastruktur performancemässig mal etwas mehr an Fahrt gewinnt.
 
Zuletzt bearbeitet:
Und wenn man den Spielraum sowieso hat, ist jeder Trinity mit 125W eher eine Bereicherung, weil da auch höhere Taktraten möglich sind und die neue Fusion-Infrastruktur performancemässig mal etwas mehr an Fahrt gewinnt.

Das bestreitet ja wohl auch niemand, Kritik darf aber wohl angebracht sein, wenn man die Mehrleistung hauptsächlich durch Ausnutzung der mehr TDP erreicht.
 
Mann was fürn unnötiges Geblubber wegen der TDP überall... FM2 hat eh 125W TDP, weil ursprünglich gedacht war, auch High-End-Prozessoren (Komodo) darauf laufen zu lassen. Man "verspielt" da überhaupt nichts und jegliches Untergangsscenario aufgrund der TDP ist schlicht und ergreifend absurd. Kann nämlich sogar sein, dass Steamroller mit 5 Modulen darauf laufen wird später.
Und wenn man den Spielraum sowieso hat, ist jeder Trinity mit 125W eher eine Bereicherung, weil da auch höhere Taktraten möglich sind und die neue Fusion-Infrastruktur performancemässig mal etwas mehr an Fahrt gewinnt.

was ist besser AM3+ oder FM2, brauche neues Mobo?
 
fdsonne schrieb:
Ein unklarer Punkt ist immernoch, wen man mit mehr GPU Leistung überhaupt beeindrucken will?
Durch mehr CPU Leistung skallieren sehr viele Programme die die Endkunden im Alltag nutzen. Durch mehr GPU Leistung skallieren eigentlich nur Games und ner Hand von Programme, die auf GPU Beschleunigung setzen können.

Gegenfrage:Wen will man denn mit einer schnelleren CPU überzeugen? Es läuft doch alles... :d
Für den Heimnutzer reicht doch eigentlich schon lange ein athlon II x4 oder i3 für alle Office Dinge aus.
Solche Diskussionen führen zu nichts, daher ersticke ich das Thema im Keim und werd dazu nichts mehr sagen.
Solche lauen Telleranddiskussionen sind nervig.

fdsonne schrieb:
Das bestreitet ja wohl auch niemand, Kritik darf aber wohl angebracht sein, wenn man die Mehrleistung hauptsächlich durch Ausnutzung der mehr TDP erreicht.

Na wenn es wenigstens fundierte Kritik mit irgendeiner BAsis von den bekannten Leuten gewesen wäre.
Manchmal kommt es mir so vor als ob in den Foren (vor allem bei CB) das Niveau der RTL Vormittags und Nachmittagssendungen immer mehr die Oberhand gewinnt.
 
Zuletzt bearbeitet:
Gegenfrage:Wen will man denn mit einer schnelleren CPU überzeugen? Es läuft doch alles... :d
Für den Heimnutzer reicht doch eigentlich schon lange ein athlon II x4 oder i3 für alle Office Dinge aus.
Solche Diskussionen führen zu nichts, daher ersticke ich das Thema im Keim und werd dazu nichts mehr sagen.
Solche lauen Telleranddiskussionen sind nervig.

Da stimme ich dir zu... Aber vergleiche mal beispielsweise in heutiger stino Alltagssoftware und ordentlich bestücktem Betriebssystem erste Dualcore Modelle von vor paar Jahren mit heutigen Mittelklasse CPUs ala Athlon II X4 oder Core i3. Da ist einiges an Mehrleistung vorhanden im Desktop Betrieb.

Und mir gehts ja auch dabei nicht um absolute Multithreading Leistung der fetten Desktop Modelle, sondern viel eher um die kleineren Ableger, die in den Office PCs einzug finden werden. Die GPU Leistung hingegen liegt beim nicht Spieler brach, wohingegen mit jeder neuen CPU Generation die Dualcore oder Dualcore + SMT Modelle Stück für Stück ein wenig besser wurden tut es in Sachen GPU sogar ne HD2400 dedizierte Officesteckkarte von 2007 für alles, was aktuell auf dem Markt an GPU Software im Officebereich gibt.

Na wenn es wenigstens fundierte Kritik mit irgendeiner BAsis von den bekannten Leuten gewesen wäre.
Manchmal kommt es mir so vor als ob in den Foren (vor allem bei CB) das Niveau der RTL Vormittags und Nachmittagssendungen immer mehr die Oberhand gewinnt.

Was ist daran nicht fundiert?
An dem Fakt, sofern er so eintritt gibts doch nix zu rütteln, man erkauft sich die Mehrleistung wohl primär durch mehr Verbrauch anstatt durch Optimierung.
Warum man sowas nicht kritisieren darf, ist mir schleierhaft.
 
Zuletzt bearbeitet:
Woher wissen wir, woher die Mehrleistung denn kommt?
Piledriver könnte Effizienter als Bulldozer sein.
 
Durchaus, bestreitet ja auch niemand ;)
In erster Linie hat man zwischen 100W und 125W TDP aber erstmal 25% mehr Spielraum was die thermischen Grenzen und den Verbrauch angeht. Modelle in eben genau dieser Einstufung werden nicht ohne Grund dort eingestuft... Wie gut oder schlecht das ganze in Summe wird, bleibt ja dennoch erstmal abzuwarten.

Ich erinnere mich nur zu gut an die gebetsmühlenartig wiederkehrenden Worte von Duplex, der vor BD Release immer wieder betonte, was der BD im Vergleich zum Thuban besser macht. Mehr Takt, mehr IPC, mehr Cores usw.
Was rausgekommen ist, sieht man aktuell. Auch wenn Zambezi nicht Trinity ist, steht der Schnitt von vier vollwertigen Cores zu zwei Modulen der APU noch bevor. Das ist wie heute Thuban mit dem drei Moduler Zambezi zu vergleichen. Wie die Speedlage da ist, kann jeder selbst aktuell schauen.
Llano vs. Trinity könnte ähnlich ausfallen. Je nachdem wie gut man die Verbesserung anbringen kann beim CMT Design. Dazu fällt der 32nm Vorteil des Zambezi doch auch flach, da Llano schon in 32nm kommt.
Schaut für mich persönlich nicht so sehr nach nem großen Sprung in Sachen CPU Leistung aus... Folglich riecht alles danach, dass man die TDP dort ausnutzen muss um sich überhaupt etwas vorranzubringen.
 
Stimmt. Warum ist Bulldozer aber so schlecht.
Er hat Powergating, mehr Cace, und eine 32 nm Feritigung.
Wie kann diese neue, moderene Architektur so ineffizent sein?

Ist es eine Komponente, die beide Kerne auf einem Modul ausbremst?
Das muss doch ein Problem sein, dass sich lösen lässt.
Vorausgesetzt die Ursache ist bei AMD bekannt.

Wenn Piledriver das Problem behebt, dass ist es gut, dann ist da ein deutliches Leistungsplus drin. Wenn nicht, dann kann es sich nur wegen besserer Fertigungskapazitäten besser verkaufen. Denn es gibt ja Engpässe bei GF.
 
Stimmt. Warum ist Bulldozer aber so schlecht.
Er hat Powergating, mehr Cace, und eine 32 nm Feritigung.
Wie kann diese neue, moderene Architektur so ineffizent sein?

Ist es eine Komponente, die beide Kerne auf einem Modul ausbremst?
Das muss doch ein Problem sein, dass sich lösen lässt.
Vorausgesetzt die Ursache ist bei AMD bekannt.

Ein Mitgrund wird wohl sein, das man eben einen DIE für den quasi kompletten Servermarkt und dazu noch für den oberen Desktop Markt verwendet.
Im Desktop und Single CPU Servermarkt brauch es aber keine Interconnects für die Anbindung von drei weiteren CPUs als Beispiel. Das kostet unnötig Transistoren, macht Signalwege wohl auch länger und somit steigt die Ineffizienz. Den Schritt will AMD aber wohl mit dem Nachfolger weiter aufbrechen. Im ersten Schritt ging es wohl primär darum, die Architektur zu erschaffen.
Ein nächster Punkt wird die fehlende Unterstützung aktueller Software der neuen Architektur und auch des CMT Design sein.
 
Ich erinnere mich nur zu gut an die gebetsmühlenartig wiederkehrenden Worte von Duplex, der vor BD Release immer wieder betonte, was der BD im Vergleich zum Thuban besser macht. Mehr Takt, mehr IPC, mehr Cores usw.
Was rausgekommen ist, sieht man aktuell.
Das ist nicht meine schuld, JF-AMD der Server Chef hat während seiner Freizeit in Foren erwähnt das die IPC gegenüber K10 höher ausfallen wird. Was kann ich dafür wenn die Aussage nicht stimmen mag? Ich dachte er als Server Mann könnte recht haben, wenn Bulldozer mehr IPC pro logischem Prozessor hätte, dann wäre er auch gut geworden, der rest stimmt ja bis auf die Leistungsaufnahme :rolleyes:
 
Das ist nicht meine schuld, JF-AMD der Server Chef hat während seiner Freizeit in Foren erwähnt das die IPC gegenüber K10 höher ausfallen wird. Was kann ich dafür wenn die Aussage nicht stimmen mag? Ich dachte er als Server Mann könnte recht haben, wenn Bulldozer mehr IPC pro logischem Prozessor hätte, dann wäre er auch gut geworden, der rest stimmt ja bis auf die Leistungsaufnahme :rolleyes:

Jo das hat wirklich Johnboy gesagt, aber du solltest dir merken, dass der Leiter des Server-Marketing ist. Die reden viel wennd er Tag lang ist... ;)
 
Trinity scheint eine GPU für den CPU Sockel zu werden
Nein, Trinity wird eine APU mit CPU und iGPU für den Fusion Sockel. Die Dimensionierung wird ähnlich wie bei Llano sein. Also ein ausgewogenes Verhältnis zwischen CPU und GPU.

Im CPU Part stagniert man weiter, oder man ist immer noch schlechter daran als gegen PhneomII X4. Wo ist da der Fortschritt zu erkennen?
Man erreicht mit 2 Kernen vergleichbare bzw mehr Performance als mit 4 Kernen. Wo ist da kein Fortschritt zu erkennen?


Mit ARM können 16 Kern CPUs mit einer TPD von 22 auf den Markt kommen.
Ja, nützt nur im Client Bereich nix. GP Multicore hat dort seine Grenzen. Und ich denke, wir sind da mit 4-8 Kernen schon nahe dran. Alles weitere wird in Zukunft von spezialisierter Hardware übernommen, zB einer iGPU. Deren Effizienz braucht sich auch vor ARM nicht verstecken. ARM ist für sehr kleine und kompakte Systeme sehr interessant. Ich sehe aber noch nicht mal ansatzweise eine Konkurrenz für den Notebook und Desktop Markt. Dafür fehlt erstens die Infrastruktur und zweitens die Performance. Zumindest was die Performance betrifft, kann dies ARM selbst bestimmen. Nur, mit grösseren und performanteren Chips wird auch ARM sehr schnell merken, wie die Effizienz deutlich abnimmt. Ganz ehrlich, oberhalb von Smartphones und Tablets sehe ich in den kommenden Jahren keine wirkliche Konkurrenz von ARM. Auch nicht mit Windows 8. Da muss schon noch einiges mehr passieren.

Die reichen dann zwar in Einthread Modus nicht mal an Bulldozer heran, aber können Asynkron getaktet viel mehr ausrichten. Viel besser als Turbo Modus.
Asynchron takten? Ähm, was ist der Unterschied zu einem Turbo mit separaten Taktdomänen pro Kern?

Auslastung 1Ghz 16 Kerne, Vollbelastung, hohe Rechenleistung.
Und bei bestimmten Aufgaben 1 Kern auf 2,5 und 2 andere für andere Prozesse mit 1Ghz. Ergebniß: 8 Watt, bei mäßiger Leistung.
Und Idle? 4 Kerne mit 800 Mhz.
Und was ist da jetzt der Unterschied zu aktuellen x86 Prozessoren? Die machen genau das. Und falls es dir lediglich um die Höhe des Turbos geht, dann schau dir mal niedrig getaktete x86 Prozessoren an. Die haben teils auch einen Turbo von 1 GHz und mehr.

AMDs Problem ist aber, dass es, wenn es so weiter geht, Pleite geht.
Ja, das haben die AMD Basher auch schon vor 5 Jahren behauptet, als der Core2 rauskam und noch wild zum K10 spekuliert wurde. Pleite ist AMD immer noch nicht. Und man steht heute sogar besser da denn je, da man mittlerweile wieder konstant schwarze Zahlen schreibt und das Portfolio ein grösseres Spektrum bietet als früher.

Das Effizienzdefizit, das, was den BD ausbremst, muss behoben werden.
Bulldozer hat kein Effizienzdefizit. Falls du FX-8150 auf stromhungrigen Boards meinst, das ist ganz gewiss nicht repräsentativ für Bulldozer. Bulldozer ist die Architektur bzw der Codename für einen Kern (CU) der ersten Generation.
 
Sollte ja auch kein Vorwurf sein. ;) Ich wollte damit nur betonen, das man nicht alles glauben kann, was irgendwo von irgend nem Marketingtypen mal erwähnt wird und was vllt auf irgend ner (vllt auch org.) Folie mal zu lesen ist. Gerade wenn es darum geht, einen im Dreck steckenden Karren dort rauszubefördern...

Für die überarbeitete Bulldozer Version wird ja auch mehr IPC vorrausgesagt. Ob das wirklich kommt, ist in meinen Augen erstmal fraglich. Zumindest was die aktuell vorrausgesagten Werte in % angeht. Da es beim BD Release eben auch nicht dem entsprochen hat, wie man aktuell sieht.
Aber da darf jeder glauben was er möchte ;)
 
Technisch gesehen wirkt Bulldozer wie eine hochmoderne Archteiktur mit hoher Effizienz.
Daher wäre eine ähnlich hohe IPC doch zu erwarten gewesen.
Ich hoffe für AMD, dass sie das Design auch so optimieren, dass die Architektur vorteile sich auch auf das Endprodukt auswirken.
 
Man erreicht mit 2 Kernen vergleichbare bzw mehr Performance als mit 4 Kernen. Wo ist da kein Fortschritt zu erkennen?

Warum auf Kerne runterbrechen?
Du warst doch auch mit einer der Beführworter, CPUs nicht anhand der reinen Coreanzahl sondern besser anhand der logischen Prozessoren zu vergleichen. Und dann stehts nach wie vor vier zu vier.
Nur ist in meinen Augen fraglich ob der CMT Ansatz vom kommenden Trinity mit zwei Cores pro Modul eben den bis dato herkömmlichen Ansatz von vier vollwertigen Llano Kernen paroli bieten kann. In Sachen BD vs. Thuban zieht erster deutlich den kürzeren (bei gleicher Anzahl logischer Prozessoren)
Es muss also entweder das Design deutlich mehr IPC bieten bzw. im allgemeinen mehr Berechnungen pro Core und Thread raushauen oder aber man geht den Weg über den Takt (Turbo)
Was man aber wohl wieder über mehr Verbrauch erkaufen muss...

Technisch gesehen wirkt Bulldozer wie eine hochmoderne Archteiktur mit hoher Effizienz.
Daher wäre eine ähnlich hohe IPC doch zu erwarten gewesen.
Ich hoffe für AMD, dass sie das Design auch so optimieren, dass die Architektur vorteile sich auch auf das Endprodukt auswirken.

Das mag sein. Rückblickend konnte man aber sowas in etwa absehen...
Leider wurde man bei Kundtun dieser Sichtweise in die Intel Boy Schublade verfrachtet, da konnten die Argumente noch so sachlich gewählt worden sein.
In meinen Augen hätte ein BD mit IPC Werten ähnlich SB mit eben jeder den Boden gewischt. Das erschien mir von Anfang an unwarscheinlich, es mussten also irgendwo Federn gelassen werden.
Die Wirkweise von CMT war ja ewig vorher schon bekannt... Man sprach von bis 80% Skalierung des zweiten Cores im gleichen Modul. Setzt man also das mal gegen die Phenom II müsste ein vier Moduler BD bei gleichem Takt schonmal grobe 80% (vllt etwas weniger) draufpacken.
Thuban skaliert zu knappen 50% im Optimalfall zu den Phenom II Vierkernern. Mit dem fehlenden grob 30% hätte man schonmal den 2600K in der Tasche gehabt. Dazu sprach man von Taktraten anfänglich mit 3,2GHz und 3,6GHz bis zuletzt eben jene 3,6GHz und 4,2 im Turbo nochmal um ein paar Prozente mehr. Und zu guter letzt die Zahlen der IPC Steigerung... In Summe hätte Sandy da kein Land gesehen.
Der Takt klang von Anfang an realstisch. Die bis 80% Skalierung von CMT ebenso. Unwarscheinlich wurde irgendwas daran an den Preisspekulationen, wo die 300$ Marke von Anfang an irgendwie mitmischte. Da ich mir aber so ne mörder CPU nicht vorstellen konnte zu dem Preis ging ich von Anfang an von schlechterer pro Thread Leistung aus. Und genau das ist eingetreten. ;) Pro Thread und Pro Takt hängt man dem Thuban hinterher, mit dem besseren Turbo bringt man etwas an Vorteil auf seine Seite. Man geht mit dem BD konsequent den Weg weiter in Richtung Multithreading, obwohl der Softwaremarkt noch immer hinterher hinkt.
 
Zuletzt bearbeitet:
Ich frage mich, wie gut denn ein Thuban mit Power Gating und 32nm wäre.
So gut wie Sandy Bridge?
Schon denkbar.
 
Durch Power Gating und 32nm wird die CPU ja nicht schneller.

In 32nm hätte man dem Thuban aber wohl mehr Takt spendieren können. Gepaart mit hier und da ner Optimierung, neuen Befehlserweiterungen und etwas IPC Verbesserung sowie ordentlichen Stromsparmechanismen wäre man denke ich aber auch gut gefahren.
Dennoch hinkt der Vergleich, denn Bulldozer ist die neue Architektur die für mehrere Folgegenerationen herhalten soll. Der Thuban basiert nach wie vor auf der mehr oder weniger horn alten K10 Architektur, welche wiedrum ein Aufguss des K8 von 2003 ist. Vllt wärer ein 32nm Thuban der bessere Bulldozer gewesen, aber auch ein 32nm Thuban hätte irgendwann mal nen Nachfolger gebraucht. Intel schläft nicht und K8/K10 scheint in meinen Augen wohl doch schon deutlich ausgereizt. Mit Bulldozer hat man für später mehr Möglichkeiten. Wie diese umgesetzt werden ist halt nur das Thema ;)

Wenn man Trinity zum Beispiel mit überarbeitetend Bulldozer Modulen ins Rennen schickt, wo auch mehr IPC und bessere pro Watt Leistung rauskommt, geht man erstmal den Schritt in die richtige Richtung. Vergleicht man mal mit dem R600 damals, war dieser zu Anfang auch schlecht, aber NV hat sich mit den 1D Einheiten zunehmend mehr in Richtung Ineffizienz bewegt. Könnte also sein, das Intel dies früher oder später auch noch blüht. Mit Netburst haben sie schon eine Sackgasse erreicht...
 
Zuletzt bearbeitet:
So ist es. Und wenn Piledriver dann eine Verbesserung von BD ist, dann gibt es ja die Chance, dass das Ding auch noch so Verbesserungen hat.
Dass die Architektur ausgereifter und effizienter wird..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh