kapitulationserklärung von amd an Intel?

Status
Für weitere Antworten geschlossen.
Geb mir mal Kontodaten :d
Ich hätte gern nen 1155er mit 6 Kernen in 22nm ohne den Grafik mist ;)

Das mache ich dir mit ner Flex, nem Schweißgerät und Heißkleber für die Hälfte!!
Ich glaube, ich nenne meine Firma dann DumPass!! :lol:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum muss ich das? Du hast doch gesagt das es wenig profitabel für AMD ist, dann solltest du das auch mit Zahlen belegen.
Naja, es gibt zumindest Statements von AMD, dass der Markt für sie nicht profitabel war, auch zu Athlon 64 Zeiten. Sofern du keine Gegenbeweise hast, muss man das erstmal so hinnehmen. Kannst du denn deine Behauptung für Intel mit irgendwas offiziellem untermauern?

Warum zusätzlich Investieren? Im Prinzip läuft es doch eh schon so das man eine Architektur rausbringt und sie für den Servermarkt und den Desktopmarkt benutzt.
Na so einfach ist das nicht. Du brauchst ja auch noch eine Plattform, auf der der Prozessor läuft. Zwar hat man mit G34 die Basis. Ein Desktop Derivat muss aber auch erstmal entwickelt und validiert werden. Investitionen, die letztendlich wegen geringem Absatz keinen wirklichen Profit bringen. Da ist es sinnvoller, diese Ressourcen für andere Produkte zu verwenden.

Und zu der Sache mit dem Prestige, hätte AMD nicht so eine tolle Zeit mit dem K7 oder Athlon 64 gehabt und sich damit als ernsthaftes Unternehmen etabliert hätten sie heute wohl kaum so viele Fans die oft auch aus Sympathie und nicht aus Vernunft zu einem Produkt von AMD greifen.
Die Rationalität der Kaufentscheidungen vom AMD Kunden basiert meist auf P/L und weniger auf Sympathie. Da ist mehr Vernunft vorhanden als bei der Konkurrenz. ;)

Trotzdem halte ich es aber für Zweifelhaft das Bulldozer der "richtige" Weg für die Zukunft sein muss. Zum einen bringt es nichts wenn ich so auf Multithreading gehe, aber trotzdem keine Leistung mitbringe, weder im Desktop als auch auf dem Servermarkt, und zum anderen gibt es noch immer viele Einsatzzwecke in Workstations usw in denen Aufgaben abgearbeitet werden die sich nicht parallelisieren lassen.
Genauso zweifelhaft ist es, ob die Intel Architektur der richtige Weg ist. Damit meine ich übrigens nicht nur Hyperthreading, was für mich nichts halbes und nichts ganzes ist. SMT bei In-Order Architekturen schön und gut, bei OoO halte ich es aber für kontraproduktiv. Und natürlich lassen sich alle Aufgaben parallelisieren. Du meinst vermutlich, dass sich nicht jede Aufgabe beliebig partitionieren lässt. Da bleibt im Endeffekt die Frage, möchtest du eine Aufgabe schneller abgearbeitet haben, was dir in vermutlich >90% aller Fälle sowieso keinen Vorteil bringt? Oder möchtest du mehr Kapazitäten für parallel abgearbeitete Aufgaben, so dass das System in jeder Situation reaktionsfreudig bleibt? Also ich präferiere klar letzteres.

Bulldozer ist für seine 4 Module mit 315 mm² auch nicht gerade klein. Evtl musste man die Packdichte verringern um einen höheren Takt zu erreichen, das weiß ich nicht, aber kleinere und effizientere Kerne hätte ich auch schon zu sechst oder vielleicht sogar zu acht auf diese Fläche unterbringen können.
Mit der gleichen Funktionalität und Erweiterbarkeit? Das glaube ich kaum.

Er lohnt sich also eigentlich nur in speziellen Anwendungen, aber im allgemeinen ist ein Opteron 61xx System in Preis/Leistung besser.
Die Opteron 62xx/42xx werden die Opteron 61xx/41xx ablösen und damit auch deren Preisspektrum übernehmen. Insofern stellt sich die Frage überhaupt nicht. Ausserdem frage ich mich, wie du zu dieser gewagten Aussage kommst. Der schnellste Magny Cours, 6180 SE, wird derzeit für $1514 gelistet. Der 6282 SE ist mit $1019 fast ein Drittel preiswerter.


Es vergessen aber auch viele aus dem Blauen lager, dass die SB architektur am Ende ist, was das machbare anbelangt, aber BD eine komplett neue Architektur mit viel potential ist.
Soweit würde ich nicht gehen. SB ist im Endeffekt genauso "am Ende" wie K10. Und man sieht ja bei Llano, dass sich selbst mit kleineren Tweaks immer noch was aus totgesagten Architekturen rausquetschen lässt. Vom Potenzial her bietet Bulldozer aber sicherlich interessantere Ansätze, gerade in Bezug auf MT und APUs. Für ähnliches müsste Intel grössere Umstrukturierungen an der Architektur vornehmen. Das wird aber wohl frühestens 2013 mit Haswell ein Thema.
 
Das stimmt. Ich hab mir vorhin mal die neue c`t angeschafft. Dort wird mit bestem Support für Bulldozer getestet. Er schneidet dort besser ab und kann sich vom Xeon absetzen, allerdings nicht wirklich vom Vorgänger.

Nehmen wir mal die MFlops/Watt als Größe. Bulldozer kommt auf 502 MFlops und die Vorgängergeneration auf 450 MFlops/Watt (Intel liegt hier mit dem Westmere System bei 311 MFlops/Watt, hat allerdings auch weniger Kerne und weniger Ram der mit weniger Kanälen angebunden ist, dafür aber höheren Takt). Dafür ist ein Bulldozer System wesentlich teurer (wenn ich nicht gerade ein altes System aufrüste, was möglich ist).

Er lohnt sich also eigentlich nur in speziellen Anwendungen, aber im allgemeinen ist ein Opteron 61xx System in Preis/Leistung besser.

Wir sind uns nicht zufällig am Zeitschriftenregal begegnet? ;)
Auf jedenfall ein interessanter Test in der C´t. Unteranderem zeigt er einige Baustellen bei Bulldozer auf.
Beim Thema FMA sollte AMD Intel sanft auf die Finger hauen. Die FTC dürfte solche Tricksereien ungern sehen.
 
Also ich hab viel mit Server zu tun und da ist oft AMD verbaut.

Zum anderen kauf ich immer günstige Cpu's
 
Ich bin mir relativ sicher das diese Zahlen gefaked sind

Genauso wie Computerbase zu Intel gehört
 
Ich bin mir relativ sicher das diese Zahlen gefaked sind

Genauso wie Computerbase zu Intel gehört

Sicherlich, eigentlich gehören auch alle Server Hersteller zu Intel. Im Endeffekt kauft Intel nur von sich selbst und lässt dann seine Presse Fantasieabsatzahlen rausgeben, die dann den Kurs an der intel-eigenen Börse steigen lassen. und Abends riechtb es bei Intel immer nach Schwefel... :asthanos:
 
Im Endeffekt kauft Intel nur von sich selbst und lässt dann seine Presse Fantasieabsatzahlen rausgeben, die dann den Kurs an der intel-eigenen Börse steigen lassen.
Heh, bei Automobilherstellern ist dies ne gängige Praxis, aber ich glaube sowas hat Intel noch nicht nötig.

Was DerGoldeneMesia wohl meinte ist, dass der Computerbase-Gründer seit 2008 bei Intel arbeitet. Aber dies ist zu sehr OffTopic.
 
Hmm warum sollten die Zahlen gefaked sein?

Den Artikel finde ich sehr interessant. Eventuell will AMD seine Marktanteile in den verschiedenen Bereichen stabilisieren und auf ein jeweils ähnliches Niveau von ~20% kommen. Oberste Priorität hat da natürlich der Servermarkt mit nichtmal 5%, danach kommen die Mobilprozessoren, bei denen man mit Hilfe der APUs schon zulegen konnte und der Desktopmarkt steht halt hinten an, da man da immernoch 24% hat und diese mit den APUs und den FX glaubt halbwegs halten zu können.
 
Ich fänds schade, wenn AMD sich aus dem desktop Markt zurückziehen sollte. Ich kauf seit nunmehr über 10 Jahren ausschließlich AMD CPUs weil sie vom Preis/Leistungsverhältnis unschlagbar sind - nicht zuletzt weil man eben nicht für jede CPU gleich auch ein neues MB braucht. Aber dazu wird es zum Glück so schnell auch nicht kommen. Wen juckts wenn AMD nicht die Leistungskrone hat; der enthusiast-Sektor macht nur einen Bruchteil des Erlöses aus.
 
Naja, es gibt zumindest Statements von AMD, dass der Markt für sie nicht profitabel war, auch zu Athlon 64 Zeiten. Sofern du keine Gegenbeweise hast, muss man das erstmal so hinnehmen. Kannst du denn deine Behauptung für Intel mit irgendwas offiziellem untermauern?

Das war mehr als hint zu verstehen. Immerhin hat Intel weit mehr unterschiedliche Dies in Produktion was R&D auch teurer machen dürfte. Sie kompensieren aber die R&D kosten einfach durch den hohen Umsatz weil sie ganz andere Stückzahlen wie AMD machen.

Ich "glaube" das AMD sich weit mehr von Bulldozer erhofft hat die Probleme wie nicht ganz erreichtes Taktziel usw dem aber Steine in den Weg gelegt haben.

Zum Umsatz im P(ersonal)C(omputer) Markt gab es folgendes:

Intel: Weniger Umsatz & Gewinn - News Hartware.net

Intel scheint also schon deutlich zu spüren wenns bei den Desktops mal nicht so läuft.

Na so einfach ist das nicht. Du brauchst ja auch noch eine Plattform, auf der der Prozessor läuft. Zwar hat man mit G34 die Basis. Ein Desktop Derivat muss aber auch erstmal entwickelt und validiert werden. Investitionen, die letztendlich wegen geringem Absatz keinen wirklichen Profit bringen. Da ist es sinnvoller, diese Ressourcen für andere Produkte zu verwenden.

Naja, bei der Plattform hat AMD da aber nicht viel verändert (was sie wohl auch mal tun sollten). Als Beispiel da nochmal SB-E (tut mir leid, aber er eignet sich da so), Intel entwickelt einen Sockel für Server und HE-Desktops. Dazu kommen dann 5 (?) Chipsätze von denen einer auf den Desktop zugeschnitten ist. Wobei man da aber auch sagen kann das beim Desktop eigentlich nur nen vernünftiges BIOS oder UEFI wichtig sind und der Preis. Die restlichen Dinge wie SATA braucht man auf beiden Plattformen und USB 3.0 wird zumindest bei Intel dann eh von Zusatzchips geliefert. Für den Servermarkt ist USB weitestgehend uninteressant und Intel eigentlich mehr an Thunderbolt interessiert.


Die Rationalität der Kaufentscheidungen vom AMD Kunden basiert meist auf P/L und weniger auf Sympathie. Da ist mehr Vernunft vorhanden als bei der Konkurrenz. ;)

Naja, ich habe mir bis zu meinem Core 2 Duo bewusst nur AMD CPUs gekauft weil ich die Firma einfach mochte. Der K7 war damals alles andere als günstig und auch die Boardpreise waren, wenn ich mich recht erinnere, wohl auch durch Slot A nicht gerade günstig im Vergleich mit Intel Slot 1 damals.

Vorher mit dem K6 sah es anders aus. Der schlug in etwa in die gleiche Kerbe wie heute der Phenom 2. Nicht so schnell wie Intel aber P/L wirklich gut. Wobei man dabei aber auch sagen muss das die Prozessorpreise damals noch ganz andere waren wie heute.

Das Blatt konnte Intel damals mit dem Core 2 drehen. Der erste Phenom war von der Leistung ebenso entäuschent (für mich) wie heute Bulldozer. Also hab ich den Hersteller gewechselt.


Es gibt sicherlich einige die nur Intel kaufen würden egal wie gut AMD da steht, andersrum aber nunmal auch ;)


Genauso zweifelhaft ist es, ob die Intel Architektur der richtige Weg ist. Damit meine ich übrigens nicht nur Hyperthreading, was für mich nichts halbes und nichts ganzes ist. SMT bei In-Order Architekturen schön und gut, bei OoO halte ich es aber für kontraproduktiv. Und natürlich lassen sich alle Aufgaben parallelisieren. Du meinst vermutlich, dass sich nicht jede Aufgabe beliebig partitionieren lässt. Da bleibt im Endeffekt die Frage, möchtest du eine Aufgabe schneller abgearbeitet haben, was dir in vermutlich >90% aller Fälle sowieso keinen Vorteil bringt? Oder möchtest du mehr Kapazitäten für parallel abgearbeitete Aufgaben, so dass das System in jeder Situation reaktionsfreudig bleibt? Also ich präferiere klar letzteres.

Hyperthreading ist die einfachste Lösung. Der Geschwindigkeitsvorteil ist nicht hoch, optimal warns glaub ich um die 20-30%. Aber der Aufwand ist natürlich ziemlich gering.

Zu deinem Beispiel brauchst du natürlich auch die passende Aufgabe. Workstations für CAD zB brauchen nicht unbedingt 16 Kerne. Wie man in der c`t schön sieht gibt es natürlich Aufgaben wo es auf soviele Kerne wie möglich ankommt, aber zB die kleineren Opterons mit 4, 8 oder 12 Kernen dürften es gegen die (SB)-Xeons schwer haben.


Mit der gleichen Funktionalität und Erweiterbarkeit? Das glaube ich kaum.

Natürlich ohne zwei Integer-Einheiten ;)


Die Opteron 62xx/42xx werden die Opteron 61xx/41xx ablösen und damit auch deren Preisspektrum übernehmen. Insofern stellt sich die Frage überhaupt nicht. Ausserdem frage ich mich, wie du zu dieser gewagten Aussage kommst. Der schnellste Magny Cours, 6180 SE, wird derzeit für $1514 gelistet. Der 6282 SE ist mit $1019 fast ein Drittel preiswerter.

Aus den Link oben von mir:
Fortunately, TPC requires full disclosure of the parts lists and pricing, along with vendor discounts. Factoring out the software and client costs, looking just at the servers and their storage, and assuming similar discounts, we get prices of around $260,000 for the Opteron 6100 system, $879,000 for the Opteron 6200 system, and $511,000 for the Xeon system. That makes the 6200 system an even worse value for money. It's now more than 200 percent more expensive than the 6100 system, and about 70 percent more than the Xeon system.

Soweit würde ich nicht gehen. SB ist im Endeffekt genauso "am Ende" wie K10. Und man sieht ja bei Llano, dass sich selbst mit kleineren Tweaks immer noch was aus totgesagten Architekturen rausquetschen lässt. Vom Potenzial her bietet Bulldozer aber sicherlich interessantere Ansätze, gerade in Bezug auf MT und APUs. Für ähnliches müsste Intel grössere Umstrukturierungen an der Architektur vornehmen. Das wird aber wohl frühestens 2013 mit Haswell ein Thema.

Bulldozer hat bisher Vorteile. Geht man aber halt mal in die Zukunft gibt es halt irgendwo auch Probleme. Amdahl's law sollte man da nicht vergessen.

Intel "scheint" mit Haswell in die Richtung kleinerer Cores zu gehen. Man möchte ihn halt gleich für Tabletts etc. mit nutzen.

Selbst mit Ivy Bridge könnte man wohl recht einfach aufgrund der kleinen Die Size 10 oder 12 Kerner realisieren. SB-E ohne Veränderungen in 22nm käme wohl nurnoch auf ca. 210mm², bei 8 Kernen wohl gemerkt. Da wäre wohl selbst ein 16 Kerner bei den heutigen 435mm² realisierbar.

Die Frage ist halt wieviele Kerne sinnvoll sind für den Großteil des Marktes.
 
Kapitulationserklärung von AMD an Intel?

Ja, obwohl ich selbst AMD-Systeme einsetze, ist da (teilweise) schon was wahres dran.

Rein von der Rechenleistung und vom Performance/Watt-Verhältnis ist dem so. Da gibbet es nichts daran zu rütteln. Andererseits sind High-End-Desktop-CPUs ja nicht das Maß aller Dinge mit welchen Gewinn und Umsatz generiert wird.

AMD ist mit Zacate und Llano in ihren derzeitigen Bereichen meiner Meinung nach durchaus gut aufgestellt. Derzeit hapert es halt diesbezüglich an den Kapazitäten, sprich an GF. Das gilt insbesondere für den Bulldozer. Auch die recht hohen Preise für die BD-CPUs sprechen dafür. Ich gehe davon aus, daß BD derzeit nur in homöopathisch geringen Dosen ausgeliefert werden (kann!). AMD möchte sicherlich gerne mehr liefern, kann aber nicht. Dafür spricht auch, daß es kaum OC-Ergebnisse hier im Forum gibt. Also setzen AMD bzw. die Händler die Preise für die BD-CPUs recht hoch an. Alternate verlangt tatsächlich 284 Euro für nen 8150. Würde die CPU ihrer Leistung entsprechend 180 Euro kosten, wäre sie permanent ausverkauft.

Ich glaube jedoch nicht, daß sich AMD komplett aus dem Performance-Segment des Desktopmarkts zurückziehen wird. BD1 war halt mal die Kröte welche geschluckt werden mußte. Der Sprung auf eine neue Architektur sollte wohl durchgeführt werden auch wenn diese nicht so perfekt war, wie von vielen gehofft.

Das Performance/Watt-Verhältnis fällt bei meinen FX-6100 im übrigen gar nicht mal so übel aus wenn man entsprechend undervoltet. Bei Standardtakt ohne Turbo sind auch mit einem Billigmainboard (MS 760GM-P23 FX) Werte von unter 1.1V drin. Die Effizienz ist dann wirklich klasse. Ich für meinen Teil werde erstmal beobachten wie sich das ganze weiter entwickelt. W7-Updates, W8-Scheduler und die weiteren Anpassungen an die BD-Architektur. Bis zum Piledriver werde ich wohl noch warten und dann entscheiden, ob mein nächstes Hauptsystem eben mit diesem oder mit einer Ivy ausgestattet wird.

Abschreiben würd ich die BD-Architektur zum derzeitgen Zeitpunkt noch nicht.
 
Zuletzt bearbeitet:
Ich fänds schade, wenn AMD sich aus dem desktop Markt zurückziehen sollte. Ich kauf seit nunmehr über 10 Jahren ausschließlich AMD CPUs weil sie vom Preis/Leistungsverhältnis unschlagbar sind - nicht zuletzt weil man eben nicht für jede CPU gleich auch ein neues MB braucht. Aber dazu wird es zum Glück so schnell auch nicht kommen. Wen juckts wenn AMD nicht die Leistungskrone hat; der enthusiast-Sektor macht nur einen Bruchteil des Erlöses aus.



AMD meinte doch das sie nicht aussteigen werden es ist wie immer ein Gerücht.
 
So, nun will ich mal eine Aussage machen :).

Ich arbeite seit Jahren in der IT Branche. Derzeit arbeite ich bei einem der großen deutschen IT Dienstleister mit 3 firmen eigene Großrechnerzentren. Im Rechenzentrum stellen wir für zig tausend Kunden virtualsierte Rechnenleistung zur Verfügung (Application Service Providung), auch als asp bekannt.
Aus diesem Grund muss ich ab und an zur Schulungszwecken ins Rechnzentrum.
Ich staunte ich nicht schlecht aus ich dort wider erwarten sehr viele Schränke sah die NICHT mit Intel Xeons bestückt waren. Nein, es waren sehr viele Opterons!!!!

Ich will hier keine AMD vs Intel Diskution anzetteln. Ich will lediglich sagen das AMD in den letzten Jahren immer seine Kunden gefunden hat.

Als damals der erste Phenom raus kam, wurde dieser auch in der Luft zerissen. Er war langsam, Stromhungrig und hatte einen massiven Bug. Trotzdem wurde er gekauft.
Mit dem 2. Auflage gings dann etwas besser. Die schlimmsten Fehler waren behoben.
Richtig gut wurde jedoch auch erst der Phenom II.

Ich denke AMD hat aus seinen Fehlern der Vergangenheit gelernt und versucht es erst gar nicht mit Intel einen "Krieg" an zu zetteln den es gar nicht gewinnen kann. Dafür hat AMD einfach zu wenig Ressourcen.

Einmal vor 11 Jahren konnte AMD bei Intel mit der K7 Architektur einen echten Kinnhacken landen. Intel musste sogar angezählt werden. Doch es war klar das Intel irgend wann zum Gegenschlag ausholt. Was spätestens mit C2D geschau.
Trotzdem konnte sich AMD, wenn auch unter schwersten Anstrengungen halten.
AMD änderte seine Strategie. Fabriken wurden verkauft. Fremdkapital wurde geholt und man kaufte ATI.

Mit ATI gelang AMD ein genialer Schachzug. Man änderte bei ATI die Firmenstrategie.
Anstatt sich ständig mit Nvidia in teueren "Leistungskronen" Kriegen zu verzetteln, zielte man auf den Massenmarkt und Consumermarkt wo 80-90% des Volumens laufen.
An einer 3650/4650 ist mit Sicherheit mehr verdient als an jede Top GPU.

Das Konzept ging auf. ATI hat sich erfolgreich am Markt gegen Nvidia behaupten können und das ganz ohne Top GPU!!

Nach der erfolgreichen Integration von ATI in den AMD Konzern, soll dieses Konzept nun in den CPU Markt übernommen werden.

Mit Brazos und Llano hat AMD bewiesen das es tatsächlich funktioniert.

Die PC Landschaft hat sich in den letzen Jahren massiv geändert. Reine Höchstleistung um jeden Preis wird nur in den Speerspitzen der Technologie benötigt. Doch in den meisten Bereichen reicht heute so ziemlich jede "kleine" CPU vollkommen aus.

Effizienz, Vielseitigkeit, hohe Intigration sind die Schlagwörter die gebraucht werden.

Ein Beispiel: Ein Sandybridge hat Rechnenleistung an Mass, doch ohne dedizierte Grafikkarte wird er von einem Llano regel recht "verprügelt" und das zu einem Bruchteil der Kosten!!!

Wenn AMD es schafft den Bulldozer zu "zähmen" und noch eine 7000er GPU zu intigrieren wird er mit Sicherheit für viele IT Anforderungen eine Alternative zu einem Intel System sein.
 
Zuletzt bearbeitet:
Hmm wer hätte es erwartet, selbst auf Seite 1 des Media Markt Prospektes steht nun ein Notebook mit AMD-APU :eek:

Vor nicht all zu langer Zeit wäre das ein totales Unding gewesen.

Hey dein Server ist fast eine Kopie von meinen :)
 
Ich will hier keine AMD vs Intel Diskution anzetteln. Ich will lediglich sagen das AMD in den letzten Jahren immer seine Kunden gefunden hat.

Die Diskussion wird es immer geben, ist bei AMD vs Nvidia ja nicht anders. Der Gipfel ist immer erreicht wenns mit den Verschwörungstheorien los geht ;)

Als damals der erste Phenom raus kam, wurde dieser auch in der Luft zerissen. Er war langsam, Stromhungrig und hatte einen massiven Bug. Trotzdem wurde er gekauft.
Mit dem 2. Auflage gings dann etwas besser. Die schlimmsten Fehler waren behoben.
Richtig gut wurde jedoch auch erst der Phenom II.

So nen Phenom 1 fall kenne ich auch :d. Die Begründung war das wir ja bisher immer alle AMDs hatten. Sowas in der Art meinte ich auch eine Seite zuvor mit dem Prestige bzw dem guten Ruf.

Ich denke AMD hat aus seinen Fehlern der Vergangenheit gelernt und versucht es erst gar nicht mit Intel einen "Krieg" an zu zetteln den es gar nicht gewinnen kann. Dafür hat AMD einfach zu wenig Ressourcen.

Ich weiß nicht ob man das Resourcenthema immer vorschieben kann. Einen Preiskampf kann AMD freilich nicht gewinnen, aber sie sind wohl kaum verhindert einen brauchbaren Prozessor für den Desktop zu bringen. Wie auch schon vor ner Seite erwähnt hat AMD sich wohl mehr vom Bulldozer erhofft als er jetzt tatsächlich bringt. Ich hoffe mal BD2 kann die Fehler beheben und zeigt was er kann, nicht nur bei Servern.

Einmal vor 11 Jahren konnte AMD bei Intel mit der K7 Architektur einen echten Kinnhacken landen. Intel musste sogar angezählt werden. Doch es war klar das Intel irgend wann zum Gegenschlag ausholt. Was spätestens mit C2D geschau.

Eben das zeigt das Geld keine falschen Entscheidungen Rückgängig machen kann. Der P4 war auch für Intel nicht das was man sich dort eigentlich erhofft hatte. Für Core 2 wurde dann wieder die P6 Architektur genommen und weiterentwickelt.

Das finde ich ja bei Bulldozer etwas schade. Das er Multithreading so gut beherrscht mag ja ein Vorteil sein, aber das er auf hohen Takt ausgelegt ist schafft eigentlich viele Nachteile. Der größte dürfte der Stromverbrauch sein den steigende IPC nicht n dem Maße verursacht hätte.

Trotzdem konnte sich AMD, wenn auch unter schwersten Anstrengungen halten.
AMD änderte seine Strategie. Fabriken wurden verkauft. Fremdkapital wurde geholt und man kaufte ATI.

Halte ich persönlich nicht für genial. Einen GPU Entwickler zu kaufen war gut, aber das es ATI sein musste halte ich nicht für den besten Schachzug. AMD hat sich damit eigentlich übernommen. Matrox wäre wohl der bessere kauf gewesen. Noch besser wärs wohl aus heutiger Sicht mit PowerVR gelaufen, wenn man bedenkt wo AMD jetzt scheinbar hin möchte.

Man kann allerdings viel Spekulieren was wäre wenn.

Mit ATI gelang AMD ein genialer Schachzug. Man änderte bei ATI die Firmenstrategie.
Anstatt sich ständig mit Nvidia in teueren "Leistungskronen" Kriegen zu verzetteln, zielte man auf den Massenmarkt und Consumermarkt wo 80-90% des Volumens laufen.
An einer 3650/4650 ist mit Sicherheit mehr verdient als an jede Top GPU.

Das Konzept ging auf. ATI hat sich erfolgreich am Markt gegen Nvidia behaupten können und das ganz ohne Top GPU!!

Naja, ATI hat ja Top Dogs ebenso wie Nvidia Low Cost oder Mainstream GPUs im Programm hat. Das einzige was AMD damals wirklich gemacht hat ist, das sie gesagt haben sich jetzt auf nen anderen Markt zu konzentrieren...

Nach der erfolgreichen Integration von ATI in den AMD Konzern, soll dieses Konzept nun in den CPU Markt übernommen werden.

Mit Brazos und Llano hat AMD bewiesen das es tatsächlich funktioniert.

Naja, es ist ein SoC. So besonders ist das jetzt nicht und erfunden hat AMD das Rad da auch nicht neu. Nur haben sie es natürlich einfacher weil ne passende GPU nicht enwickelt werden musste sondern man sie durch den gleichzeitigen Vertrieb von GPUs schon hatte.

Die PC Landschaft hat sich in den letzen Jahren massiv geändert. Reine Höchstleistung um jeden Preis wird nur in den Speerspitzen der Technologie benötigt. Doch in den meisten Bereichen reicht heute so ziemlich jede "kleine" CPU vollkommen aus.

Ist nen bisschen schwierig. Mobile Geräte haben den Markt etwas umgekrempelt. Viele sind praktisch, viele unnötig und viele einfach nur ne Modeerscheinung die trotzdem gekauft werden.

Man schaue sich die Netbooks an. Viele wollten damals unbedingt eins haben, hatte ja fast jeder eins. Mussten dann aber feststellen das die Geräte den eigenen Ansprüchen in keinster Weise genügen. Die wurden dann wieder zurückgegeben oder halt mit frust trotzdem behalten.

Ich glaube ein ähnliches Schicksaal steht auch den Tablets bevor, sie sind gerade In, bevor Apple den Markt für sich erkannt hat wollte aber keiner was davon wissen.

Effizienz, Vielseitigkeit, hohe Intigration sind die Schlagwörter die gebraucht werden.

Ein Beispiel: Ein Sandybridge hat Rechnenleistung an Mass, doch ohne dedizierte Grafikkarte wird er von einem Llano regel recht "verprügelt" und das zu einem Bruchteil der Kosten!!!

Kommt drauf an für was man ihn braucht. Den normalen Bürojob oder Videos gucken etc kann ich auch mit der iX GPU, wirklich spielen kann ich mit beiden nicht (nach meinem Anspruch, wer da nicht so hohe hat kann sie sicherlich dafür nehmen). Es ist natürlich immer ein gute Gefühl für die Zukunft was Leistungsfähiges "da drin" zu haben, aber einen wirklichen Mehrwert habe ich nicht unbedingt, es ist viel mehr entscheident direkt eine GPU zu haben. Wobei man auch sehen muss das die OnBoard-GPUs nix anderes waren.


Wenn AMD es schafft den Bulldozer zu "zähmen" und noch eine 7000er GPU zu intigrieren wird er mit Sicherheit für viele IT Anforderungen eine Alternative zu einem Intel System sein.

Sicherlich.

Hmm wer hätte es erwartet, selbst auf Seite 1 des Media Markt Prospektes steht nun ein Notebook mit AMD-APU :eek:

Vor 15 Jahren habe ich bei MM mal nach AMD gefragt da wusste man garnicht was das ist ;)





Edith sagt:

Der Power 7 geht a ganz schön ab. Schade das er kein x86 hat.
 
Zuletzt bearbeitet:
Vor 15 Jahren habe ich bei MM mal nach AMD gefragt da wusste man garnicht was das ist
Vor 12 Jahren waren MM und Konsorten voll mit Fertig-PCs auf Athlon Basis. So einer wurde mir auch von allen Seiten empfohlen. Wollt das nur mal in den Raum werfen. :)
 
Das war mehr als hint zu verstehen. Immerhin hat Intel weit mehr unterschiedliche Dies in Produktion was R&D auch teurer machen dürfte. Sie kompensieren aber die R&D kosten einfach durch den hohen Umsatz weil sie ganz andere Stückzahlen wie AMD machen.
Hier geht's doch nicht um Dies. Das bei den High-End i7 genutzte Die ist das gleiche wie bei den Servermodellen. Da wurde also nicht extra was entwickelt, sondern maximal validiert. Unterm Strich, du hast also nichts, was deine Behauptung untermauert, richtig?

Ich "glaube" das AMD sich weit mehr von Bulldozer erhofft hat die Probleme wie nicht ganz erreichtes Taktziel usw dem aber Steine in den Weg gelegt haben.
Du solltest nicht ständig solche Behauptungen aufstellen, wenn du sie nicht belegen kannst. Wo hat AMD sein Taktziel nicht erreicht? Geplant waren 3,5 GHz für Orochi. Und das hat man ja wohl mehr als erreicht. Ähnlich sieht es bei Orochi MCM aus. Offiziell wurden dafür zwar nie Taktziele angegeben. Man liegt aber mit 2,6 GHz etwa bei dem, was man erwarten konnte. Dass hier noch nicht Schluss ist, sollte klar sein. Das ist aber gewiss kein Thema für Launch-Modelle. Deneb (Shanghai) startete auch irgendwann mal bei "nur" 3 GHz. Wo man heute ist, sieht man ja. Stichwort CTI.

Als Beispiel da nochmal SB-E (tut mir leid, aber er eignet sich da so), Intel entwickelt einen Sockel für Server und HE-Desktops.
Nein, anders. Intel entwickelt eine Serverplattform, die sie für High-End Desktops "missbrauchen". War schon mit LGA 1366 so und ist bei LGA 2011 nicht anders. Könnte AMD mit G34 genauso, lohnt sich nur halt nicht.

Naja, ich habe mir bis zu meinem Core 2 Duo bewusst nur AMD CPUs gekauft weil ich die Firma einfach mochte. Der K7 war damals alles andere als günstig und auch die Boardpreise waren, wenn ich mich recht erinnere, wohl auch durch Slot A nicht gerade günstig im Vergleich mit Intel Slot 1 damals.
Dann solltest du aber nicht von dir auf andere schliessen. Ich habe mir seinerzeit gewiss keinen Thunderbird geholt, weil mir AMD sympathischer war. AMD war mir damals zwar schon ein Begriff (K5, K6), kannte deren Produkte aber überhaupt nicht. Fakt ist, dass sie einfach das bessere Angebot hatten. Und das hat sich bis heute für meine Ansprüche nicht gross geändert. Mein nächstes Desktop System wird mindestens einen Quad haben. Kannst du mir einen aktuellen Intel Quad für unter 100 Euro zeigen? Ich sehe da keinen. Die i5 gehen erst ab 150 Euro los. Und das ist definitiv zu viel. Dafür kann man auf AMD Basis ein komplettes Upgrade Kit zusammenstellen, inklusive Quad Prozessor, Board und RAM.

Hyperthreading ist die einfachste Lösung. Der Geschwindigkeitsvorteil ist nicht hoch, optimal warns glaub ich um die 20-30%. Aber der Aufwand ist natürlich ziemlich gering.
Die einfachste Lösung, zumindest für hardwareseitiges MT, ist es sicherlich nicht. Das dürfte immer noch CMP sein. Das Problem an OoO SMT ist einfach, dass es sehr inkonsistent reagiert, keine wirklich grossen Gewinne erzielen kann und bei eh schon hoher Auslastung der Pipeline nahezu gar nichts bringt oder gar zu Performanceverlust führen kann (Resource Competition). Ob da der Aufwand lohnt, egal wie gross er ist, ist eher fraglich. Es kommt ja nicht von ungefähr, dass sich einige Hersteller bewusst gegen SMT entschieden haben, wie AMD oder ARM. Bei In-Order muss das sicherlich wieder anders bewertet werden. Dort hat SMT durchaus seine Daseinsberechtigung.

Workstations für CAD zB brauchen nicht unbedingt 16 Kerne.
Workstations für CAD brauchen aber auch keine schnellen CPU Kerne. Da dürfte die Grafikleistung immer noch wichtiger sein, sprich gute GPUs und Treiber.

Natürlich ohne zwei Integer-Einheiten
Schon klar. Das war mit Funktionalität auch nicht gemeint. Zeige mir doch mal zwei x86 Kerne, mit aktuellsten Befehlssatzerweiterungen (SSE4, AVX, XOP, AES), FMA Support, etc, die kleiner als ein BD Modul sind und performancetechnisch mithalten können. K10 kannst du vergessen. Dessen 32 nm Weiterentwicklung sehen wir in Llano. Und zwei Kerne sind nicht kleiner und effizienter. Und man muss eben Abstriche bei der Funktionalität machen.

Aus den Link oben von mir
Wieder mal ein Beweis, dass man nicht allem blind glauben sollte, was geschrieben wird. ;) Opteron 62xx nutzt die gleiche Plattform wie Opteron 61xx, G34. Insofern sind gleich ausgestattete Systeme auch gleich teuer. Unterschied ist dann lediglich der Prozessor. Und die gelisteten Preise hatte ich ja bereits erwähnt. Wenn die auf so unterschiedliche Preise kommen, dann sind die Systeme mit Sicherheit nicht vergleichbar.

Bulldozer hat bisher Vorteile. Geht man aber halt mal in die Zukunft gibt es halt irgendwo auch Probleme.
Die da konkret wären?

Intel "scheint" mit Haswell in die Richtung kleinerer Cores zu gehen.
Was heisst "scheint"? Gibt's dazu Infos? Ich habe zumindest noch nichts davon gelesen, dass die Kerne kleiner werden sollen. Mal abgesehen von der Fertigungsstruktur. Wobei IB ja bereits in 22 nm gefertigt wird. Die gezeigten Haswell Prototypen sahen jedenfalls SB/IB sehr ähnlich. Bisher steht eigentlich nur im Raum, dass der Cache anders werden könnte. Dass die Kerne kleiner werden, glaube ich nicht. Bisher spricht einiges für eine Weiterentwicklung der SB Architektur. Dementsprechend sollten die Kerne ähnliche Dimensionen haben.

Selbst mit Ivy Bridge könnte man wohl recht einfach aufgrund der kleinen Die Size 10 oder 12 Kerner realisieren. SB-E ohne Veränderungen in 22nm käme wohl nurnoch auf ca. 210mm², bei 8 Kernen wohl gemerkt. Da wäre wohl selbst ein 16 Kerner bei den heutigen 435mm² realisierbar.
Unwahrscheinlich. Bei aktuell 435 mm² würden 210 mm² mehr als einer Halbierung gleich kommen. Typisch ist hingegen weniger, da Shrinks nicht 1:1 mit der Gate Länge skalieren. Das wären also eher irgendwas >250 mm². Mit der steigenden Komplexität bei doppelt so vielen Kernen müsste man also mindestens mit 500 mm² rechnen, eher mehr. Weniger ist nur möglich, wenn man Abstriche macht, zB den Cache nicht verdoppelt. Dann skalieren die Kerne allerdings auch schlechter.
 
...Ich arbeite seit Jahren in der IT Branche. Derzeit arbeite ich bei einem der großen deutschen IT Dienstleister mit 3 firmen eigene Großrechnerzentren. Im Rechenzentrum stellen wir für zig tausend Kunden virtualsierte Rechnenleistung zur Verfügung (Application Service Providung), auch als asp bekannt.
Aus diesem Grund muss ich ab und an zur Schulungszwecken ins Rechnzentrum.
Ich staunte ich nicht schlecht aus ich dort wider erwarten sehr viele Schränke sah die NICHT mit Intel Xeons bestückt waren. Nein, es waren sehr viele Opterons!!!!...


ja klar, wenn man nicht über den Tellerrand hinauskommt, könnte man auch denken, die Erde wär' ne Scheibe

der Servermarktanteil von amd wurde (je nach betrachtetem Quartal) zwischen 2009 und 2010 (zeitweise) mehr als halbiert, von mehr als 10% auf z.T. weniger als 5%
durchschnittlich gesehen sank der amd anteil von mehr als 10 auf ca 7 prozent, und liegt aktuell (wenn ich da richtig erinnere) unter 6%
das ist die Geschichte eines amd Niedergangs im Servermarkt

Belege dafür von idc und Konsorten finden sich an jeder Internet Ecke, die kann man sich selber raussuchen
bulldozer punktet derzeit in speicherintensiven workloads mit seinem quadchannel interface und schnellerem 1600er speicher, - gegen ein bis zwei Jahre alte xeons mit sechs Kernen und triple channel interface sowie drr1333;
daraus bastelte man bei der ct (die ja durchaus auch so ihre Lieblinge hat, gell, nur trägt man das für gewöhnlich mit einiger Subtilität und möglichst unauffällig vor, diemal haben sie ein wenig auf den Putz hauen müssen) einen hübschen Aufmacher.
aber sogar die ct droht mit dem baldigen Erscheinen der octacore sb xeon's mit quad channel und ddr1600
das Zeitfenster zum Geldverdienen ist für amd also überschaubar, nämlich eng, zumal die Anschaffung derartiger Maschinen eher auf mittel- bis
langfristigen Entscheidungen beruht
hinzu kommt hier, dass aufgrund der vergleichsweise schlechten Prognose, was zukünftige amd Entwicklungen und deren Umsetzung angeht
(quälend lange Entwicklungen, ganz schlechte Termin-Sicherheit, mangelnde Sattelfestigkeit bei der Umsetzung und den Prozessen sind ja Legende) Planungssicherheit mit amd schwierig zu erreichen ist
Dagegen hebt sich Intels entwicklungstechnologische und prozessuale Solidität sowie die Akkuratesse in der Umsetzung und der Terminierung
entscheidend und wohltuend ab.

amd ist wegen der guten Grafikleistung allerdings stark in billig-cpu sektor für Kleingeräte und hat dort in jüngster Zeit intel sogar Marktanteile abnehmen können
 
wenn die Saudis nicht bald Erfolge/Kapital sehen, ziehen die Ihre Gelder zurück, was das heist ist doch wohl klar, ganz mal davon abgesehen was hier Fanatiker alles für Systeme und Server irgendwo gesehen haben.

Alle wollen Leistung für Ihr Geld, ob da ein paar ewigtreue auch noch den letzten Chip kaufen spielt keine Rolle, siehe 3DFX.

lg
 
Hier geht's doch nicht um Dies. Das bei den High-End i7 genutzte Die ist das gleiche wie bei den Servermodellen. Da wurde also nicht extra was entwickelt, sondern maximal validiert. Unterm Strich, du hast also nichts, was deine Behauptung untermauert, richtig?

Ich hab dir jetzt schon nen paar Beispiele genannt. Da man da aber nie an genaue Zahlen kommt und das R&D Beispiel das auf die Stückzahlen abgewälzt wird nunmal industrieller Standard egal für welches Produkt ist gehe ich einfach davon aus.

Was AMD gesagt hat ist im Endeffekt nicht wesentlich mehr wert. Immerhin möchte man mit solchen Aussagen Investoren, Kunden usw befriedigen, mit Wahrheit muss das nicht viel zu tun haben, bzw sie wird geschönt. Eigentlich weißt du das alles auch selbst und ich hatte nicht vor mit dir nen Grundlagenkrieg anzufangen ohne das einer von uns handfeste Zahlen vorweisen kann, das führt doch zu nichts ;)

Du solltest nicht ständig solche Behauptungen aufstellen, wenn du sie nicht belegen kannst. Wo hat AMD sein Taktziel nicht erreicht? Geplant waren 3,5 GHz für Orochi. Und das hat man ja wohl mehr als erreicht. Ähnlich sieht es bei Orochi MCM aus. Offiziell wurden dafür zwar nie Taktziele angegeben. Man liegt aber mit 2,6 GHz etwa bei dem, was man erwarten konnte. Dass hier noch nicht Schluss ist, sollte klar sein. Das ist aber gewiss kein Thema für Launch-Modelle. Deneb (Shanghai) startete auch irgendwann mal bei "nur" 3 GHz. Wo man heute ist, sieht man ja. Stichwort CTI.

Das war keine Behauptung sondern eine Vermutung (deswegen das "glaube", hast du wohl überlesen), die sich einfach auf die damaligen Taktprognosen für Bulldozer stützt. Das AMD für Bulldozer die Architektur auch für höhere Takte optimiert hat konnte man in einer etwas älteren Ausgabe der c´t ebenfalls nachlesen.

Nein, anders. Intel entwickelt eine Serverplattform, die sie für High-End Desktops "missbrauchen". War schon mit LGA 1366 so und ist bei LGA 2011 nicht anders. Könnte AMD mit G34 genauso, lohnt sich nur halt nicht.

Wärend der Entwicklung war ja schon klar das die beiden Sockel für den Desktop ebenfalls eingesetzt werden, warum deiner Meinung nach "missbrauchen" da jetzt das bessere Wort ist erschließt sich mir nicht ganz :confused:.

Warum lohnt sich das deiner Meinung nach bei G34 nicht?

Dann solltest du aber nicht von dir auf andere schliessen. Ich habe mir seinerzeit gewiss keinen Thunderbird geholt, weil mir AMD sympathischer war. AMD war mir damals zwar schon ein Begriff (K5, K6), kannte deren Produkte aber überhaupt nicht. Fakt ist, dass sie einfach das bessere Angebot hatten. Und das hat sich bis heute für meine Ansprüche nicht gross geändert. Mein nächstes Desktop System wird mindestens einen Quad haben. Kannst du mir einen aktuellen Intel Quad für unter 100 Euro zeigen? Ich sehe da keinen. Die i5 gehen erst ab 150 Euro los. Und das ist definitiv zu viel. Dafür kann man auf AMD Basis ein komplettes Upgrade Kit zusammenstellen, inklusive Quad Prozessor, Board und RAM.

Ich habe nicht von mir auf andere geschlossen, nur meine Geschichte erzählt. Andere werden wohl auch andere Beweggründe haben.

Genauso wie du unbedingt nen Quad haben willst, vielleicht sagt sich aber auch der nächste das ihm ein potenter Zweikerner reicht. Des weiteren hast du natürlich recht, bei Intel einen Quadcore zu bekommen ist ein teurerer Einstieg, die Performance ist dafür allerdings auch dem entsprechend.

Die einfachste Lösung, zumindest für hardwareseitiges MT, ist es sicherlich nicht. Das dürfte immer noch CMP sein. Das Problem an OoO SMT ist einfach, dass es sehr inkonsistent reagiert, keine wirklich grossen Gewinne erzielen kann und bei eh schon hoher Auslastung der Pipeline nahezu gar nichts bringt oder gar zu Performanceverlust führen kann (Resource Competition). Ob da der Aufwand lohnt, egal wie gross er ist, ist eher fraglich. Es kommt ja nicht von ungefähr, dass sich einige Hersteller bewusst gegen SMT entschieden haben, wie AMD oder ARM. Bei In-Order muss das sicherlich wieder anders bewertet werden. Dort hat SMT durchaus seine Daseinsberechtigung.

CMP steht da etwas außen vor finde ich, da es einfach die radikalste Lösung ist. Weißt du welche Techik die Power Prozessoren von IBM verwenden? Bin gerade etwas suchfaul :d

Workstations für CAD brauchen aber auch keine schnellen CPU Kerne. Da dürfte die Grafikleistung immer noch wichtiger sein, sprich gute GPUs und Treiber.

Schnell sollten sie schon sein, viele Kerne bringen nur nicht viel.

Schon klar. Das war mit Funktionalität auch nicht gemeint. Zeige mir doch mal zwei x86 Kerne, mit aktuellsten Befehlssatzerweiterungen (SSE4, AVX, XOP, AES), FMA Support, etc, die kleiner als ein BD Modul sind und performancetechnisch mithalten können. K10 kannst du vergessen. Dessen 32 nm Weiterentwicklung sehen wir in Llano. Und zwei Kerne sind nicht kleiner und effizienter. Und man muss eben Abstriche bei der Funktionalität machen.

Da AMD soweit ich weiß bisher die einzigen sind die FMA bei x86 im Programm haben wird das schwierig werden wie du weißt ;)

Wieder mal ein Beweis, dass man nicht allem blind glauben sollte, was geschrieben wird. ;) Opteron 62xx nutzt die gleiche Plattform wie Opteron 61xx, G34. Insofern sind gleich ausgestattete Systeme auch gleich teuer. Unterschied ist dann lediglich der Prozessor. Und die gelisteten Preise hatte ich ja bereits erwähnt. Wenn die auf so unterschiedliche Preise kommen, dann sind die Systeme mit Sicherheit nicht vergleichbar.

Im Artikel steht das die neue Version mehr SSDs hat, nimmt sie und das ganze Zubehör an Software etc raus wäre das Bulldozer System sogar noch teurer. Evtl findest du da ja genauere Zahlen, google konnte mir da gerade nicht wirklich helfen. Die Daten zu den Servern findest du hier:
Whether you

Die da konkret wären?

Parallelisierbarkeit ist endlich ;)
Je nach Anwendung früher oder später.

Was heisst "scheint"? Gibt's dazu Infos? Ich habe zumindest noch nichts davon gelesen, dass die Kerne kleiner werden sollen. Mal abgesehen von der Fertigungsstruktur. Wobei IB ja bereits in 22 nm gefertigt wird. Die gezeigten Haswell Prototypen sahen jedenfalls SB/IB sehr ähnlich. Bisher steht eigentlich nur im Raum, dass der Cache anders werden könnte. Dass die Kerne kleiner werden, glaube ich nicht. Bisher spricht einiges für eine Weiterentwicklung der SB Architektur. Dementsprechend sollten die Kerne ähnliche Dimensionen haben.

Ich meinte kleiner werden in Relation dazu das die Kerne bisher mit jeder Generation größer geworden sind. Das Haswell scheinbar nicht groß wird begründet sich ebfalls auf die Prototypenvorstellung. Es gab mal irgendwo Aussagen von Intel selbst oder Prognosen das Haswell halt gleichzeitig überall einzug halten soll, also auch in kleinere Nettops, Netbooks, Ultrabooks oder Tablets.

Unwahrscheinlich. Bei aktuell 435 mm² würden 210 mm² mehr als einer Halbierung gleich kommen. Typisch ist hingegen weniger, da Shrinks nicht 1:1 mit der Gate Länge skalieren. Das wären also eher irgendwas >250 mm². Mit der steigenden Komplexität bei doppelt so vielen Kernen müsste man also mindestens mit 500 mm² rechnen, eher mehr. Weniger ist nur möglich, wenn man Abstriche macht, zB den Cache nicht verdoppelt. Dann skalieren die Kerne allerdings auch schlechter.
Da muss man mal abwarten was kommt. Zu Ivy gibts beim Quadcore bisher nur diese Daten zur Größe:
Intel Mobile Ivy Bridge CPU Pictured, Compared with Sandy Bridge | Latest news
Da ist aber auch noch die größere GPU mit drin.
 
Ich hab dir jetzt schon nen paar Beispiele genannt. Da man da aber nie an genaue Zahlen kommt und das R&D Beispiel das auf die Stückzahlen abgewälzt wird nunmal industrieller Standard egal für welches Produkt ist gehe ich einfach davon aus.
Ok, gehen wir besser davon aus, dass dieser Nischenmarkt für Intel genauso wenig profitabel ist wie für AMD. ;)

Das AMD für Bulldozer die Architektur auch für höhere Takte optimiert hat konnte man in einer etwas älteren Ausgabe der c´t ebenfalls nachlesen.
Stimmt ja auch und das sehen wir auch. K10.5 startete mit 3 GHz, Bulldozer startete mit 3,6 GHz, also 20% mehr. Trotzdem war dein Einwurf, dass man das Taktziel nicht erreicht hätte, falsch. Ob du das nun "glaubst" oder als Tatsache hinstellen wolltest, lasse ich mal aussen vor, da deine Formulierung beide Auffassungen zulässt.

Wärend der Entwicklung war ja schon klar das die beiden Sockel für den Desktop ebenfalls eingesetzt werden, warum deiner Meinung nach "missbrauchen" da jetzt das bessere Wort ist erschließt sich mir nicht ganz
Eine Plattform wird gezielt für einen Markt und nicht mehrere entwickelt. Und bei LGA 1366/2011 sind das eben Server. Punkt. Daran ändert sich auch nichts, wenn man diesen Sockel dann für andere Zwecke "missbraucht".

Warum lohnt sich das deiner Meinung nach bei G34 nicht?
Hatten wir das nun nicht schon mehrfach?

Ich habe nicht von mir auf andere geschlossen, nur meine Geschichte erzählt.
Wenn ich nochmal an deine ursprüngliche Aussage erinnern darf. Du hast mitnichten nur von dir gesprochen. Du hast behauptet, dass "viele Fans aus Sympathie und nicht aus Vernunft" AMD Produkte kaufen. Sry, aber das ist nicht nur falsch, sondern schon ziemlich dreist.

CMP steht da etwas außen vor finde ich, da es einfach die radikalste Lösung ist. Weißt du welche Techik die Power Prozessoren von IBM verwenden? Bin gerade etwas suchfaul
Ja, melde dich nochmal, wenn du einen IBM Client Prozessor gefunden hast. :fresse:

Schnell sollten sie schon sein, viele Kerne bringen nur nicht viel.
Ich wüsste nicht warum. Kannst du das mit Zahlen belegen?

Da AMD soweit ich weiß bisher die einzigen sind die FMA bei x86 im Programm haben wird das schwierig werden wie du weißt
Es hat niemand verlangt, dass du andere Hersteller berücksichtigst. Du darfst auch gerne innerhalb des AMD Portfolios vergleichen.

Im Artikel steht das die neue Version mehr SSDs hat, nimmt sie und das ganze Zubehör an Software etc raus wäre das Bulldozer System sogar noch teurer.
Ich wüsste nicht, dass da was rausgenommen wurde. Der höhere Preis kommt durch die zusätzliche Ausstattung zustande, eben vor allem die SSDs. Bei gleich ausgestatteten Systemen ist Interlagos jedenfalls nicht teurer als Magny Cours. Warum auch? Die Plattform ist die gleiche.

Parallelisierbarkeit ist endlich
Das hat dann aber nichts mehr mit der Bulldozer Architektur zu tun. Die Aufgaben, die sich stark partitionieren lassen, sollen in Zukunft von den GPU Shadern oder dedizierter Logik übernommen werden. ;) Für alles weitere, also GP CPU, wird es in Zukunft auf Kompaktheit ankommen, vor allem im Client Markt. Da brauchst du weder unzählige Kerne, noch "Monsterkerne". Und das CMT Design von Bulldozer geht genau in diese Richtung, Kompaktheit.

Ich meinte kleiner werden in Relation dazu das die Kerne bisher mit jeder Generation größer geworden sind. Das Haswell scheinbar nicht groß wird begründet sich ebfalls auf die Prototypenvorstellung. Es gab mal irgendwo Aussagen von Intel selbst oder Prognosen das Haswell halt gleichzeitig überall einzug halten soll, also auch in kleinere Nettops, Netbooks, Ultrabooks oder Tablets.
Das soll die Begründung sein? Naja. :rolleyes: Ich gehe eher davon aus, dass auch die Haswell Kerne wie üblich etwas an Logik zulegen werden. Wo diese dann genutzt werden, hängt doch vom Design ab. Bei zB lediglich 1-2 Kernen und wenig GPU Shadern ist selbst mit gestiegener Kernlogik sicherlich ein Design mit <100 mm² machbar, welches dann in den von dir aufgeführten Geräten eingesetzt werden kann. Vorausgesetzt die TDP spielt mit. Das ist bei AMD übrigens nicht anders. Auch hier sollen Trinity und Nachfolger in die Bereiche vorstossen, die bisher exklusiv Bobcat vorbehalten sind. Und die Logik von Piledriver wird sicherlich nicht abnehmen im Vergleich zu Bulldozer.

Da muss man mal abwarten was kommt. Zu Ivy gibts beim Quadcore bisher nur diese Daten zur Größe:
Intel Mobile Ivy Bridge CPU Pictured, Compared with Sandy Bridge | Latest news
Da ist aber auch noch die größere GPU mit drin.
Das sagt uns nur wenig bis nichts übers Serverdesign. Wenn es danach ginge, dann dürfte SB-E nur etwa 340 mm² gross sein, weil die CPU in SB eben etwa 170 mm² braucht und die Hälfte an Kernen hat. Wie wir aber wissen, ist SB-E etwa 100 mm² grösser.
 
Beim Parallelsieren/Partitionieren sollte man nicht vergessen, dass man nicht alles auf dumme Cores wie zB Cuda und co auslagern kann.

In der heuten normalen Serverwelt, wo parallele Prozesse überwiegend Anwendung finden, geht es darum, dass man x-Prozesse parallel ablaufen läßt und jeder Prozess erfordert eine vollwertige CPU mit allem drum und dran.

Da kommt man mit reinen Crunchern eben nicht weit.
Rechenleistung!=Rechenleistung

Und daher wird es im Serverumfeld eben darum gehen, möglichstviele Kerne parallel zu nutzen und das geht bekanntlich nur, wenn auch entsprechende Cores da sind, die aber auch in der Lage sind, eine entsprechenden (ich nenn das jetzt mal) x86er Performance bieten.

Für das reine Crunchen, also das stupide Ausrechnen von irgendwelchen Werten, setzt man schon seit geraumer Architekturen ein, die das eben auch können, dafür kann man auf diesen auch nicht 100x ein OS laufen lassen, das geht auch normalen Servern aber schon.

Cray macht das zB vor, da werden relativ wenig CPUs eingesetzt, die dazu genutzt werden die schiere Anzahl an Rechencores zu versorgen. Dennoch würde es keinen Sinn machen x-GPU Cores auf eine CPU zu drücken, da diese CPU dann nicht mehr in der Lage ist, diese zu verteilen.
 
Zuletzt bearbeitet:
Die Überschrift sagt doch schon alles. Da hat mal wieder einer ohne Substanz provozieren wollen und hat noch nicht einmal den Text verstanden um was es geht. Gibt es eigentlich in diesem Forum keinen einzigen AMD Thread indem es nicht zu einem kindischen AMD gegen Intel Windelwerfen geht?
 
Die Überschrift sagt doch schon alles. Da hat mal wieder einer ohne Substanz provozieren wollen und hat noch nicht einmal den Text verstanden um was es geht. Gibt es eigentlich in diesem Forum keinen einzigen AMD Thread indem es nicht zu einem kindischen AMD gegen Intel Windelwerfen geht?

nein, wird auch nie einen geben, weil jeder meint "seine" Marke verteidigen zu müssen. Ich kaufe zwar selbst nur Intel CPU's, aber ich habe auch schon für wen anders eine AMD CPU gekauft und auch verbaut. Mir persönlich ist es relativ egal wer die Leistungskrone hat, mir kommt es drauf an das die CPU erfüllt was ich brauche.
 
Ok, gehen wir besser davon aus, dass dieser Nischenmarkt für Intel genauso wenig profitabel ist wie für AMD. ;)

Sorry, aber das musst du erstmal beweisen. Wenn der PC Markt einbricht und Intel da ganzschön an Umsatzeinbrüchen leidet scheint es da doch nen Zusammenhang zu geben. Bevor du nach Quellen fragst, der Link irgendwo nen paar Posts vorher von mir.


Stimmt ja auch und das sehen wir auch. K10.5 startete mit 3 GHz, Bulldozer startete mit 3,6 GHz, also 20% mehr. Trotzdem war dein Einwurf, dass man das Taktziel nicht erreicht hätte, falsch. Ob du das nun "glaubst" oder als Tatsache hinstellen wolltest, lasse ich mal aussen vor, da deine Formulierung beide Auffassungen zulässt.


Es gab im Vorfeld Spekulationen das AMD Zambezi mit höheren Taktraten starten wollte. Hab ich auch geschrieben, aber das scheinst du beim Quoten doch glatt überlesen zu haben ;)

Eine Plattform wird gezielt für einen Markt und nicht mehrere entwickelt. Und bei LGA 1366/2011 sind das eben Server. Punkt. Daran ändert sich auch nichts, wenn man diesen Sockel dann für andere Zwecke "missbraucht".

Gut, Quadchannel braucht auf dem Desktop wohl so gut wie niemand.

Hatten wir das nun nicht schon mehrfach?

Nein, eigentlich nicht. Oder meinst du AMD würde sich selbst konkurenz machen ;)

Wenn ich nochmal an deine ursprüngliche Aussage erinnern darf. Du hast mitnichten nur von dir gesprochen. Du hast behauptet, dass "viele Fans aus Sympathie und nicht aus Vernunft" AMD Produkte kaufen. Sry, aber das ist nicht nur falsch, sondern schon ziemlich dreist.

Nein, weder noch. Ich habe nicht von mir auf andere geschlossen, beim Phenom bin ich ausgestiegen. Ich weiß aber das es hier im Forum viele gibt die sich niemals nen Intel kaufen würden, genauso wie es andere gibt die sich nie ein AMD Sytem anschaffen.

Ja, melde dich nochmal, wenn du einen IBM Client Prozessor gefunden hast. :fresse:

Was hat das mit der Technik zu tun?

Ich wüsste nicht warum. Kannst du das mit Zahlen belegen?

Schmeiß mal UG NX an. Selbst Sketchup profitiert von schnellen Kernen :fresse:

Es hat niemand verlangt, dass du andere Hersteller berücksichtigst. Du darfst auch gerne innerhalb des AMD Portfolios vergleichen.

Wo gibts denn bei AMD noch FMA? BD mit BD vergleichen bringt wohl nicht viel...

Ich wüsste nicht, dass da was rausgenommen wurde. Der höhere Preis kommt durch die zusätzliche Ausstattung zustande, eben vor allem die SSDs. Bei gleich ausgestatteten Systemen ist Interlagos jedenfalls nicht teurer als Magny Cours. Warum auch? Die Plattform ist die gleiche.

Du hast den Artikel aus dem Link schon gelesen oder? Außerdem, bring doch mal Zahlen die das belegen, Systemdaten hast du ja ;)

Das hat dann aber nichts mehr mit der Bulldozer Architektur zu tun. Die Aufgaben, die sich stark partitionieren lassen, sollen in Zukunft von den GPU Shadern oder dedizierter Logik übernommen werden. ;) Für alles weitere, also GP CPU, wird es in Zukunft auf Kompaktheit ankommen, vor allem im Client Markt. Da brauchst du weder unzählige Kerne, noch "Monsterkerne". Und das CMT Design von Bulldozer geht genau in diese Richtung, Kompaktheit.

Naja, wir werden sehen.

Das soll die Begründung sein? Naja. :rolleyes: Ich gehe eher davon aus, dass auch die Haswell Kerne wie üblich etwas an Logik zulegen werden. Wo diese dann genutzt werden, hängt doch vom Design ab. Bei zB lediglich 1-2 Kernen und wenig GPU Shadern ist selbst mit gestiegener Kernlogik sicherlich ein Design mit <100 mm² machbar, welches dann in den von dir aufgeführten Geräten eingesetzt werden kann. Vorausgesetzt die TDP spielt mit. Das ist bei AMD übrigens nicht anders. Auch hier sollen Trinity und Nachfolger in die Bereiche vorstossen, die bisher exklusiv Bobcat vorbehalten sind. Und die Logik von Piledriver wird sicherlich nicht abnehmen im Vergleich zu Bulldozer.

Soll ich Spekulationen jetzt mit Spekulationen begründen? :fresse:

Das sagt uns nur wenig bis nichts übers Serverdesign. Wenn es danach ginge, dann dürfte SB-E nur etwa 340 mm² gross sein, weil die CPU in SB eben etwa 170 mm² braucht und die Hälfte an Kernen hat. Wie wir aber wissen, ist SB-E etwa 100 mm² grösser.

Mehr Cache, Logik etc.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh