AMD,s Gaming Zukunft 2015-2017

Schaffe hat, da kann ich mich noch sehr gut dran erinnern, AMD immer in Schutz genommen und mich der übelsten Polemik bezichtigt, als ich das verbreitet hab, was er heute selbst macht.
Ich muss TARDIS recht geben...
Seit AMD alle populären Leute, allen voran Simon (enomis64 auf XS) entlassen hat, kann ich ich den Sauhaufen nichtmehr leiden. The future is fusion.. das ich nicht lache. mr.dude trifft da allerdings keinerlei Schuld ;) AMD hat sich schon selbst ins schlechte Licht gerückt. Seitdem die "HighEnd" Konsolen alle auf AMD Hardware laufen, seh ich auch nicht wirklich einen Grund für AMD an einer HighEnd cpu für PC´s zu arbeiten. Die ersten Xbox1 Spiele wurden ja auf intel hardware vorgestellt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Quatsch. Cannonlake brauchst du vor Mitte 2017 nicht zu erwarten :d.

Cannonlake kommt Laut Intel 2016.
Intel development documents from Q3 2012 indicates 7 nm node reach production around 2017, with 5 nm in 2019.

Cannonlake is Intel's codename for the 10 nanometer die shrink of Intel's Skylake microarchitecture, expected to be released in 2016.

- - - Updated - - -

http://www.computerbase.de/2011-05/intel-roadmap-14-nm-ab-2013-10-nm-ab-2015/

http://www.computerbase.de/2015-01/intels-10-nm-fertigung-soll-ende-2015-marktreif-sein/

- - - Updated - - -

Die nm-Bezeichnungen beziehen sich nur auf den Vergleich zu älteren Generationen. Die Entwicklung erfolgt längst nicht mehr in der Verkleinerung der Strukturen, sondern vor allem in der chemischen Zusammensetzung der Materialien und Fertigungsoptimierungen.

Tatsächlich ist in Haswell (dann in Skylake auch nicht) nichts 14nm groß. Alle Strukturen sind >50nm nur ist es marketingtechnisch besser mit der Leistung "(wie) ein 14nm" zu werben anstatt "nur mehr Leistung". Die Prozesse selbst sind halt immer effektiver, so dass man nicht kleiner bauen muss, weil es bei >50nm immer noch klappt zu verbessern.

- - - Updated - - -

Ich denke Zen wird mindestens 50% mehr IPC als steamroller haben. Zen wird also für jedes Game @ Ultra taugen. :)
Ich vermute 4 Kern Zen werden so schnell wie Haswell i5, nur das amd diese für 100€ anbieten wird mit freiem multi.

Das passt zur neuen AMD strategie aus dem Lisa Su Interview.

--------------------------

Hab mir mal die Intel Story durchgelesen.

Intel ist mir unsympatischer denn jeh !

Intel verklagte alles und jeden und lies keine Bürokratischen Tricks aus um sich durch zu Mogeln wenn Konkurenten die bessere Technologie hatten, mit gefälschten dokumenten vor gericht und so weiter.

Gleichzeitig ihren eigenen arbeitern nur Gesetzlichen mindestlohn gezahlt, und gedroht falls diese wechseln wollten.

Alleine AMD, Intels größten Gegner kosteten die Prozesse 40 Millionen USD an Gerichts und Anwaltskosten pro Jahr.

Das ist ungerechter Ellenbogen Kapitalismus vom feinsten gewesen in den 70ern und 80ern und 90ern.
Vorher kannte ich ja nur die "Marktmanipulationen" gegenüber AMD aus den letzten 12 Jahren.

Hier ein paar auszüge.

- 1979 Operation Crush

Intels Produkte waren bislang zwar die ersten gewesen, jedoch oftmals umständlich im Einsatz gewesen.
Sobald andere Firmen den Vorsprung aufholten schwand der Marktanteil von Intel.
Das fiel nicht auf solange man immer eine neue Generation auf den Markt brachte und erster war.

Sobald aber die Konkurrenz zeitgleich auftrat hatte der Kunde die Auswahl.
Schon beim 4 K Chip war AMD erster und beim 16 K Chip war Intel schon von mehreren Firmen überholt worden.

Bei den Mikroprozessoren bekam Intel nun den Gegenwind zu spüren.
Kunden wollten keinen 8086. Sie sagten der Motorola 68000 wäre schneller, einfacher zu programmieren und zu handhaben.
Nun rächte sich die hochnäsige Art mit der Intel bislang ihre Produkte vertrieben hatte.
Intel war von den Mikroprozessoren an die letzte Stelle gerückt.

Es galt Intel wieder an die spitze zu bringen.
Hauptkonkurrent war Motorola. In einer Krisensitzung wurde im Mai 1979 ein Konzept erarbeitet und dann über 100 Außendienstmitarbeitern als "Operation crush" präsentiert.
Ziel war es Motorola platt zu machen.

Der 8086 mochte zwar nicht so leistungsfähig sein, doch der Außendienst von Intel war besser.

Es ging darum den Kunden zu zeigen wie innovativ Intel war.

Das zweite war ein Katalog mit 100 Ankündigungen für neue Produkte welche die Botschaft vermittelten "Wenn Du bei Intel bleibst, dann kannst Du deine Produkte laufend verbessern und dies bei Komptabilität".

Nur: Keines der Produkte befand sich in der Entwicklung, die meisten noch nicht einmal auf dem Papier !
Operation Crush war ein voller Erfolg. Die Kunden blieben wegen leeren versprechungen bei Intel und Ende 1980 war Motorolas Marktanteil trotz besseren Chips wegen Intel Propaganda auf 15 % gesunken.

- NEC

Intel wollte das Monopol für ihre Architektur. Es gab nur ein Problem: Diese war bekannt. Jeder konnte einen Chip öffnen die Schichten stück für Stück abtragen und abfotografieren und daraus eigene Masken produzieren. Es gelang Intel eine Gesetzesinitiative zu veranlassen welche Masken und den Microcode patentierbar machten. Damit konnte Intel ab 1984 gegen verschiedene Plagiate vorgehen. Zum Präzedenzfall wurde NEC. NEC hatte die Prozessoren V20 (8088 kompatibel) und V30 (8086 kompatibel) entwickelt. Diese waren nicht kopiert sondern NEC Ingenieure hatten ein eigenes Microcodeprogramm geschrieben das nichts mit Intels Programm zu tun hatte. Dadurch waren die Chips sogar schneller als ihre Originale. Zuerst kündigte Intel an keinen Produzenten mehr zu beliefern der die V Chips von NEC nutzte. Daraufhin verklagte NEC Intel. Der Prozess musste nur klären: Hatte NEC den Microcode geklaut oder nicht. Bald nach dem Prozessbeginn 1984 war abzusehen das NEC verlieren würde. Die Anwaltskanzlei die NEC vertrat hatte nun ein Idee. Wenn NEC den Prozess verlor, dann dürfte sie ihren eigenen Microcode nicht mehr verwenden. Sie dürfte aber einen "sauberen" Microcode verwenden. Sauber hieß, der Code musste ohne Kenntnis des Intel Codes hergestellt werden. Sie fand zwei Ingenieure die dies machten. Einer untersuchte den Intel Code und extrahierte die Spezifikationen. Diese wurden an die Kanzlei übergeben und diese gab sie einem anderen Programmierer, der daraus neuen Microcode programmierte. Alle Rückfragen wurden ebenfalls von den Anwälten gefiltert. So hatte NEC nun eine Möglichkeit V Chips herzustellen. Erstaunlicherweise wurde der Code aber nie eingesetzt, er diente als Beweismittel. Der Code war dem Intel Code noch ähnlicher als der von NEC. Dies liegt in der Natur der Sache: Wenn ein Problem genau spezifiziert ist dann kommen unterschiedliche Personen oft zu denselben Lösungen. Ganz einfach deswegen weil es nur wenige Lösungen gibt. Intel konnte dagegen nicht beweisen, dass der NEC Code geklaut war und verlor den Prozess.

- 1980 IBM's Wahl und AMD

Warum IBM Intel wählte ist bis heute nicht ganz geklärt.
AMD sollte nach IBM's Willen Zweitproduzent werden. AMD war ein Jahr nach Intel gegründet worden.

AMD hatte zahlreiche eigene Produkte entwickelt, war aber auch Zweitproduzent. Intel vergab ungern Lizenzen.
Nach Intels Ansicht waren Zweitproduzenten Schmarotzer die reich damit wurden dass die Intels Chips kopierten.

AMD hatte schon eine Lizenz für den 8086 Prozessor erhalten, als Intel dringend den AMD 2900 Bitslice Prozessor brauchte um Zilog Paroli zu bieten.

AMD bekam ein Technologieaustauschprogramm über 10 Jahre per vertrag.

Lizenzen gab es als der Chip neu war um die Marktposition zu stärken, Lizenzen gab es auch um nach IBM's Wahl überhaupt die rapide angestiegene Nachfrage decken zu können. Davon wollte Intel weg. Bei den 1982 erschienen Nachfolgern 80186 und 80286 gab es schon bedeutend weniger Lizenzen. AMD musste einer Lizenz pro Prozessor zustimmen um noch Lizenznehmer zu werden.

AMD hoffte auf das 10 jährige Lizenzabkommen, dass Intel im Gegenzug AMD Bausteine wie einen Festplattencontroller und einen Grafikcontroller in Lizenz fertigen würde. Doch Grove und Moore verfolgten einen knallharten Kurs : Erstens AMD in Sicherheit wiegen dass es auch in Zukunft alle neuen Chips in Lizenz fertigen dürfte (was man aber ab der 80386 Generation einstellen wollte) und zweitens keine AMD Produkte übernehmen.

Intel hatte nun nur noch eine Chance: Die Zeit.

Im Jahre 1987 prozessierte AMD gegen Intel weil es die Lizenz nicht für den 80386 Prozessor bekam. Auch hier verlor Intel den Prozess 1990, doch rechtsgültig wurde das Urteil erst 1992. Auch wenn Intel klar war, dass es Prozesse verlor machte dies nichts aus. Es ging nicht darum Prozesse zu gewinnen sondern Konkurrenten vom Markt abzuhalten und wenn Prozesse Jahre dauerten, so war dies ein effizientes Mittel.

Im Jahre 1990 hatte AMD nach eineinhalbjähriger Entwicklungsarbeit endlich seinen 386 Prozessor hergestellt.

AMD hatte sich auf das 1982 verhandelte Lizenzabkommen verlassen und später darauf, dass Intel nach dem 1987 begonnen Prozess AMD wieder als Zweitproduzent einsetzen würde. So hatte man erst sehr spät mit der Produktion eines eigenen Prozessors begonnen. Der Am386 war durch Reverse Engineering entstanden, patentrechtlich also sauber. Dagegen konnte Intel nichts machen. Doch man werte sich gegen die Verwendung der Ziffer "386" in der Bezeichnung. Doch man verlor wieder vor Gericht. Die Richter erkannten dass die Ziffer "386" für eine Architektur stände und Intel deren Verwendung in der Industrie ja selbst forciert hatte, indem er sie zum Namensbestandteil von Computern machte ("Compaq 386"). Als Folge beschloss man dass zukünftige Prozessoren einen marktrechtlich geschützten Namen erhalten sollten.

Ein Weg das Monopol zu wahren, waren für Intel Prozesse. Ende der achtziger Jahre, Anfang der 90 er verklagte Intel alles und jeden. Alleine AMD, Intels größten Gegner kosteten die Prozesse 40 Millionen USD an Gerichts und Anwaltskosten pro Jahr. Intel verklagte nicht nur Konkurrenten sondern auch Mitarbeiter, wenn diese sich selbstständig machen wollten. So wollte die Firma schon im Keim die Entstehung einer Konkurrenz verhindern. Dabei wurde getrickst und gefälscht wo es nur ging. Als ein Intel Mitarbeiter sich selbstständig machte und die Firma ULSI gründete um einen 387 Coprozessor Clone zu entwerfen bekam Intel über Mitarbeiter des Sicherheitsdienstes die Bekannte bei der Polizei hatten Einsicht in die Akten und konnten den Prozess (den sie nicht gewinnen konnten) solange verschleppen bis ULSI mit ihrem 387 kaum Gewinn machten, weil die Preise gefallen waren.

Als AMD für ihren 287 den Microcode des 286 übernahmen (wozu Sie nach einem Vertrag von 1977 berechtigt waren) prozessierte Intel gegen AMD, weil in den alten Dokumenten von "Mikrocomputer" die Rede war. Dieser Begriff war damals synonym mit dem für Microcode, aber Ende der achtziger Jahre verstand jeder darunter einen kompletten Computer). So sah der Prozess sehr schlecht aus und AMD verlor in der ersten Instanz. Als dann Intel wegen der Verhandlung der Lizenzforderung die Prozessunterlagen zuschicken musste stellte ein AMD Mitarbeiter fest, dass es ein Dokument zweimal gab. Einmal mit neuerem Datum und vollem Text und einmal älteren Datums ohne eine Passage in der der Begriff "Microcode" vorkam: Intel hatte die Beweismittel gefälscht und damit konnte AMD das Urteil anfechten und gewann.

Noch findiger war Intel als man das Patent '338 aus der Schublade herauszog. Dieses hatte Intel an AMD lizenziert und es patentierte die Verwendung eines Mikroprozessors in einem Computersystem und die Anbindung an den Speicher. Um AMD zu schaden kam man auf eine völlig neue Auslegung. Zwar dürfte AMD die Technologie nutzen die durch '338 abgedeckt war und die allen Prozessoren zugrunde liegt. doch wie sah es bei den Kunden von AMD aus ? Sie hatten keine Lizenz für '338. Man bot allen Computerherstellern eine kostenlose Lizenz von '338 an, so dass diese nach wie vor Intel Prozessoren in ihre Rechner einbauen konnte. Doch die Industrie roch den Braten: Wer eine Lizenz annahm erkannte den Anspruch von '338 an und dürfte keine AMD Prozessoren mehr einbauen. Die Industrie mauerte und so kam Intel nicht durch. In dem Prozess waren zwei Dinge von Bedeutung. Zum einen gab es im Patentrecht eine Ausnahme, wonach wenn ein Teil für sich alleine keinen Nutzen hat sondern nur im Zusammenspiel mit einem anderen Teil funktioniert der Hersteller des Gesamtwerks keine Lizenz des Patentinhabers braucht. Nun arbeiten Mikroprozessoren aber nur in Computern und für sich alleine sind sie wertlos. Zum zweiten lieferte Intel selbst einen weiteren Grund. Die kostenlose Überlassung einer '338 Lizenz war eine verbotene Handlung nach den Anti-Thrust Gesetzen, denn sie verknüpfte ein gewünschtes Produkt das der Kunde vielleicht haben wollte (die kostenlose Lizenz) mit dem Verkauf eines kostenpflichtigen Produktes, dass der Kunde eventuell nicht wollte (den Intel Prozessoren). So musste Intel den Prozess verlieren.

Anfang der neunziger Jahre war Intel soweit wie es immer kommen wollte: Die Firma dominierte den Mikroprozessormarkt. Die vielen Konkurrenten die noch zu 286 er Zeiten es gab waren verschwunden, nur AMD hielt sich recht gut und ihr AM386 Chip war 1992/93 sehr gut im Rennen, denn es gab ihn mit einer höheren Taktfrequenz zu kaufen als Intels Prozessoren.

Das Jahr 1994/95 war geprägt von zwei Rückschlägen die Intel hinnehmen musste. Das erste war der Pentium Fliesskomma-Bug. Ein Professor für Mathematik erkannte dass der Prozessor bei bestimmten Zahlen falsch rechnete. Er meldete dies dem Intel Kundendienst, der ihn jedoch abbürstete. Dabei war Intel der Bug bekannt und man hatte ihn stillschweigend in der Produktion korrigiert, Doch 2 Millionen Chips waren fehlerhaft ausgeliefert worden. Der Professor publizierte den Bug in der Newsgroup comp.sys.intel und innerhalb von einer Woche gab es Hunderte von Benutzer die feststellten, dass ihr Pentium falsch rechnete.

Als die Medien von der Sache Wind bekamen wurde es richtig ernst. Vor allem weil Grove und der Intel Vorstand sich rundherum weigerten jeden Chip zu ersetzen. Stattdessen sollte ein Benutzer den Nachweis erbringen, dass er einer Benutzergruppe angehörte, welche von dem Bug besonders betroffen indem er z.B. Simulationen durchführte.

Das stieß auf starke Kritik, denn es zeigte die Arroganz von Intel die nun nicht nur Konkurrenten sondern auch die Kunden des Unternehmens zu spüren bekamen. Bei jedem anderen Produkt hätte es eine Umtauschaktion gegeben, egal ob ein Kunde von dem Defekt betroffen war oder nicht. Intel maß sich aber an zu entscheiden ob ein Kunde betroffen war und würde nur dann ersetzen.

AMD gewann mit dem Athlon wieder Marktanteile zurück. Intels Antwort war im Jahre 2000 der Pentium 4. Gegenüber dem Pentium II+III welche eine evolutionäre Weiterentwicklung des Pentium Pro waren hatte man eine neue Architektur geschaffen die vor allem auf hohe Taktfrequenzen ausgelegt war.

Doch es zeigte sich, dass man die Taktfrequenz nicht mit der Geschwindigkeit vergleichen konnte im Schnitt war ein Pentium 4 bei gleicher Taktfrequenz etwas langsamer als ein Athlon. Doch Intel verkündete, dies sei kein Problem, man werde die Taktfrequenz sehr schnell steigern und in einigen Jahren werde es Pentium 4 mit 7-9 GHz Taktfrequenz geben.

AMD brachte es fertig dieselbe Leistung mit geringerer Taktfrequenz zu erreichen.
Ein 1.75 GHz Athlon war so schnell wie ein 3 GHz Pentium.
Zudem erweiterte die Firma die Architektur auf 64 Bit bei voller Komptabilität zu dem 32 Bit Modus.

AMD erlaubte Intel die 64 Bit Erweiterung von AMD zu nutzen.
Intel vertreibt diese unter der Bezeichnung EMT64.
Intel hatte einen 64 Bit Prozessor namens Itanium entwickelt, doch er war teuer und konnte sich im Markt nicht durchsetzen. Niemand bei Intel glaubte an einen 64 Bit x86 Prozessor und auch Microsoft leistete Schützenhilfe indem sie sich mit einem 64 Bit Windows XP viel Zeit ließen, während eine Windows XP Version für den Itanium schon bei Markteinführung zur Verfügung stand.

AMD hat erkannt, dass man für eine 64 Bit Erweiterung die 32 Bit Architektur nicht vollständig umkrempeln musste sondern wenn man es geschickt macht nur 5 % mehr Chipfläche braucht.

Der Athlon 64 wurde auch nicht als 64 Bit Prozessor konzipiert, sondern als 32 Bit Prozessor mit einem 64 Bit Modus und damit war er genau das was die Verbraucher wünschten: Komptabilität und Schnelligkeit bei der derzeitigen Software und eine Zukunftsoption.

AMD hat sich mit dem Athlon einen Marktanteil von 20-30 % erkämpft, je nachdem welchen Umfragen und Zahlen man glaubt.

Dann kam Intels Massive Marktmanipulation mit Bestechungsgeldern etc.

mehr info:

Die Intel Story
 
Zuletzt bearbeitet:
Ich dachte ich kann hier was über AMDs Gaming Zukunft lesen. Aber die letzten 5 Seiten (weiter bin ich nicht zurück), wird nur darüber gestritten, ob Intel oder AMD besser ist :(

Wie wahr... Es gibt eben wenig richtige Informationen.

Tja Ihr habt es beide schon erkannt, es geht hier um die Zukunft und da gibt es eben leider erst wenig Informationen. Immerhin gibt es ein paar Infos und Pläne seitens AMD die neue Produkte in absehbarer Zeit bescheinigen. Vor ein paar Monaten gab' es da noch nichts und wir mussten komplett im Dunkeln Vermutungen anstellen.
Nunja und jetzt wird nun mal drüber diskutiert was AMDs neue CPUs leisten müssen und wie dann die Konkurrenz aussieht.
Und man muß ja vergleichen, es hilft ja nichts wenn Zen irgendwann 2016 auf den Markt kommt und so schnell wie ein Haswell i5 oder i7 ist wenn Intel dann vielleicht schon mit Sylake wieder weiter voraus ist.

@NightEye
Willkommen in der Marktwirtschaft!
Glaubst Du es ist irgendwo anders? Sieh Dich doch mal um was nVidia und 3DFX gemacht haben, oder was aktuell Samsung und Apple machen und und und.
Im Endeffekt gewinnt leider nicht immer der der das bessere Produkt hat, sondern wer es besser vermarkten kann, sich besser gegen die Konkurrenz durchsetzen kann (Ellenbogen!) oder sonstige Tricks einsetzt.
Grundlage viele dieser Streitereien und Gerichtsverfahren sind meist Patente und Lizenzen. Auf der einen Seite ist das ja auch in Ordnung denn es will ja keiner der eine geniale Idee oder Produkt hat daß jemand anderer das nachmacht, kopiert und stiehlt und sich daran bereichert.
Auf der anderen Seite wird hier halt oft getrickst und solche Sachen eingesetzt um andere daran zu hindern "ähnliches" oder auch ganz andere Ideen zu verwirklichen was natürlich nicht in Ordnung ist.

Es hätte jedoch auch genügt wenn Du die Story nur verlinkt hättest, denn eigentlich ist der Post doch etwas Off Topic.

@Topic
Daß AMDs Zen in 2016 mit 14nm Fertigung kommt halte ich für realistisch und ich vermute daß Intel da auch noch nicht sehr viel weiter sein wird. In der letzten Zeit hat Intel seine Chips ja auch immer erst etwas verspätet als geplant gebracht. Ob das nun tatsächlich daran lag daß sie es nicht konnten oder ob sie einfach nicht wollten da ja teils keine Konkurrenz da ist sei jetzt mal dahingestellt.
 
Zuletzt bearbeitet:
Warum lese ich hier eigentlich ständig Intel,Server und sonst was für einen Mist?
Die Opteron 4300 Serie sind faktisch identisch mit den AM3+ CPUs, die Opteron 6300 sind zwei Opteron 4300 Dies in einer CPU vereinigt. Es wird von AMD nur dann neue Gamer CPUs geben, wenn es neue Server CPUs geben wird. Da allerdings momentan keine der Opterons gegen die Xeon Übermacht auch nur in irgend einem wichtigen Benchmark Bestand hat, sieht es für AMD sehr düster aus.

- - - Updated - - -

CISC (Complex Instruction Set Computer) sind u.A. x86 CPUs wie wir sie heute nutzen (Intel Core und AMDs FX und APUs). Diese sind sehr flexibel und bieten eben ein breites Feld an Befehlen die sie abarbeiten können. Kurzum sie können so gut wie "alles" und einiges auch sehr schnell. Und ja mir ist bewusst daß etwa seit dem Pentium Pro CISC CPUs im Inneren auch RISC beinhalten und mittels Übersetzer nach aussen als CISC (z.B. x86) auftreten.

RISC (Reduced Instruction Set Computer) sind u.A. die (IBM) Power(PC) Architektur, ARM und viele spezialisierte (z.B. auch IBM/Sonys Cell Prozessor oder die SPARC Serie etc.). Diese haben wie schon der Name sagt nicht so eine flexible Architektur und können nur bestimmte Befehle abarbeiten, diese dafür aber meist extrem schnell weil sie eben darauf optimiert sind.
Das stimmt so leider nicht mehr. Der Hauptunterschied zwischen RISC und CISC ist die Struktur der Befehle, und der Anteil an mikrokodierte Befehle. Eine RISC Maschine hat Befehle, die fast immer Vielfache eines Words sind, während CISC Maschinen unterschiedlich lange Befehle haben., das ist von Nachteil für Caching und die Pipeline. Zudem hat ein x86-64 fast nur mikrokodierte Befehle, während eine aktueller POWER8 nur etwa 5% mikrokodierte Befehle hat. Die Befehle selbst sind bei einem POWER8 ähnlich komplex wie bei einem x86-64. Da hat man mit einem CISC gegenüber aktuellen RISC Systemen keine Vorteile mehr.
 
Die Opteron 4300 Serie sind faktisch identisch mit den AM3+ CPUs, die Opteron 6300 sind zwei Opteron 4300 Dies in einer CPU vereinigt. Es wird von AMD nur dann neue Gamer CPUs geben, wenn es neue Server CPUs geben wird. Da allerdings momentan keine der Opterons gegen die Xeon Übermacht auch nur in irgend einem wichtigen Benchmark Bestand hat, sieht es für AMD sehr düster aus.

Tja meine Rede, ich hatte in meinen vorherigen Posts auch schon öfters erwähnt daß die meisten der reinen Desktop CPUs eigentlich nur umgebaute, beschnittene oder teils nur umgelabelte Server CPUs sind.

Das stimmt so leider nicht mehr. Der Hauptunterschied zwischen RISC und CISC ist die Struktur der Befehle, und der Anteil an mikrokodierte Befehle. Eine RISC Maschine hat Befehle, die fast immer Vielfache eines Words sind, während CISC Maschinen unterschiedlich lange Befehle haben., das ist von Nachteil für Caching und die Pipeline. Zudem hat ein x86-64 fast nur mikrokodierte Befehle, während eine aktueller POWER8 nur etwa 5% mikrokodierte Befehle hat. Die Befehle selbst sind bei einem POWER8 ähnlich komplex wie bei einem x86-64. Da hat man mit einem CISC gegenüber aktuellen RISC Systemen keine Vorteile mehr.

Ja ich wollte da nicht zu weit drauf eingehen. Es stimmt wie Du sagst daß sich die beiden in den Befehlen (bzw. Komplexität und wie weit sie mikrokodiert sind / umgewandelt werden müssen) und in der Länge deren unterscheiden aber auch wie sie Speicher adressieren usw. Aktuell werden die beiden Begriffe ja kaum noch verwendet da sie eigentlich seit etwa dem Pentium sehr verschwimmen. CISC ist im Hintergrund immer mehr RISC und RISC wird immer mehr erweitert um auch mit komplexeren Aufgaben besser zurecht zu kommen. Die ARM Architektur ist ja ein gutes Beispiel daß eine typische RISC Architektur immer erweitert und verbessert wurde. Auch das POWER8 Design ist schon eine sehr stark aufgebohrte RISC Architektur, geht allerdings ganz andere Wege als ARM.

Wie auch immer, ich wollte damit eigentlich nur ausdrücken daß ein Bulldozer/Vishera KEIN Numbercruncher ist und man für sowas eher reine RISC Designs verwendet da diese dort schneller und effizienter sind. Und eben auch daß aktuelle x86 CPUs bestimmt nicht durch Ihren I/O limitiert werden.
 
Es hätte jedoch auch genügt wenn Du die Story nur verlinkt hättest, denn eigentlich ist der Post doch etwas Off Topic.

Der Post hatte auch Ontopic Inhalt. Ich habe mir gedacht der post könnte so interessant sein.

Willkommen in der Marktwirtschaft!
Glaubst Du es ist irgendwo anders?

Voll asozial, kein wunder das die Welt sich ständig im Krieg befindet und immer mehr Armut existiert.
Ich meine, 85 menschen besitzen so viel hat wie die Hälfte der Welt, alles wegen diesem Drecks System welche dieser Unmoralische Ellebogen gesellschaft die Grundlage bietet.
Es kotzt mich Moralisch betrachtet wirklich alles an. Man könnte das alles per Gesetz unterbinden, aber um Moral scheren sich Politiker ja nicht.

Und ich denke mal die meisten Hardwarefans verstehen mich.

Die meisten hier lieben doch genau so wie ich den Fortschritt, genau wie in Star Trek etc wünscht man sich aber eben nicht nur Technischen fortschritt, sondern in erster linie den fortschritt der Moral und der Zivilisation.

Und genau dieser ist seit jahrhunderten gegen 0.

Griechenlands Pleite ist zz oft Thema in den Nachrichten.
Volker Pispers ist Systemkritiker seit Jahrzehnten, und die Pleite Griechenlands war für ihn genau so absehbar wie alle anderen Krisen.

Hast du seine Kritik am Zins verstanden ?

Ein Zinssystem dient nur einem ziel.
Das wenige reiche sich von der Masse bedienen lassen können.

Reichtum wächst endlos durch Zinsen ohne Realen gegen wert.
Doch jemand muss für diesen gegen wert aufkommen.
Der Grund warum alle Pleite gehen ist Zins.

Alles war absehbar und leicht zu Berechnen.
Warum wurde es dennoch gemacht ? es dient einem nutzen.
Der Umverteilung von fleißig zu Reich.

Sobald man Millionär ist, kann man sich gar nicht mehr dagegen wehren das sich sein Geld durch Zins über die Jahre proportional Multipliziert.
Das führt dazu das man mehr und mehr Produkte geschenkt bekommt, ohne das man arbeiten muss. Aber jemand Arbeitet zur Herstellung dieser Produkte, wir Zinssklaven.

Der Zins ist ein leistungsloses Einkommen.
Der Zins ist in allen Preisen versteckt, sodass es zu einer Umverteilung von unten nach oben kommt.
Unser Geldsystem sorgt für einen ständigen Geldfluss von den Fleißigen zu den Reichen.


Wenn man einen einzigen Cent für 2000 Jahre bei 5% Zinsen angelegt hätte, dann hätte man heute 295 Milliarden Weltkugeln aus puren Gold an Zinsen die einem zuständen.

Dieses Beispiel zeigt, das Zinsen gegen jegliches Naturrecht sind.

- Margrit Kennedy sagte:
"Wer das Fach Wirtschaft studieren will, muss den Zins und Zinseszins als Paradigma akzeptieren.
Wenn sie auf einmal den Zinseszins infrage stellen würden, könnten sie in dieser lukrativen Branche nicht mehr arbeiten."

- Mayer Amschel Rothschild, Begründer der Rothschild-Bankendynastie sagte:
„Der Zinseszinseffekt ist das achte Weltwunder.”

Weil es die armen ausnutzt ohne das sie etwas dagegen machen können.

Daher sagte er auch: „Gib mir die Kontrolle über das Geld einer Nation und es interessiert mich nicht, wer dessen Gesetze macht.”

Denn er wusste ganz genau, das Geld die Kontrolle über die wirklich entscheidenden Faktoren mit sich bringt.


- John Adams (Präsident der USA) sagte:
„Es gibt zwei Wege, eine Nation zu erobern und zu versklaven. Einerseits durch das Schwert. Andererseits durch Zinsen.”


Er war ein gebildeter Mann der es verstanden hat.

- Aristoteles sagte:
„Das Geld ist für den Tausch entstanden, der Zins aber weist ihm die Bestimmung an, sich durch sich selbst zu vermehren. Daher widerstreitet auch diese Erwerbsweise unter allen am weitesten dem Naturrecht.“

Wie traurig das dies schon über 2000 Jahre bekannt ist, und wir uns für modern und aufgeklärt halten, aber nicht mal diese Weisheiten verstanden haben, obwohl diese Fakten unser leben mehr beeinflussen als alles andere.

- Albert Einstein sagte:
„Der Zinseszins ist die größte Erfindung des menschlichen Denkens.“

- Leo N. Tolstoi sagte:
„Zins ist eine neue Form der Sklaverei.”

Und diese aussagen werden so wenig bedacht und viel zu wenig geschätzt und begriffen.

- Jean Ziegler, UN-Sonderberichterstatter sagte:
„Ein Kind, das heute am Hunger stirbt, wird ermordet. Es ist das Geldsystem, welches tötet.“

Pro Minute wird Regenwald in der Fläche von 35 Fußballfeldern Abgeholzt.

50 Millionen Menschen verhungern jedes Jahr.
Wenn die Industrieländer ihren Fleischverbrauch um nur 10 % reduzieren würden, könnten 100 Millionen Menschen zusätzlich ernährt werden.
50% des gesamten Trinkwasserverbrauches geht zu Lasten der Massentierhaltung.

98% des Fleisches in Deutschland stammen aus Massentierhaltung.

Lebensmittel werden bewusst zerstört um den Marktpreis künstlich zu erhöhen, nicht nur in USA & Europa, auch in Afrika und Asien und Südamerika.
40 Prozent der Lebensmittel landen in den USA im Müll.
Ein Drittel aller Lebensmittel landen in Deutschland im Müll.

Die Futtermengen für die Tiere der Massentierhaltung des Westens werden in der Regel in dritte Welt Ländern angebaut.
Dort Raubt es den Einheimischen ihre Nahrungsflächen und Schadet der Umwelt durch Extreme Transportmaßnahmen.

Hunger ist nicht nur das Geschäft des Aggrobusiness, sondern wird mindestens seit den fünfziger Jahren gezielt als Waffe imperialistischer Politik eingesetzt. Dies geschieht, um Menschen aus bestimmten Gebieten zu vertreiben und den Boden in diesen Gegenden zur Gewinnung von Rohstoffen oder zur Nutzung durch Großunternehmen frei zu machen, sowie um billige Arbeitskräfte für Industrieprojekte zu rekrutieren.

Außerdem wird der Hunger als politische Waffe eingesetzt, um mißliebige Regierungen zu beseitigen oder so zu erpressen, daß sie sich den Diktaten imperialistischer Politik, so insbesondere denen des Internationalen Weltwährungsfonds (IWF), beugen. Eine entscheidende Rolle spielen dabei die Getreide- bzw. insbesondere die Weizenpreise.

Dazu ein super Passendes Zitat.

"Vergessen Sie nie, dass die Menschen immer schon die fürchterlichsten und grausamsten Dinge für legal erklärt haben."
- Dr. Martin Luther King

sooo das war jetzt auch genug Offtopic.

back zu Topic.

Ich vermute Zen wird als Quad core und als 6 und als 8 Kerner kommen.

Preisbereich ähnlich wie bei Bulldozer mit den FX4 FX6 FX 8 zu release von zambezi, also 8 Kerner ab 200 euro, 4 Kerner ab 100 euro, 6 Kerner so dazwischen.

Es haben sich ja so viele Intel Fans einen echten 8 kerner gewünscht um von ihrem 4770K oder so mal aufzurüsten. Zen wird das erste mal preislich wirklich eine alternative für viele Sandy & Haswell besitzer denke ich. Jedenfalls für die leute die keinen Intel 6 Kerner haben.
 
Zuletzt bearbeitet:
Wie auch immer, ich wollte damit eigentlich nur ausdrücken daß ein Bulldozer/Vishera KEIN Numbercruncher ist und man für sowas eher reine RISC Designs verwendet da diese dort schneller und effizienter sind.
Sorry, aber das ist einfach nur Blödsinn, denn die Mehrzahl der aktuellen (Nov. 2014) Supercomputer setzt auf Intel (E5) Xeons.
Faildozer werden nur deshalb seltener verwendet, weil sie langsamer als die Xeons sind (u.a. ein Grund für Crays Wechsel zu Intel).
 
Nighteye
Lt. Intel hätte man in Q2 2014 schon einen Broadwell in Händen halten sollen. Vergiss das mit Cannonlake in 2016, das ist purer Unsinn. Die sind froh, dass die 14nm endlich laufen, glaub ja nicht, dass 10nm leichter werden. Wie gesagt, der Prozess ist erst Ende 2015 entwicklungsreif, das kann nichts geben mit Cannonlake 2016, es ist einfach unmöglich.
 
Zuletzt bearbeitet:
Sorry, aber das ist einfach nur Blödsinn, denn die Mehrzahl der aktuellen (Nov. 2014) Supercomputer setzt auf Intel (E5) Xeons.
Faildozer werden nur deshalb seltener verwendet, weil sie langsamer als die Xeons sind (u.a. ein Grund für Crays Wechsel zu Intel).
Ist der AMD-nvidia Cluster noch auf Platz 2 ? :sleep:

Soft Machines
 
Wenn es nur 2 Kontrahenten gibt, kann es kein Verlierer geben.
Ein Auszug aus der VISC Architektur:

Assuming the technology works as advertised, it will change the way all processors are designed. CPU designers
will stop trying to improve IPC by adding more hardware
; in fact, complex high-IPC designs like Haswell could disappear
in favor of smaller, simpler ones. Replacing large cores with clusters of simpler cores will improve performance and power efficiency, benefiting almost every type of processor. To deliver on this promise, Soft Machines must fully validate VISC and license it to leading processor vendors.

The Game has changed. :xmas:
 
Die VISC Geschichte ist definitiv hoch spannend! Allerdings muss man sich schon fragen: Wenn das solch ein riesen Erfolg/Revolution werden "könnte", wieso soll dann AMD drauf aufspringen und nicht Intel?
Klar, AMD hat es durch die geringe IPC deutlich eher nötig, aber Intel ist ja auch nicht dumm sich was durch die Lappen gehen zu lassen. Dass mit ihrem IPC Ansatz die Leistungssteigerung sich immer weiter verlangsamt, haben sie ja sicher auch gemerkt.
 
Zuletzt bearbeitet:
Weiß ich doch, musst mir das nicht extra sagen ;) ich bezog mich auf Zambezi wie auch Duplex.
Und wo genau liegt jetzt der Sinn, einen 2011er Kern von AMD mit dem aktuellen Haswell Kern von Intel zu vergleichen? Darf ich dann auch Jaguar/Puma(+) mit dem alten In-Order Atom vergleichen und behaupten, Intel ist nicht ansatzweise konkurrenzfähig bei Low Power Geräten?

Cannonlake kommt Laut Intel 2016.
Vielleicht. Aber wenn, dann erst sehr spät und auch nur sowas wie Core M. Entsprechend grosse Desktop Modelle sollte man vor 2017 nicht erwarten. Intel bekommt immer mehr Probleme mit der Fertigung, gerade bei höheren Taktraten. Ältere Fahrpläne haben sich schon verschoben. 14nm liegt zudem bisher unter den Erwartungen. Es würde mich wundern, wenn das mit 10nm plötzlich völlig anders wird. Gerüchten zufolge soll man im Moment sogar darüber nachdenken, Broadwell-K zu canceln.


Kannst du uns dafür einen Beleg bringen. Ein Zitat. Ein Einziges? Nur eins! Nein - warum wohl?
Eigentlich antworte ich nicht auf solche primitiven Provokationen. Aber den Spass lasse ich mir nicht entgehen. Bitteschön:
Zeige mir mal einen Intel Basher, der den gleichen Unsinn in Intel Threads abzieht. Nur einen!

Fällt dir bei deiner Aufzählung von Namen etwas auf? Duplex, ehemals größter Verfechter von AMD CPUs. Schaeffe, ehemals größter Verfechter von AMD CPUs. Du müsstest auch noch Nighteye und Pirate aufführen - auch ehemels größte Verfechter von AMD CPUs. Ich - ich habe selbst eine AMD CPU... davor hatte ich eine andere AMD CPU... und ich hatte/habe hier drei AMD Grafikkarten-Generationen am Start. Warum stellen sich AMD Fans plötzlich gegen AMD? Warum?
Du hast immer noch nicht kapiert, worum es geht. Es ist völlig belanglos, wer Verfechter von wem ist. Der Ton macht bekanntlich die Musik. Und Leute wie Nighteye oder Pirate können sich diesbezüglich besser im Zaum halten. Die drei zuvor genannten verhalten sich dagegen immer wieder fanatisch, polemisch und werden persönlich. Und so verhalten sich nur Leute, die erstens keine Argumente und zweitens Unrecht haben.

Jetzt wo ich darüber nachdenke, vielleicht arbeitest du gar nicht für das AMD Marketing. Vielleicht arbeitest du für Intel und es ist deine Aufgabe, AMD im schlechten Licht darstehen zu lassen?
Keine Sorge, dafür braucht es mich nicht. Schon ein TARDIS reicht völlig aus, um AMD schlecht zu machen.


Sorry, aber das ist einfach nur Blödsinn, denn die Mehrzahl der aktuellen (Nov. 2014) Supercomputer setzt auf Intel (E5) Xeons.
Die CPU ist für Supercomputer aber mittlerweile völlig nebensächlich. Die dient nur noch als Host. Supercomputer werden mittlerweile von GPUs dominiert. Aber das ist off-topic. Also zurück zum Thema.


ARM hat ja gerade den Cortex-A72 vorgestellt. Laut den Ankündigungen ist der in etwa so leistungsfähig pro Takt wie Cyclone, der es wiederum problemlos mit Broadwell aufnehmen kann, und ein deutlicher Sprung gegenüber dem aktuellen A57 (~50%). AMD wird sicherlich schon länger Kenntnis vom A72 haben. Und was langsameres wird man mit K12 und Zen sicherlich nicht anpeilen.
 
Eigentlich antworte ich nicht auf solche primitiven Provokationen. Aber den Spass lasse ich mir nicht entgehen. Bitteschön:
Das ganze Zitiere hier zerstört zwar die Übersichtlichkeit enorm... aber, glaube du hast mal wieder was missverstanden.

Du hast behauptet:
Als "böse" werden hier nur die abgestempelt, die AMD kaufen.

TARDIS hat nach einem beleg für dafür gefragt, und du bringst allen erstes das hier an?
Wozu sollte man also heute einem Gamer noch so einen gammeligen AMD Schrott empfehlen? Ernsthaft. Aus Mitleid für AMD? Nicht wirklich.
Inwiefern bitteschön wird hier jemand als böse abgestempelt? o_O'

@mr.dude Ernsthaft. Darin AMD zu verteidigen bist du ziemlich miserabel und fühlst dich (und "deine" Firma) viel zu schnell angegriffen.

Deine Vergleice von Cyclone, einer RISK architektur zu Haswell/x86 CISC kannst du außerdem mal gleich von vorherein lassen - diese beiden Architekturen lassen sich schlichtweg nicht vergleichen! Selbst wenn AMD einen super Chip für RISK bringen würde - sie würden dadurch kein einziges % Marktanteil im Gamingsektor in der Zukunft gewinnen um den es in diesem thread hier eigentlich geht.
 
Zuletzt bearbeitet:
Eigentlich antworte ich nicht auf solche primitiven Provokationen. Aber den Spass lasse ich mir nicht entgehen. Bitteschön:

"Wozu sollte man also heute einem Gamer noch so einen gammeligen AMD Schrott empfehlen? Ernsthaft. Aus Mitleid für AMD? Nicht wirklich."

Und wo wird in dem Zitat jemand, der AMD CPUs kauft, als "böse" bezeichnet?

Denn genau das war ja dein Vorwurf: AMD Käufer werden als "böse" dargestellt. In dem von dir rausgepickten Zitat steht doch nur drin, dass AMD CPUs für Gamer derzeit keinen Sinn machen. Und das stimmt ja wohl auch (ich erspare mir ausnahmsweise den reinkopierten Benchmark...). Aber dort steht in keinster Weise, dass AMD Käufer "böse" sind. Damit bleibt deine Aussage schwachsinnige, haltlose Polemik.

Deine Antwort geht also mal wieder voll daneben. Aber das kennt man ja schon von dir. Ich habe langsam echtes Mitleid mit dir.
 
Zuletzt bearbeitet:
Deine Vergleice von Cyclone, einer RISK architektur zu Haswell/x86 CISC kannst du außerdem mal gleich von vorherein lassen - diese beiden Architekturen lassen sich schlichtweg nicht vergleichen! Selbst wenn AMD einen super Chip für RISK bringen würde - sie würden dadurch kein einziges % Marktanteil im Gamingsektor in der Zukunft gewinnen um den es in diesem thread hier eigentlich geht.

Na dann lass mal hören, was denn die großen Unterschiede zwischen beiden sind? Ich bin gespannt.
 
Und wo genau liegt jetzt der Sinn, einen 2011er Kern von AMD mit dem aktuellen Haswell Kern von Intel zu vergleichen? Darf ich dann auch Jaguar/Puma(+) mit dem alten In-Order Atom vergleichen und behaupten, Intel ist nicht ansatzweise konkurrenzfähig bei Low Power Geräten?

Er hat Zambezi nicht mit Haswell verglichen, sondern mit Sandy Bridge von 2010.

Hast du evtl vergessen bei deinem vielen Quoten, kann passieren :wink:
 
Dass die allermeisten Programme die es gibt, nicht auf beiden laufen - bei Games praktisch garkeine.

Und ich hab jetzt schon gehofft, es kommen mal richtige Argumente.... Aber ich geb dir noch einen Versuch du erklären, warum sich RISC und CISC Prozessoren zu sehr unterscheiden und man diese deshalb nicht miteinander vergleichen kann. Zumindest in Hinsicht Leistung, Takt und Verbrauch.
Du darfst dabei auch gerne mit deinem kompletten Fachwissen prahlen und brauchst dich nicht auf einen so oberflächlichen, schwachsinnigen Vergleich beschränken.
 
Zuletzt bearbeitet:
Und ich hab jetzt schon gehofft, es kommen mal richtige Argumente.... Aber ich geb dir noch einen Versuch du erklären, warum sich RISC und CISC Prozessoren zu sehr unterscheiden und man diese deshalb nicht miteinander vergleichen kann. Zumindest in Hinsicht Leistung, Takt und Verbrauch.
Du darfst dabei auch gerne mit deinem kompletten Fachwissen prahlen und brauchst dich nicht auf einen so oberflächlichen, schwachsinnigen Vergleich beschränken.

Wie wärs wenn du zuerst argumentieren würdest weshalb deiner Meinung nach, das Argument schwachsinnig ist?

Von mir aus ein anderes Argument: Risk ist das deutlich einfachere Konstrukt - weniger Befehle, daher auch einfachere CPU und leichtere Fokusierung auf reine Geschwindigkeit (oder auf hohe Effizienz). Dafür ist es für den Programmierer (in Assembler) schwerer für Risk zu entwickeln weswegen sich Cisc durchgesetzt hat und auch heute noch dominiert. Auf Smartphones hat sich wegen der Effizienz, Risk durchgesetzt, aber die Grundproblematik mit diesem System bleibt. Android setzt darum ja auch auf eine virtuelle Java maschine um die Entwicklung zu vereinfachen und iOS setzt einen komplexen Compiler für objective-C ein (LLVM).
 
Zuletzt bearbeitet:
Und ich hab jetzt schon gehofft, es kommen mal richtige Argumente.... Aber ich geb dir noch einen Versuch du erklären, warum sich RISC und CISC Prozessoren zu sehr unterscheiden und man diese deshalb nicht miteinander vergleichen kann. Zumindest in Hinsicht Leistung, Takt und Verbrauch.
Auf welcher Basis willst du vergleichen? Da brauchst du erst mal ein Betriebssystem das auf beiden Architekturen läuft und dann auch noch Identische Programme.
Es bringt nichts zu wissen wie viele Operationen ein Prozessor pro Sekunde ausführen kann, denn das sind alles theoretische Werte.
 
Sorry, aber das ist einfach nur Blödsinn, denn die Mehrzahl der aktuellen (Nov. 2014) Supercomputer setzt auf Intel (E5) Xeons.
Faildozer werden nur deshalb seltener verwendet, weil sie langsamer als die Xeons sind (u.a. ein Grund für Crays Wechsel zu Intel).

Okay dann halt Dich mal fest, auch ein Xeon E5 ist kein Numbercruncher. Shocked?
Wie mr.dude auch schon erwähnt hat werden dafür eher in wenigen Fällen reguläre x86 CPUs für die tatsächliche Berechnung eingesetzt. Das machen aktuell meist GPUs (nVidia Tesla z.B.) oder Xeon Phi usw.
Natürlich gibt es einige Supercomputer die auf riesige Cluster von x86 CPUs aufgebaut sind, diese leisten aber bei weitem nicht so viel wie eben Systeme die GPUs, Xeon Phis oder POWER CPUs dafür nutzen.

@NightEye
Tja so ist es leider mit der Menschheit. Die allermeisten Leute leben so, solange es einem selbst gut geht schert man sich einen Dreck wie es anderen geht. Jäger und Sammler, sprich sobald man reich ist will man mehr und bestimmt nichts abgeben. Wenn man sich die Geschichte der Menschheit ansieht ist es traurig und teils enorm erschreckend was wir so getan haben. Da liest man so gut wie nichts von "das Volk hat dieses Volk gerettet oder geholfen" etc. Und wenn dann nur wg. eigenem Profit. Viel mehr liest man wie wir uns gegenseitig die Köpfe einschlagen wg. Geld, Land, Besitz und das schlimmste von all dem - Glauben und Religion.
Aber wie Du schon sagst ist das alles viel zu viel Off Topic.

Bzgl. Zen hoffe ich wie schon gesagt auch daß dieser im Vollausbau 8 echte Kerne haben wird (mit eventuell zusätzlich einer Art HTT wie in Gerüchten umgeht). Falls dieser jedoch tatsächlich so leistungsfähig (oder leistungsfähiger) wie ein aktueller Intel ist kann ich mir jedoch vorstellen daß die Preise eher nicht so niedrig wie z.B. die aktuellen FX sind. Der FX-8150 kam ja ursprünglich auch mit etwa 250 EUR auf den Markt, ist aber dann rasch günstiger geworden.
Hier sieht man allerdings sehr schön wie die Marktwirtschaft funktioniert ... Intel hatte ja zu dem Zeitpunkt schon seine Sandy Bridge CPUs am Markt welche im Herbst 2011 relativ günsitg waren. i5-2500K ~ 170 EUR, i7-2600K ~ 250 EUR.
Tja dann kam AMD mit den FX auf den Markt welche preislich je nach Klasse etwa FX-8150 ~ i7-2600K, FX-6100 ~ i5-2500K den Intels entsprachen. Es stellte sich heraus daß die FX leider nur in einigen wenigen (Anwendungsbereichen) schneller oder gleich schnell wie die Intel CPUs waren und somit korrigierte AMD rasch die Preise nach unten. Und was hat Intel gemacht? Preise RAUF!
Verrückt oder? Und das war keine Sache wg. Kursschwankung oder Umweltkatastrophen, Brände etc. Das ist beinhart so geblieben.
Der i7 ist von ~250 rauf auf ~270-280 EUR und der i5 von ~ 170 auf ~190-200 EUR.
Und die Nachfolger (Ivy Bridge) haben die Preise ebenfalls behalten (bzw. waren anfangs sogar teurer) und auch dessen Nachfolger (Haswell) haben die Preise ziemlich genau dort gehalten.
Und versteht mich nicht falsch, aber normalerweise wird Hardware nach einigen Jahren billiger UND/ODER bietet Neuerungen und Leistungsgewinn, was bei Intel jedoch kaum der Fall war. Ja klar, Ivy Bridge hat ne neue kleinere Fertigung (dafür aber besch**** WLP unter der Kappe) und eine verbesserte iGPU (Hail Jesus!) und vielleicht 5% mehr Leistung, aber an den Kernen und den Taktraten hat sich so gut wie nichts geändert. Und Haswell? Tja immerhin ~10-15% auf Ivy Bridge mehr Leistung und (Thank God!) wieder eine verbesserte iGPU, aber auch hier hat sich an den Taktraten und Kernen kaum etwas getan.
Fazit - so lange AMD nicht eine ordentliche Konkurrenz ist wird sich bei Intel hier auch wenig ändern. Wenn AMDs Zen eine schnelle CPU wird und sagen wir mal das Top Modell mit 8 echten Kernen (und eventuell HTT) kommt kann dieses Modell ruhig 300 EUR kosten.
Dann muß Intel handeln, und entweder günstiger werden und/oder bessere CPUs bringen (mehr Kerne im Mainstream Bereich und/oder mehr Takt und/oder mehr IPC Leistung oder sonstige Features).

@why_me
Das genügt eigentlich schon was DragonTear gesagt hat:
Haswell und Cyclone werden nicht im gleichen Markt/Anwendungsgebiet eingesetzt. Oder kannst Du mir meinen Windows Desktop PC daheim mit einem Cyclone aufrüsten/umrüsten? Und bedenke ich würde gerne weiterhin meine Programme und Spiele nutzen können. Und unser Firmenserver hat noch einen alten Xeon E3, bitte stell mir da auch gleich einen neuen mit Cyclone zusammen. Anforderungen sind eh nicht groß, Exchange, Oracle Datenbank und Domain/File/Print Server.
Dafür findet man keinen Haswell in einem Smartphone oder Android/iOS Tablet etc.

@DragonTear
Nicht RISK - sondern RISC ;)
 
Supercomputer werden mittlerweile von GPUs dominiert.
Nein, werden sie nicht. Unter den 10 schnellsten Supercomputern befinden sich nur 5 mit Beschleunigern und davon sind nur 3 mit Nvidia GPUs bestückt.
Der Rest setzt auf Intels MICs oder auf RISC Prozessoren. Aber unter den 500 Systemen der Gesamtliste gibt es nur 75 mit Beschleunigern.

Wie mr.dude auch schon erwähnt hat werden dafür eher in wenigen Fällen reguläre x86 CPUs für die tatsächliche Berechnung eingesetzt.
Die überwältigende Mehrheit der Supercomputer setzt noch immer nicht auf Beschleuniger; im Übrigen ist der Xeon Phi keine GPU, sondern ein Manycore Chip mit vielen aufgebohrten Pentium-MMX Kernen.

Aber deine ursprüngliche Behauptung lautete ja:
Somit verwendet man zum Numbercrunchen am besten spezialisierte RISC Systeme.
Und das diese Behauptung nur Bullshit ist, haben wir jetzt beide bewiesen. ;)
 
Okay das ist jetzt etwas Off Topic und bezieht sich auf viele der letzten Posts. Braucht also nicht von jedem gelesen werden:

Nein, werden sie nicht. Unter den 10 schnellsten Supercomputern befinden sich nur 5 mit Beschleunigern und davon sind nur 3 mit Nvidia GPUs bestückt.
Der Rest setzt auf Intels MICs oder auf RISC Prozessoren. Aber unter den 500 Systemen der Gesamtliste gibt es nur 75 mit Beschleunigern.

Gut dann ersetze sein Wort "dominiert" durch "angeführt".
Supercomputer werden mittlerweile von GPUs angeführt.
Besser?

Die überwältigende Mehrheit der Supercomputer setzt noch immer nicht auf Beschleuniger; im Übrigen ist der Xeon Phi keine GPU, sondern ein Manycore Chip mit vielen aufgebohrten Pentium-MMX Kernen.

Die Mehrheit mag zwar nicht auf Beschleuniger (GPUs) oder CoProzessoren (Intel MICs - Xeon Phi) setzen, diese sind aber mit Abstand die schnellsten und effizentesten. Ich gehe davon aus daß viele der Supercomputer ohne Beschleuniger oder CoProzessoren wirtschaftlich einfachere/leistbarere/verfügbarere Systeme sind denn einen Cluster aus vielen x86er Systemen zu bauen ist wohl nicht so kompliziert/teuer/zeitaufwändig wie ein eigenes Design/System mit eben RISC Systemen oder Beschleuniger/CoProzessoren zu bauen. Die Beschleuniger/CoProzessoren (wie der Xeon Ph) wären bei solchen x86 Clustern On Top zu rechnen.

Aber deine ursprüngliche Behauptung lautete ja:

Somit verwendet man zum Numbercrunchen am besten spezialisierte RISC Systeme.

Und das diese Behauptung nur Bullshit ist, haben wir jetzt beide bewiesen. ;)

Das war nicht meine ursrüngliche Behauptung sondern eine Aussage in mitten einer Diskussion, aber ich habe mich hier eher schlecht ausgedrückt, da gebe ich Dir recht. Sorry. In meinen Augen sind "spezialisierte RISC Systeme" auch so etwas wie GPGPUs und auch Intels MIC (Xeon Phi).
Hier die zusammengeschnittene Historie wie sich das entwickelt hat:

Angefangen hat HOT mit I/O Leistung.
...
Am besten wären für künftige Games ziemlich sicher einfach 8 Kerne mit ordentlich Leistung (müssen keine IPC-Wunder sein, das halte ich für Unsinn, aber ne ordentliche I/O-Leistung bieten wär nett) ...

Das wurde anscheined etwas falsch von Phantomias aufgegriffen
Mit einer ordentlichen I/O Leistung wäre ich auch schon zufrieden.
Das wurde die letzten Jahre immer dünner, die Anbindung an den Rest des System, eigentlich war man gezwungen dadurch APUs zu bauen :fresse:

So ein Systemringbus wäre was tolles, wie es bei GPGPU Berechnungen genutzt wird: ...
Mein FX-8350 steuert hier 43GByte/s mehr Bandbreite bei als nur mit den zwei HD 7970. ;)

Darauf meine Frage / Aussage
...
Ähhh ... whut?

Was meint Ihr mit I/O Leistung? Wo seht Ihr denn hier einen Flaschenhals??? ...

Tja für's "Numbercrunchen" ist das bestimmt was nettes. Macht man aber ohnehin nicht mit einer normalen CPU. Wie Ihr schon richtig erkannt habt nutzt man dafür spezialisiserte Lösungen wie z.B. GPGPU. And guess what? - die haben auch meist eine weit höhere Speicheranbindung ;)

So weit, so korrekt?

Dann meinte Phantomias nach wie vor etwas falsch "Numbercrunchen" und "I/O" aufgefasst (er meinte damit wohl "Berechnungen" und "Ein/Ausgabe" wie Tastatur&Maus&verändernde Bedingungen / auf Bildschirm/Sound etc. obwohl er es eigentlich richtig mit "alles was von der CPU raus/rein geht" gesagt hatte)

@Bucho
Mit I/0 meint man alles was von der CPU raus und rein geht.
Spiele sind doch nichts anderes als Numbercrunchen, ständig wird deine Eingabe (Tastatur & Maus) im 3D Modell nachberechnet.
Mir geht es nicht um mehr oder schneller Hardware, sondern mal das ausnutzen was vorhanden ist. ;)

Und wie schon gesagt sehe ich bei I/O der aktuellen CPUs eigentlich keinen Flaschenhals, da würde auch ein breiteres Speicherbussystem, ein Ring Bus oder mehr PCI-E Lanes etc. nicht viel beschleunigen.

Dann bin ich mit CISC und RISC dahergekommen wofür ich mich noch einmal entschuldige da wir dann festgestellt haben daß diese beiden Begriffe stark veraltet sind (sorry so hatte ich in der HTL Anfag/Mitte der 90er das noch gelehrt bekommen).

... Aktuell werden die beiden Begriffe ja kaum noch verwendet da sie eigentlich seit etwa dem Pentium sehr verschwimmen. CISC ist im Hintergrund immer mehr RISC und RISC wird immer mehr erweitert um auch mit komplexeren Aufgaben besser zurecht zu kommen. ...

Wie auch immer, ich wollte damit eigentlich nur ausdrücken daß ein Bulldozer/Vishera KEIN Numbercruncher ist und man für sowas eher reine RISC Designs verwendet da diese dort schneller und effizienter sind. Und eben auch daß aktuelle x86 CPUs bestimmt nicht durch Ihren I/O limitiert werden.

Und dann hast Du das aufgeschnappt und gemeint:

Sorry, aber das ist einfach nur Blödsinn, denn die Mehrzahl der aktuellen (Nov. 2014) Supercomputer setzt auf Intel (E5) Xeons.
Faildozer werden nur deshalb seltener verwendet, weil sie langsamer als die Xeons sind (u.a. ein Grund für Crays Wechsel zu Intel).

Was für mich den Anschein geweckt hat daß Du meinst man nutzt in Supercomputern keine AMD Bulldozer da diese dort zu langsam sind sondern Xeon E5.

Das habe ich dann versucht klarzustellen:

Okay dann halt Dich mal fest, auch ein Xeon E5 ist kein Numbercruncher. Shocked?
Wie mr.dude auch schon erwähnt hat werden dafür eher in wenigen Fällen reguläre x86 CPUs für die tatsächliche Berechnung eingesetzt. Das machen aktuell meist GPUs (nVidia Tesla z.B.) oder Xeon Phi usw.
Natürlich gibt es einige Supercomputer die auf riesige Cluster von x86 CPUs aufgebaut sind, diese leisten aber bei weitem nicht so viel wie eben Systeme die GPUs, Xeon Phis oder POWER CPUs dafür nutzen.

In dieser Aussage verwende ich RISC schon gar nicht mehr, obwohl die POWER Architektur eigentlich noch eine stark aufgebohrte RISC ist.
Und sage damit eigentlich fast genau das was Du auch sagst.

Alles wieder klar/gut?

EDIT:
Ach und wenn man es genau nimmt war meine Aussage die Du als Bullshit bezeichnet hast eigentlich gar nicht mal so falsch sondern sogar ziemlich richtig ;)

Rank / System / Rmax (TFlop/s) / Power (kW)
1 Tianhe-2 (Intel Xeon Phi 31S1P) 33,862.7 / 17,808
2 Titan - Cray XK7 (NVIDIA K20x) 17,590.0 / 8,209
3 Sequoia - BlueGene/Q, Power BQC 16C, Custom 17,173.2 / 7,890

Nr 3 ist ein RISC System welches etwa die Leistung von Nr. 2 hat aber einen Hauch weniger Verbrauch hat. Und falls man das System verdoppelt könnte hätte man mehr Leistung als Nr 1 bei weniger Verbrauch.

Wobei man das wohl nicht einfach so alles verdoppeln kann und wer weiß wie stark sich da der RPeak Wert auswirkt welcher ja bei Nr 1 und 2 höher ist.
 
Zuletzt bearbeitet:
Das war nicht meine ursrüngliche Behauptung sondern eine Aussage in mitten einer Diskussion, aber ich habe mich hier eher schlecht ausgedrückt, da gebe ich Dir recht. Sorry. In meinen Augen sind "spezialisierte RISC Systeme" auch so etwas wie GPGPUs und auch Intels MIC (Xeon Phi).
Beides hat mit RISC nichts zu tun!

Rank / System / Rmax (TFlop/s) / Power (kW)
1 Tianhe-2 (Intel Xeon Phi 31S1P) 33,862.7 / 17,808
2 Titan - Cray XK7 (NVIDIA K20x) 17,590.0 / 8,209
3 Sequoia - BlueGene/Q, Power BQC 16C, Custom 17,173.2 / 7,890

Nr 3 ist ein RISC System welches etwa die Leistung von Nr. 2 hat aber einen Hauch weniger Verbrauch hat. Und falls man das System verdoppelt könnte hätte man mehr Leistung als Nr 1 bei weniger Verbrauch.
Die Rechenpower bei 1 und 2 kommen fast ausschließlich von den Beschleunigerkarten, d.h. man vergleicht hier in erster Linie XeonPhi, nVidia Tesla K20x mit PowerPC AS2 CPUs. Allen ist gemein, daß sie im Arbeitsspeicherausbau sehr stark beschränkt sind. Aus diesem Grund wird im SuperMuc in München normale Xeon E5 verwendet, da man hier sehr viel mehr RAM pro NUMA-Knoten einbauen kann, und Arbeitsspeicher kann man nur mit Arbeitsspeicher ersetzen.
 
Inwiefern bitteschön wird hier jemand als böse abgestempelt?
Ach komm, das ist Wortklauberei. Jeder hier weiss, worüber fdsonne gesprochen hat. Er hat "böse" ja auch nicht grundlos in Anführungszeichen geschrieben. Die Vorwürfe, Intel Käufer würden hier immer wieder dumm angemacht werden, stimmen einfach nicht. Zumindest kann ich davon nichts sehen. Falls doch, dann zeige mir solche Beiträge. Umgekehrt kann ich das aber sehr wohl sehen. Wie solche niveaulosen Beiträge von TARDIS beweisen. Und wie man solche Beiträge auch noch verteidigen kann, ist mir unverständlich. Oder musst du "deine" Firma Intel verteidigen?

Ernsthaft. Darin AMD zu verteidigen bist du ziemlich miserabel und fühlst dich (und "deine" Firma) viel zu schnell angegriffen.
Solche lächerlichen Vorwürfe kannst du dir echt sparen. Zeige mir doch mal eine Aussage, wo ich "meine" Firma AMD verteidige. Ich verteidige hier niemanden. Ich kritisiere lediglich unsachliches und polemisches Verhalten. Miserabel ist nur das, was TARDIS & Co ständig abziehen. Immer wieder fanatisch, deplatziert und mit Rosinenpickerei irgendwas schlecht machen. Solch destruktives Verhalten ist doch keine Diskussionskultur. Wer bitteschön hat da noch Lust, in Threads zu schauen, um sich zu informieren und konstruktive Diskussionen mitzuverfolgen?

Deine Vergleice von Cyclone, einer RISK architektur zu Haswell/x86 CISC kannst du außerdem mal gleich von vorherein lassen - diese beiden Architekturen lassen sich schlichtweg nicht vergleichen!
Natürlich kann man das. Und zwar so gut, dass Apple scheinbar vorhat, die Intels in den iMacs mit Cyclone basierten Prozessoren zu ersetzen. Ausserdem heisst es RISC und nicht RISK. Aber das wurde ja bereits gesagt.

Wie wärs wenn du zuerst argumentieren würdest weshalb deiner Meinung nach, das Argument schwachsinnig ist?
Ne ne, wir würden die Erklärung schon ganz gerne von dir hören und nicht von why_me. Schliesslich stammt die Behauptung von dir. Warum also soll AMD aufgrund von RISC "kein einziges % Marktanteil im Gamingsektor in der Zukunft gewinnen"? Dir ist schon klar, dass x86 CPUs heutzutage im Kern auch nichts anderes als RISC sind? Der Unterschied zu ARM ist lediglich, dass RISC dort bereits auf dem ISA Level beginnt, während es bei x86 auf dem Macro-/Micro-Op Level beginnt. Das hat einige Unterschiede im Backend und Frontend zur Folge. Aber deshalb sind die CPUs nicht komplett verschieden. Ganz im Gegenteil, ARM und x86 CPUs sind sich heutzutage verdammt ähnlich. Und dass AMD nicht nur K12, sondern auch Zen, eine x86 Architektur, entwickelt, ist dir auch bewusst? Und dass Zen voraussichtlich auch viel von der K12 DNA (ARM) beinhalten wird? Schliesslich werden beide Architekturen vom selben Team entwickelt. Und man wird gewiss nicht alles zweimal machen.


Er hat Zambezi nicht mit Haswell verglichen, sondern mit Sandy Bridge von 2010.
Dann solltest du aber nochmal genau hinschauen. Er hat unmissverständlich "Haswell hat 75 % mehr IPC" geschrieben. Und selbst wenn er SB gemeint hat, dann sind die 75% immer noch Quatsch. Übrigens, SB kam erst 2011, nicht 2010.


Nein, werden sie nicht.
Doch, werden sie. GPUs war vielleicht nicht präzise genug. Daran ändert aber auch Intels Tera Scale Architektur nichts. Die war ja ursprünglich als GPU vorgesehen (Larrabee). Daher fällt die bei mir immer noch in diese Kategorie. Sagen wir also präziser, Supercomputer werden mittlerweile von TCUs angeführt. LCUs wie normale CPUs fungieren dort praktisch nur noch als Hosts.

Die überwältigende Mehrheit der Supercomputer setzt noch immer nicht auf Beschleuniger
Was jetzt nicht unbedingt überraschend ist, da sich erst in den letzten Jahren ein Wandel vollzogen hat und neue Supercomputer nicht wie Pilze aus dem Boden spriessen. Ändert trotzdem nichts an der ursprünglichen Aussage, dass die schnellsten und effizientesten Supercomputer mittlerweile von TCUs beherrscht werden.
 
Ne ne, wir würden die Erklärung schon ganz gerne von dir hören und nicht von why_me. Schliesslich stammt die Behauptung von dir. Warum also soll AMD aufgrund von RISC "kein einziges % Marktanteil im Gamingsektor in der Zukunft gewinnen"? Dir ist schon klar, dass x86 CPUs heutzutage im Kern auch nichts anderes als RISC sind? Der Unterschied zu ARM ist lediglich, dass RISC dort bereits auf dem ISA Level beginnt, während es bei x86 auf dem Macro-/Micro-Op Level beginnt. Das hat einige Unterschiede im Backend und Frontend zur Folge. Aber deshalb sind die CPUs nicht komplett verschieden. Ganz im Gegenteil, ARM und x86 CPUs sind sich heutzutage verdammt ähnlich. Und dass AMD nicht nur K12, sondern auch Zen, eine x86 Architektur, entwickelt, ist dir auch bewusst? Und dass Zen voraussichtlich auch viel von der K12 DNA (ARM) beinhalten wird? Schliesslich werden beide Architekturen vom selben Team entwickelt. Und man wird gewiss nicht alles zweimal machen..

Danke, dass du mir das abgenommen hast. Ich wär wohl nicht bis auf Micro/Macro-Op runter gegangen und hätte es für das leichtere Verständnis der drei wohl nur Decoder genannt.

@Bucho, Dragontear und Devil Ag:
Wie kommt man eigentlich auf die Idee, das man zwei Prozessorarchitekturen nur über die Software miteinander vergleichen kann?
 
Ach komm, das ist Wortklauberei.
Nein ist es nicht. Es ist genau das worüber ich gesprochen habe - du fühlst dich als "AMD käufer" viel zu schnell angegriffen.

Ne ne, wir würden die Erklärung schon ganz gerne von dir hören
Bitteschön:

Risc ist das deutlich einfachere Konstrukt - weniger Befehle, daher auch einfachere CPU und leichtere Fokusierung auf reine Geschwindigkeit (oder auf hohe Effizienz). Dafür ist es für den Programmierer (in Assembler) schwerer für Risc zu entwickeln, weswegen sich Cisc durchgesetzt hat und auch heute noch dominiert. Auf Smartphones hat sich wegen der Effizienz, Risc durchgesetzt, aber die Grundproblematik mit diesem System bleibt. Android setzt darum ja auch auf eine virtuelle Java maschine um die Entwicklung zu vereinfachen und iOS setzt einen komplexen Compiler für objective-C ein (LLVM).
Und ob ein Hersteller der zufällig auch selbstd as Betriebssystem entwickelt, darüber nachdenkt die Architektur zu wechseln, sagt erstmal nichts über die Vergleichbarkeit aus.


@Bucho, Dragontear und Devil Ag:
Wie kommt man eigentlich auf die Idee, das man zwei Prozessorarchitekturen nur über die Software miteinander vergleichen kann?
Weil GENAU das der potentielle Käufer macht!
Er sucht sich die Hardware anhand der Software aus die er nutzen will. Das gilt für Gamer ebenso für Profis die Business- oder Serversoftware einsetzen.

Ich stelle grad fest wir sind wieder am selben Punkt über den fdsonne schon mal ausgiebig mit mr.dude diskutiert haben: Einer fokusiert sich nur auf den Hintergrund der Hardware - die in der Praxis nebensächlich ist, und wir anderen denken mehr an das Endprodukt und sehen uns als potentielle Käufer.
 
Zuletzt bearbeitet:
Weil GENAU das der potentielle Käufer macht!
Er sucht sich die Hardware anhand der Software aus die er nutzen will. Das gilt für Gamer ebenso für Profis die Business- oder Serversoftware einsetzen.

Ich stelle grad wieder fest wir sind wieder am selben Punkt über den fdsonne schon mal ausgiebig mit mr.dude diskutiert haben: Einer fokusiert sich nur auf den Hintergrund der Hardware - die in der Praxis nebensächlich ist, und wir anderen denken mehr an das Endprodukt und sehen uns als potentielle Käufer.

Und genau jetzt ist der Punkt, andem man dann mit der Diskusion aufhören kann ;)
Leider bringt es nix, da es hier Leute gibt, dehnen es offensichtlich schitt egal ist, was für den potentiell Kunden am Ende raus kommt, nur um das Produkt nicht in einem schlechtes Licht zu stellen. (so macht es mir zumindest den Eindruck) Und wenn es unausweichlich ist, diesen Umstand einzugestehen, dreht man soweit an der Argumentation rum, dass irgendwas rauskommt, was für den Endkunden am Ende völlig nebensächlich ist/war bis man wieder recht hat. Aber sei es drum...

Du hast "wenigstens" noch den Vorteil, dass du hier nicht Moderator bist, sonst würde man dir das auch noch vorwerfen :wink:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh