Für Forschungszwecke: Intel zeigt Prozessor mit 48 Kernen

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="intel3" src="images/stories/logos/intel3.jpg" width="100" height="100" />Gestern hat <a target="_blank" href="http://www.intel.com">Intel</a> im Standort Braunschweig den Prototypen eines Prozessors mit 48 Kernen gezeigt. Damit soll es gelungen sein, die bislang größte Anzahl an Rechenkernen auf einem Die zu vereinen. Als Teil des "Tera Scale Computing" Forschungsprogramms von Intel soll der sogenannte "Single-Chip Cloud Computer" möglichst viele gleichzeitige Berechnungen ermöglichen und könnte in Zukunft genügend Rechenleistung für die Interaktion von Computern mit Menschen bieten, so Intel. Dabei sei das Fernziel hundert oder mehr CPU-Kerne in einem Chip zu integrieren. Der 48-Kerner soll über eine schnelle...<p><a href="/index.php?option=com_content&view=article&id=13722&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aaahaa... also bekommen alle Hochschulen nen Prototypen eines beinahe 50-Kern-Prozessors. und übernächstes jah will Intel dann Sims 4 mit 50-Core-Supporthaben!?
Die sollten erstmal den Support für 4 Kerne herstellen! Dann für 8 und irgendwann, wenns läuft, sollten 48Kerne auch kein Problemmehr sien.Aber Intel.... man kennt das ja....
Demnächst bekommt der Media Markt-PC auch 48 Kerne. Viel Spaß..
Und die TCP von 25 Watt bzw, 125 Watt klingt für mich utopisch. Wenn ein Quad schon knapp 00W frisst. Welche Taktunghaben die hübschen 48Kerne. Undwelche Fetures gibts? Alsowenn das n 48-Core-Atom wird, dann braucht man erst garnix dafür zu programmieren xD
Der ist ja sowieso langsamer alsn n ordentlicher Quad xD
 
Ich denke, man kann schon davon ausgehen, daß der nicht sonderlich getaktet ist - soll ja auch nur zur Softwareentwicklung dienen, um überhaupt mal eine Vielzahl von Kernen zu berücksichtigen. Und der Chip ist auch noch weit davon entfernt, nächste Woche im Blödelmarkt-Prospekt zu landen! ;)
Aber ist schon klar, was Du meinst - Intel geht auch mit den am Markt erhältlichen Modellen voll auf die Threadduplizierung, nur leider gibt es dafür keine Software (Videoschnitt & CO mal ausgelassen). Und somit gibt es für diese CPUs (man denke an die kommenden Sechskerner - mit HT = 12 Threads!?) auch keinen wirklichen Bedarf/Markt.

Auf der anderen Seite die einzige Möglichkeit wirklich die Leistung zu erhöhen, da dem Takt nunmal Grenzen gesetzt sind (die angepeilten 10GHz mit dem P4 wurden ja nix ;) ), die nächsten Jahre werden in der Hinsicht schon interessant, wo die Reise nun wirklich hingeht.
 
Man kann denke ich davon ausgehen das es eh immer mehr Kerne werden, irgendwann redet man nicht von 2048 MB Ram oder 4096 MB Ram sondern von 2000 Kernen oder 4000 Kernen und mehr. Durch miniaturisierung im Herstellungsprozess und die angepasste Softwareentwicklung läuft vieles in diesen Bereich hinen. Ich meine sind wir mal ehrlich - man kann viele der neuen Spiele auch mit 750 Mhz spielen, wenn man den kleinsten i7 nimmt oder den schnellsten - bei den meisten Games sind in Vollast nichtmal 30% der CPU leistung in Nutzung der rest gammelt vor sich hin.

hatte letztens mal Prototype und auch Aion angefahren und der CPU kam nicht einmal über die 15% grenze. Ist halt so das dort die GPU immer mehr und mehr übernimmt. Ich denke Intel hat dies durchaus erkannt, weshalb die Taktraten absolut vernachlässigt werden.

Ich denke schon das wir sicherlich dann und wann einen Sprung in den Taktraten erleben werden, da ja auch immer bessere Materialien für die Herstellung zur Verfügung stehen und auch der Herstellungsprozess Sprünge macht. In sofern wird es über die kommenden Jahrzehnte sicherlich Sprünge über 4 Ghz und auch 5 Ghz geben, aber die Coreentwicklung und vor allem die integrated Technology Entwicklung ist mittlerweile in den Vordergrund gerückt. Ich Tippe mal auf den ersten nativ 4,2 Ghz CPU mit erscheinen der ersten 16 - 24 Core CPU\'s, das wäre ein logischer Zeitindex, natürlich nur eine Schätzung aber wenn man sich so die letzten 10 Jahre und spezifisch noch die letzten 5 Jahre genauer anschaut kommt das irgendwo hin.

Was für den gamer denke ich hier interessanter wäre, ist die Entwicklung im Grafikkartenmarkt. Denn dort ist das Gamer Mekka ;)
 
aaahaa... also bekommen alle Hochschulen nen Prototypen eines beinahe 50-Kern-Prozessors. und übernächstes jah will Intel dann Sims 4 mit 50-Core-Supporthaben!?
Die sollten erstmal den Support für 4 Kerne herstellen! Dann für 8 und irgendwann, wenns läuft, sollten 48Kerne auch kein Problemmehr sien.Aber Intel.... man kennt das ja....
Demnächst bekommt der Media Markt-PC auch 48 Kerne. Viel Spaß..
Und die TCP von 25 Watt bzw, 125 Watt klingt für mich utopisch. Wenn ein Quad schon knapp 00W frisst. Welche Taktunghaben die hübschen 48Kerne. Undwelche Fetures gibts? Alsowenn das n 48-Core-Atom wird, dann braucht man erst garnix dafür zu programmieren xD
Der ist ja sowieso langsamer alsn n ordentlicher Quad xD

Du hast rein garnichts verstanden, und verzeih mir, daß ich dir das so direkt sage.
Diese CPU ist ein Technologieträger und kommuniziert intern ähnlich wie Cluster. Deren Nachfolger werden dann im HPC-Segment eingesetzt und viele Server ersetzen und somit deutlich weniger Leistungsaufnahme haben, was wiederum die Kühlungskosten und die Energiekosten senkt.
Das, was Intel da auf einem Chip realisiert hat, kann rein rechnerisch 6 Dual-Nehalem-Server ersetzen.

Löst euch doch bitte mal von diesem Heimanwenderdenken, wenn neue Technologien entwickelt werden. Ihr fahrt ja auch keine Formel1-Autos oder bratet euer Steak auf dem Space Shuttle.
 
Du hast rein garnichts verstanden, und verzeih mir, daß ich dir das so direkt sage.
Diese CPU ist ein Technologieträger und kommuniziert intern ähnlich wie Cluster. Deren Nachfolger werden dann im HPC-Segment eingesetzt und viele Server ersetzen und somit deutlich weniger Leistungsaufnahme haben, was wiederum die Kühlungskosten und die Energiekosten senkt.
Das, was Intel da auf einem Chip realisiert hat, kann rein rechnerisch 6 Dual-Nehalem-Server ersetzen.

Löst euch doch bitte mal von diesem Heimanwenderdenken, wenn neue Technologien entwickelt werden. Ihr fahrt ja auch keine Formel1-Autos oder bratet euer Steak auf dem Space Shuttle.

Volle Zustimmung...
Wobei man aber den Leuten auch zugute halten muss, das ein Denken jenseits der gewohnten Arbeitsweise gerade im PC Bereich schwer fällt.
Der Mensch kann sich wohl schwer vorstellen, für was man sowas brauchen könnte...

Aber anders rum gedacht, auch im Heimbereich werden die Anforderungen höher, aber die Unterstützung für mehrere Cores nicht unbedingt besser...
Und ich denke hier wird der Knackpunkt in den kommenden Jahren liegen. Die Hersteller müssen sich da was einfallen lassen die Leistung der CPUs noch drastisch zu steigern.
Rein durch Optimierungen geht da sicher nicht viel, neue Architekturen müssen her... Durch reine Coreerhöhung erhällt man zwar theoretisch mehr Leistung, aber was nutzt das wenn die Anwendung da keinen Nutzen drauß zieht. Und mehr als an einem Programm kann man nunmal nicht gleichzeitig aktiv arbeiten.
 
Ich denke auch im Cluster-Bereich ist diese Entwicklung nur bedingt interessant. Für viele Jobs benötigt man einfach eine gewisse Menge an Speicher pro Core, das Board sieht nicht so aus als würden da hunderte GB passen.
Und für Jobs mit kleinem Speicherbedarf eignen sich oft auch Applikationsbeschleuniger oder CUDA oder OpenCL. Die bieten noch mehr Cores auf kleinem Platz.
Vermutlich wird die Taktfrequenz und Leistungsfähigkeit der einzelnen Cores weit hinter 4 6 oder 8 Kern CPUs anzusiedeln sein, da man die Wärmeentwicklung einfach nicht in den Griff bekommt.
Was ich mir wünschen würde wäre einfach mehr power/CPU oder pro Core. Oder mehr Sockel pro Board.
Nehalem EX hörte sich schon recht vielversprechend an.
Die 8 Sockel Boards auf AMD Basis wurden auch kaum vertrieben da es scheinbar einige Probleme gab. Das wären doch Lösungen wo große Rechnungen über Shared Memory flott laufen sollten.

Aktuell bekomme ich in 2HE 4 Dual Nehalem EP Systeme mit ner Menge Speicher und Infiniband Onboard-Adaptern. Also 32 Cores (theoretisch auch 64 Threads möglich) mit 6GB RAM /Core bei gutem Preis/Leistungs-Verhältnis.
Gegen die Kalkulation müsste so ein 48Kerner erstmal ankommen, damit man ernsthaft überlegen könnte den einzusetzen.

Software zu stricken die mit vielen Cores gut läuft und nahezu linear skaliert ist für viele Probleme nicht möglich und für viele andere wirklich sehr viel Aufwand. 48 Kerne pro Sockel machen denke ich momentan eher mehr neue Probleme als sie lösen.
 
hatte intel nicht schon einen 80kerner gezeigt vor einem jahr? polaris oder so hieß das ding -.-
 
Das, was Intel da auf einem Chip realisiert hat, kann rein rechnerisch 6 Dual-Nehalem-Server ersetzen.
Nicht mal annähernd. Vielleicht reicht es für einen 2P Nehalem Server. Das sind sehr einfache In-Order Pentium I Kerne, die lediglich den x86-32 Befehlssatz beherrschen. Die haben im Vergleich zu einem Nehalem Kern nicht sonderlich viel Performance. Vermutlich reichen sie nicht mal an einen Atom heran und sind ähnlich niedrig getaktet. Von Funktionalitäten wie Virtualisierung will ich da noch gar nicht anfangen, die für Server bekanntlich sehr wichtig sind.
Das ist bisher eine reine Forschungsstudie und sieht erstmal wie Larrabee aus. Ob das jemals sinnvoll eingesetzt werden kann und ob das angesichts immer stärker werdender GPGPU Hardware überhaupt noch sinnvoll ist, ist fraglich.

hatte intel nicht schon einen 80kerner gezeigt vor einem jahr? polaris oder so hieß das ding -.-
Jup, genau das ist das Ding hier (Tera Scale). Neu ist halt, dass die Kerne mittlerweile x86 können, wenn auch nur 32-bit. Das konnte Polaris ja noch nicht. So kann man Chips nun Entwicklern bereitstellen, die dafür Software schreiben.
 
Ich denke, man kann schon davon ausgehen, daß der nicht sonderlich getaktet ist - soll ja auch nur zur Softwareentwicklung dienen, um überhaupt mal eine Vielzahl von Kernen zu berücksichtigen. Und der Chip ist auch noch weit davon entfernt, nächste Woche im Blödelmarkt-Prospekt zu landen! ;)
Aber ist schon klar, was Du meinst - Intel geht auch mit den am Markt erhältlichen Modellen voll auf die Threadduplizierung, nur leider gibt es dafür keine Software (Videoschnitt & CO mal ausgelassen). Und somit gibt es für diese CPUs (man denke an die kommenden Sechskerner - mit HT = 12 Threads!?) auch keinen wirklichen Bedarf/Markt.

Auf der anderen Seite die einzige Möglichkeit wirklich die Leistung zu erhöhen, da dem Takt nunmal Grenzen gesetzt sind (die angepeilten 10GHz mit dem P4 wurden ja nix ;) ), die nächsten Jahre werden in der Hinsicht schon interessant, wo die Reise nun wirklich hingeht.

vm farmen nicht zu vergessen, ram und ssds sind inzwischen so billig das inzwischen die cpus anfangen zu limitieren, was ja eigentlich bei vms bis heuer nicht das groesste problem war.

e: @ mr.dude : gerade fuer virtualisierung sind die dinger doch geradezu geschaffen, damit kann man ne menge web/service server realisieren fuer sehr geringe stromkosten.
 
Zuletzt bearbeitet:
Was kam denn nach dem 10Ghz-Reinfall?

Ungenutztes 64-Bit.

Gott sei Dank optimiert man die letzten Jahre die einzelnen Recheneinheiten. Damit im Hinterkopf darf gerne auf Multithreading optimiert werden.

Lasst uns hoffen, das hier nicht wieder die PR-Abteilung die Oberhand gewinnt. Wobei der Eco-Faktor inzwischen ein echter Nenner im Kopf der User ist.

Ich finde, es sieht gut aus.
 
natuerlich nicht, aber sogar die 500er atom cpus koennen vt von daher seh ich net ganz das probelm dem chip auch diesen befehlssatz mitzugeben, ept wird wohl eher nicht moeglich sein aber vt imho schon.
 
und übernächstes jah will Intel dann Sims 4 mit 50-Core-Supporthaben!?

Das ist ein Prozessor für die zukünftige Cloud.
Du wirst dann demnächst vll etwas Rechenleistung von ein paar Cores aus der Cloud bekommen für dein Sims 4. Also genau soviel wie du brauchst.
 
evtl. ist der hier gezeigte Prozessor der ehemalige Larrabee Chip? Rein von den Daten der Rechenkerne her könnte das schon hinkommen.
 
Ich denke auch im Cluster-Bereich ist diese Entwicklung nur bedingt interessant. Für viele Jobs benötigt man einfach eine gewisse Menge an Speicher pro Core, das Board sieht nicht so aus als würden da hunderte GB passen.
Das Board ist eine Entwicklungsplattform, um überhaupt mal die CPU einsetzen zu können. Da macht es nicht wirklich viel Sinn, viele Slots zu verlöten.

Nicht mal annähernd. Vielleicht reicht es für einen 2P Nehalem Server. Das sind sehr einfache In-Order Pentium I Kerne, die lediglich den x86-32 Befehlssatz beherrschen. Die haben im Vergleich zu einem Nehalem Kern nicht sonderlich viel Performance. [...]
Das mag richtig sein. du hast da mehr Einblick als ich.
So wie ich das sehe, geht es bei dem ganzen Projekt stark um die Kommunikation der einzelnen Cores miteinander, da ist es schon fast egal, was die wirklich leisten, oder nicht?
 
So wie ich das sehe, geht es bei dem ganzen Projekt stark um die Kommunikation der einzelnen Cores miteinander ...
Sehe ich genauso. Nur dein Statement, dass man damit theoretisch 6 2P Nehalem Server ersetzen könnte, ist halt zu optimistisch.

Einfache Rechnung: nehmen wir mal Atom als Basis, der diesen Kernen wohl sehr ähnlich ist und grob 50% der IPC aktueller OoO Kerne wie Nehalem besitzt. Dazu kommen noch etwa 25% bei Nehalem durch SMT. Taktrate ist etwa halb so hoch beim Atom (1,6 vs 3,2 GHz). Und für 64-bit kannst du auch gerne noch 20% zusätzliche Performance hinzurechnen.

0,5 / 1,25 / 2 / 1,2 = 1/6

Dh, ein solcher Kern dieses 48 Kern Chips hat nur etwa 1/6 der Performance eines Nehalem Kerns. 48 / 6 ergibt 8. Eben so viele Kerne wie in einem 2P Nehalem Server.

Aber wie du schon sagst, die Anzahl der Kerne und die letztendliche Performance spielen hier wohl keine entscheidende Rolle. Es geht bei dem Projekt vor allem um die Vernetzung der einzelnen Kerne und die Softwareentwicklung dafür.
 
Zuletzt bearbeitet:
Sehe ich genauso. Nur dein Statement, dass man damit theoretisch 6 2P Nehalem Server ersetzen könnte, ist halt zu optimistisch.

Ja, das ist wohl so, aber das hab ich ja schon korrigiert, nachdem du darauf hingewiesen hast, welche Kerne da genutzt werden.
 
müsste ein 2p nehalem nicht am ende sogar noch schneller sein dank SMT?
schlielich dürften real die kerne nie voll ausgelastet sein
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh