Die Zukunft der Prozessoren

FischOderAal

Keksjunkie
Thread Starter
Mitglied seit
29.12.2004
Beiträge
16.977
In diesem Thread soll über weit entfernte CPUs und neue Technologien aller Hersteller diskutiert werden.

Den Anfang hierbei macht StevensDE.
Hi Leute,

Intel hat nun einen Prototypen hergestellt, der 80 Kerne besitzt und erstaunlicherweise weniger Watt als ein aktueller Quadcore verbraucht.

Diese CPU kann mehr als eine Milliarde Gleitkomma-Operationen pro Sekunde ausführen.

Weitere Informationen gibt es hier:

http://www.heise.de/newsticker/meldung/85119

Wenn man das so liest, kann man sich ja schonmal auf die Zukunft freuen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Teraflops sind allerdings Billionen (10^12) Gleitkomma-Operationen pro Sekunde und da ist schon ganz ordentlich.

Allerdings Labormuster, keine Serienproduktion geplant und sowieso keine Intel (x86,x64)-Architektur - also erstmal nur von theoretischer Bedeutung.

Interressant finde ich die Schlaftransistoren. :lol:
 
Der entscheidende Satz ist folgender:

Heise.de schrieb:
Die Kerne sind im Vergleich zu Intels Serienprodukten sehr vereinfacht.

Die Frage ist also, welche Anwendungen auf diesem Prozessor laufen, denn rein von der Leistung her ist er mit 1,0-1,81 Teraflops nicht sooo unendlich weit von heutigen Stream-Prozessoren wie dem AMD R580 (0,375 Teraflops, 0,75 als Zweier-Verbund) entfernt (wer den AMD R580 Stream-Prozessor nicht kennt: Er wird nebenbei auch als ATI Radeon X1900/X1950 verkauft). Aber das ist auch nur was für spezialisierte Anwendungen, kein General Purpose.

Insofern läßt sich das nicht eins-zu-eins auf heutige CPUs übertragen. Was aber Fakt ist: CPUs werden nicht nur mehr, sondern auch spezialisiertere Kerne bekommen (ATI Fusion, IBM Cell etc.), und Intels Forschung zeigt eine mögliche Umsetzung dieses Ansatzes.
 
Zuletzt bearbeitet:
Interressant finde ich die Schlaftransistoren. :lol:

naja die deutsche übesetzung is da mal fürn arsch :rolleyes: (dynamic sleep transistor)

aber diese dienen dazu die verlustleistung auf einem niedrigen niveau zuhalten

heise.de schrieb:
Die Leistung von 1 Teraflop wird laut Intel bei einem Takt von 3,16 GHz und 0,95 V Spannung erreicht. Dabei soll der Chip gerade einmal 62 Watt verbrauchen. Im Höchsttempo bei 5,8 GHz und 1,3 V bewältigt der Prototyp 1,81 Teraflops – er frisst dann allerdings 265 Watt Energie

das is wirklich böse :-[
 
Zuletzt bearbeitet:
Ist wirklich ein interessante Technologie. Aber mit einer "echten" 80-Core-CPU hat das nichts zu tun. In Zukunft könnte daraus mal was werden. Jetzt muss so einer nur noch in x86 her damit wir überhaupt damit was anfangen können.
BTW: Ist schon ziemlich alt.
 
Ich glaube nicht, dass der in irgendeiner Sache interessant werden wird, da er sicher nur zu Forschungszwecken hergestellt worden ist. Wenn sie wirklich vorhaben das Ding in der x86-64-Version irgendwann auf den Markt zu bringen, da glaube ich, dass sie in den Wahnsinn, wie zu den Gigahertz-Zeiten verfallen.
 
Zuletzt bearbeitet:
Toll und?
Das Ding ist eine einzige FPU mit einem Memorycontroller und Cache in jedem Core.
Das Ding ist sozusagen kaum auslastbar.
Ein Core hat etwa 1,15 Millionen Transistoren, darunter 2 FPUs.
Jede FPU leistet etwa 2 Flops.
Das Ding hat zu wenig Cache.

Naja erinnert mich irgendwie an den Cell.

mfg Nakai
 
schön dass es nun einige auch merken^^
in der dezember ausgabe von chip wurde die 80 kern cpu auch schon vorgestellt, da hat heise aber verdammt lange gebraucht ;)
 
Ich will aber erst die 10 Ghz-cpu mit Netburst Architektur :fresse:
 
die grafikkarte direkt mit auf der die, das wäre mal was schickes!
wenn schon die kerne spezialisiert weden sollen, dann doch gleich so :drool:
 
die grafikkarte direkt mit auf der die, das wäre mal was schickes!
wenn schon die kerne spezialisiert weden sollen, dann doch gleich so :drool:

Ganz im Gegenteil, ich finde das zusammenführen von Grafikkarte und CPU totalen Mist, ...

Eines der Kirterien was mich dazu treibt, ist das man dann nicht mehr beides Seperat wechseln kann, und nur noch beides zusammen, ...!
Klar wäre kleiner, ggf. schneller weil direkt auf einem Chip usw.

Nur wird man somit extrem eingeschränkt!
Somit wird die CPU zunehmend zum alleskönner, alle weiteren Chips können entfallen weil alles die CPU macht!

Wenn das so weiter geht, besteht der Rechner irgendwann nur noch aus nem Board mit paar Anschlüssen und in der mitte ne Dicke Fette CPU die alles kann!
Das Teil wird dann als PC bezeichnet

will man was schnelleres kauft man komplett neu!
 
Aber ich glaub so wird es nicht kommen, dass die GPU auf den CPU Chip kommt.

Mal als Beispiel: Schaut euch hier mal um wieviele Leute in diesem Forum einen AMD x2 4800+ Prozessor haben.
Diese CPU hat noch genug Power für die nächsten 1-2 Jahre. Stellt euch mal vor auf der CPU wäre z.b. eine Grafikchip mit der Leistung einer X850XT drauf.

Dann wäre der schöne AMD Prozessor nutzlos für zocker.

Wenn Grafikkarte & CPU Einheit getrennt ist bringt mit das nur Vorteile. So kann man sich für seinen teuren 4800+ ne 8800 GTX holen und hat wieder richtig Power ohne sich extra ein neues System holen zu müssen.

Von daher halte ich es nahezu für unmöglich, dass GPU & CPU vereint werden.
 
Interessant wäre es für Notebooks ;)

In dem Bereich auf jeden Fall. Denn so hat man wahrscheinlich eine deutlich höhere Leistung als mit einer onboard Graka.

Wobei sich da wieder die Frage stellt, ob es sich lohnt. Ich habn Latitude D810 von Dell mit ner Mobility X600 aber habe das Teil ehrlich gesagt noch nie richtig zum zocken genommen.
Aber es gibt sicherlich auch Architekten, Grafik Freaks usw. denen so eine Lösung evtl. entgegen kommen würde. Es gibt ja sogar Leute die mit Notebooks richtig Games zocken. Kenne da auchn paar aber für mich wärs nix.

Ein Laptop ist für mich mehr oder weniger nur zum Arbeiten da.

Im Prinzip ist GPU/CPU ja auch noch Zukunftsmusik. In den nächsten 2 Jahren wird sicher nichts in der Richtung kommen.
Diese Geschichte wird denke ich vielleicht auch bei Spiele Konsolen a lá Xbox, Playstation usw. interessant sein.

Aber für High End Desktop PC`s & Workstation wirds wohl eher nicht gedacht sein.
 
Neja Notebooks schon, aber derzeit geht ja der Trend eher dahin, das es 1 Notebookmodell mit diversen Ausstattungen gibt, als mit dem und dem CPU Type, dazu der und der Graka ggf. auch Onboard/billig Graka, usw.

Wenn die es kombinieren würde das auch wegfallen!
Des weiteren wird wohl dann NV etwas außen vor gelassen, ...

Weil Intel könnte seine eigene Technik verbauen, AMD könnte bzw. will seine ATI Techniken anwenden!
Was macht NV?
NV als CPU hersteller mit integrierter Graka? das fällt wohl aus, dafür haben die wohl zu wenig Erfahrung
 
Wie AMD schon in nem Interview mal sagte, wäre ne Kobination aus CPU & GPU ja auch für Office-PCs und Notbooks gedacht, nicht für den HighEnd Markt.
 
Und im normalen Desktop-Markt wollen se alles so lassen wies ist, oder wie?
kann ich mir nicht vorstellen, ...
 
Das hab ich ja nicht gesagt, AMD meinte nur (leider weiß ich die Quelle nicht mehr), daß es auch in Zukunft weiterhin separate GPU-Lösungen für den HighEnd-Gamer geben wird.
 
irgendwo laß ich was von vorerst nur im Notebookbereich!

das lässt darauf schließen das es irgendwann auch im Desktopbereich kommen wird, ...

Wie es genau weiter geht weis natürlich keiner, was aber Fakt ist es muss sich was tun, denn die Leistungs kann nicht ins Unendliche getrieben werden, und das sture vermehren der Rechnenkerne bringt auch nicht wirklich was, da (auch in zukunft) die meisten Anwendungen nur SingleCore basiert sein werden, ...
 
Der entscheidende Satz ist folgender:



Die Frage ist also, welche Anwendungen auf diesem Prozessor laufen, denn rein von der Leistung her ist er mit 1,0-1,81 Teraflops nicht sooo unendlich weit von heutigen Stream-Prozessoren wie dem AMD R580 (0,375 Teraflops, 0,75 als Zweier-Verbund) entfernt (wer den AMD R580 Stream-Prozessor nicht kennt: Er wird nebenbei auch als ATI Radeon X1900/X1950 verkauft). Aber das ist auch nur was für spezialisierte Anwendungen, kein General Purpose.

Für die ATI GPU gibts auch Anwendnungen "außerhalb des Labors".
Das Folding Projekt auf ATI GPU (Auf Nvidia nicht umsetzbar) :shot:
http://folding.stanford.edu/FAQ-ATI.html
Die GPU rechnet 20-30x schneller als die schnellste CPU.

Der normale Mainstream Markt sind nunmal Firmen und HomePCs, nicht die paar-prozentige Randgruppe der Gamer&Aufrüster... Die GPU in der CPU kommt gewiss und irgendwann wirds Standard werden. Es wird dann zu teuer sein für die mickrige Gruppe der Gamer die GPU aus dem Die wegzulassen, bzw es werden spezielle teurere Modelle sein wie "Extreme Edition" oä. Und selbst mit VGA in der CPU wird man diese künftig disablen können und im PCIe 3.0 Slot seine OctaCore Graka mit DDR5 nutzen können :drool:
 
irgendwo laß ich was von vorerst nur im Notebookbereich!

das lässt darauf schließen das es irgendwann auch im Desktopbereich kommen wird, ...

Wie es genau weiter geht weis natürlich keiner, was aber Fakt ist es muss sich was tun, denn die Leistungs kann nicht ins Unendliche getrieben werden, und das sture vermehren der Rechnenkerne bringt auch nicht wirklich was, da (auch in zukunft) die meisten Anwendungen nur SingleCore basiert sein werden, ...


Da hast du natürlich vollkommen Recht.

Deswegen kommen irgendwann die Quantenprozessoren mit denen sich das Blatt vollkommen drehen wird.

Damit wird man enorme Leistungssprünge machen können. Pauschal würde ich mal sagen, dass ein Quantenprozessor theoretisch locker 5000% schneller als ein QX6700 ist.

Allerdings ist man da noch weit in der Forschung und wann in der Richtung mal etwas entwickelt wird steht auf einem anderen Blatt.
 
Da hast du natürlich vollkommen Recht.

Deswegen kommen irgendwann die Quantenprozessoren mit denen sich das Blatt vollkommen drehen wird.

Damit wird man enorme Leistungssprünge machen können. Pauschal würde ich mal sagen, dass ein Quantenprozessor theoretisch locker 5000% schneller als ein QX6700 ist.

Allerdings ist man da noch weit in der Forschung und wann in der Richtung mal etwas entwickelt wird steht auf einem anderen Blatt.

Update dazu: http://www.heise.de/newsticker/meldung/85299
Die erste QuantenCPU ist seit gestern da :drool:
 
hast du da irgendwelche Infos bzw. Links im Netz?
würde mich mal interessieren, ...

5000% Prozent kann ich mir aber nicht vorstellen, überleg doch mal wie groß die Leistungssteigerung vom CPUs von vor 10Jahren ist im Gegensatz zu heute!

Da kommen keine 5000% zusammen!
 
Zuletzt bearbeitet:
So mickrig ist die Randgruppe der Gamer und Benchmarkfetischisten garnicht,wenn du die zweite Gruppe der Konsolenuser mit dazurechnest. Deren Einsatzgebiet bedarf nämlich ebenfalls einer ordentlichen Grafikleistung....
Es ist ausserdem viel einfacher spezialisierte DIEs für den jeweiligen Einsatzbereich zu benutzen um mehr Leistung entfalten zu können,bei geringerem Aufwand,als einen der alles können soll. Die ALL-in-One CPUs werden sicher trotzdem kommen,ihr Einsatzgebiet wird sich aber wirklich nur auf den normalen Mainstreambereich der Billigrechner beziehen... Firmen die mit CAD und ähnlichem arbeiten werden da auch lieber extra Karten nutzen (müssen),wenn auch eher sowas wie ne Quaddro oder FireGL.
 
Ich hab mir da gerade mal den Wiki Artikel zu QuantenComputern reingezogen!
Also so nen größen Geschwindigkeitsvorteil wird das wohl nicht bringen, weil:

Zum Beispiel kann ein Quantencomputer in 8 Qubits grundsätzlich alle 2^8 = 256 Werte gleichzeitig (in Superposition) speichern, und nicht nur einen wie im klassischen Fall. Wenn er nun auf diesen Qubits Rechenoperationen ausführt, werden alle Werte gleichzeitig verarbeitet, und er ist genauso schnell, als wäre nur ein einzelner Wert gespeichert. Mit (8-Qubit-)Quantencomputern ist es also prinzipiell möglich, die Werte einer Funktion an 256 Stellen gleichzeitig ohne Geschwindigkeitsverlust zu berechnen. Somit wäre ein Quantencomputer exponentiell schneller als ein klassischer Computer. Das Problem besteht nur darin, dass es nicht möglich ist, alle 256 Rechenergebnisse aus den Qubits auszulesen. Aus quantenmechanischen Gründen kann man nur das Endergebnis der Rechnung für einen zufällig gewählten Eingabewert erhalten. Das heißt, die anderen 255 Berechnungen werden einfach „vergessen“, womit ein Quantencomputer dann wieder doch nicht schneller als ein klassischer Computer wäre.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh