Was meint Ihr! von heute ab an, in 10 Jahren? Cores?

Status
Für weitere Antworten geschlossen.

Loswochos09

Enthusiast
Thread Starter
Mitglied seit
13.04.2009
Beiträge
1.130
Hallo
ich komme noch aus Cpu Zeiten, da liefen Pcs mit 25 Mhz.
mein ersten Pc war ein 386 dx20.
Ich hätte mir vor 10 Jahren noch nicht vorstellen können, das es mal mehrere Kerne in der Cpu gibt.
Bevor die ersten Doppelcorer rauskammen,
habe ungefähr 2 Jahre vorher, in einen Bericht gelesen, in der Computerbild, das es dies irgentwann mal geben wird...runter mit der Mhz Zahl und rauf mit den Kernen. Das erschien mir damals sehr "abendteuerlich"...war soweit weg, wie die Technik von Raumschiff Enterprise...

Doch nun muss man erkennen, das Intel und Amd wohl schon mind. 2 Jahre im voraus, wissen, was da kommt....wo die Reise hingeht....erstaunlich....oder...

Man hat zu 486 Zeiten schon gesagt, das z.B Intel...mehrere Generationen von Cpus schon in der Schublade liegen hat, und immer diese nach und nach auf dem Markt bringt....warum auch immer?


Könnt Ihr mir heute sagen, wie die CPus in 10 Jahren aussehen werden?
Wieviel Kerne? Würde schätzen mehr als 30! oder?

Wird es einen Technologieeinbruch geben..also das Intel und AMD nicht mehr schnellere Sachen entwickeln können, weil es technisch nicht möglich ist?

Was wird kommen??
Wieviel Generationen hat Intel schon in der Schublade? Ist da was bekannt?


Gruß
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Kernanzahl zu erhöhen war ja schon mit größeren "Problemen" (wenn auch mehr theoretisch und aufgrund der allgemeinen Entwicklung [Zeitscheibenverfahren, etc.) verbunden, als man annehmen mag. Schließlich basieren PCs auf den von Neumann-Prinzipien. Eines davon sagt ja aus, dass immer alles schön der Reihe nach abgearbeitet werden muss.

Die Kernanzahl zu erhöhen ist nicht das Problem, sondern die Anpassung der Software. Der Zug geht jetzt zwar erst so richtig los. Ohne vorhandene Technik bringt es nix, Software dahingehend zu entwickeln. Deshalb sollte es nicht verwunderlich sein, wenn viele Technologien in den Prozessoren enthalten sind, die wir erst in ein bis zwei Jahren flächendeckend umgesetzt sehen werden.

Schneller geht immer, aber die Frage ist ja wie. Irgendwann ist Schluss mit Lithographie und andere Techniken müssen ran. Andere Ansätze zur Geschwindigkeitserhöhung verfolgt und vielleicht auch mal vom x86-Kompatibilitäts-Zug auf einen neuen Standard umgestiegen werden.

Ich denke eher, dass sich AMD und Intel noch weiter auseinander bewegen, was interne Vorgänge betrifft, als es bisher der Fall ist. Kurz nach der Übernahme von ATI kam man ja schon mit dem Spruch "Future is Fusion". Das Intel da etwas schneller auf dem Markt war, ist eine andere Geschichte, schließlich ist da mehr Etat vorhanden.

Aber genau hier wird wohl eher die Zukunft liegen, als stupide die Kernanzahl hoch zu treiben. Wie damals die Coprozessoren in die CPU integriert wurden, wird es früher oder Später eben die integrierte Grafikeinheit sein, die der CPU einen Großteil der Arbeit abnimmt. Die Grafikdarstellung sehe ich lediglich als Startfeature, welches sich im Bürorechner ganz praktisch macht. Die Stromeinparung durch Abschaltung der dedizierten Grafik ist ja derzeit ohnehin einzig dem Notebookmarkt vorbehalten.


Also zusammenfassend:
Ich sehe die CPU in 30 Jahren so: max. 12 Kerne, aber zusätzlicher APU.

Tante Edit: Ich beziehe mich auf Heimrechner und SOHO-Rechner. Supercomputer werden ja aber auch heute schon mit Grafikkarten aufgebaut. Und wenn man schaut, was alleine die Wetterberechnung an Leistung schluckt, sollte klar sein, dass Serverprozessoren leistungsstärker sein müssen)
 
Zuletzt bearbeitet:
Edit: Mir hats gut 2/3 meines Textes verhaun und war einfach weg -.- da ich nun zu faul bin alles nochmal zu schreiben (sorry) muss man eben ohne meine Meinung leben ;)
 
Zuletzt bearbeitet:
Da muss ich an des Interview eines Intelmitarbeiters vor 6-10 JAhren denken.
Da wurde er gefragt wie die Prozessoren in 10 Jahren ausschauen werden.
(damals gabs noch keine Dualcores glaub ich)
Er war davon überzeugt das wir uns im 2 Stelligen GHz Bereich befinden werden
und es keine Eingabegeräte wie wir sie Heut kenn geben wird. Es wird fast Alles
über Sprachsteuerung gemacht.
Unerwartete Hitzeprobleme ham des dann aber doch verhindert und sie ham
angefangen mehrere Kerne zu verbauen.

Genauso bei den ersten Chips die gefertigt wurden, wurde gedacht das es
Weltweit ne Hand voll geben wird. Jetzt hat ma in nem Handy mehrere davon.
In dem Teddybär steckt einer drinnen usw...

Sowas kann ma schlecht vorraus sagen, wird ne wilde Spekulation sein
und am Ende geht nächstes Jahr doch die Welt unter....
 
Zuletzt bearbeitet:
jo irgendwann werden erstmal tfts so dünn wie papier ,wenn weiterhin der Laptopmarkt so steigt werden aber die Desktop CPU etwas zurückgestellt denk ich.

Wären so meine Prognosen.
 
Gute Sprachsteuerprogramme gibt es ja bereits. Wenn man das Geld aufbringt und sich die Zeit nimmt, die Software an die eigene Aussprache "anzulernen", geht das recht passabel. Aber soviel Vertrauen hat der Mensch dann wohl doch nicht in die Technik, dass er sich darauf zu 100% einlässt. Man bedenke die Telefonnummerwahl im Handy per Sprachsteuerung. Wer nutzt es? Der derzeitige Nutzen liegt hauptsächlich in der Barrierefreiheit und dem KFZ-Bereich (wobei hier auch immernoch viel zu viele beim Fahren mit der Auge-Hand-Wahl vorlieb nehmen).

Papierdünne Folien mit zeitlicher Speicherung gab es doch irgendwie auch schon einmal. Fujitsu/Siemens oder so waren das doch mEn.
 
Zuletzt bearbeitet:
Gegen die Sprachsteuerung sag ich ja nix.
Nur nen Shooter mit Sprachsteuerung spielen?
In nem Grossraumbüro CAD zeichnen? Gut wenn er die einzelnen Stimmen unterscheiden
kann was bestimmt schon geht, machts Grossraumbüro nicht aber nur per Sprachsteuerung
zeichnen?

Die Handysprachsteuerung funktioniert mittlerweile echt super, auch wenn andere
Personen den Befehl geben.
 
Die Abkehr von x86 ist am wahrscheinlichsten.

Die Software gibt den Ton an:

Windows 8 wird ARM/SOC kompatibel.

Android/iOS/etc. beherrschen den Markt der immer wichtiger wird.(Tablets)

CUDA und OpenCL gewinnen an Bedeutung.

Aber ich glaube bei Produktionsgrößen von 8nm oder so ist Schluss...http://de.wikipedia.org/wiki/Mooresches_Gesetz
 
Zuletzt bearbeitet:
Abkehr von x86? ARM ist bisher im mobilen Bereich gut zu finden, aber ich sehe keine Tendenz einer Abkehr. Das einzige, was bisher für ARM spricht, ist die Einfachheit & Leistungsaufnahme. Da muss schon eine außergewöhnliche Entwicklung vonstatten gehen.
 
Zuletzt bearbeitet:
Aber ich glaube bei Produktionsgrößen von 8nm oder so ist Schluss...Mooresches Gesetz

Dann ist nicht Schluss, sondern der Anfang von Alternativen.
Momentan lohnt es sich einfach noch nicht sehr viel Geld (mehr als AMD Umsatz macht pro Jahr) in neue Technologien zu stecken. Deshalb geht das seit Jahren sehr schleppend voran.

Ich bin nur ziemlich sicher, dass in 10 Jahren optische Bauelemente in CPUs verbaut werden um die Performance deutlich zu steigern.
 
in 30 jahren kauf ich mir ein Quantencomputer:) ist ne lange zeit wer will das schon wissen, oder es gibt keine pc games mehr, oder cloud computing könnte alles pasieren.
 
Es muss doch kein Quantencomputer sein, das könnten genauso auch biologische Komponenten sein.

Hinter der Tür von AMD & Intel wird natürlich auch bereits geschaut & entwickelt.
 
warum in cores denken? ich glaube an neue architekturen bessere parallelisierung und viel mehr Zeuch
 
Ich schätze innerhalb von 10 Jahren wird sich gar nicht so viel ändern, was die Anzahl der Kerne betrifft. Der Mainstream wird Dual- und Quad-Core bleiben und für Freaks gibt es dann 16 Thread CPUs, die aber kein normaler Mensch braucht und die auch von so gut wie keiner Software, ausser den üblichen Verdächtigen, ausgenutzt werden.
 
Naja wenn ich von heute ca. 10 Jahre zurück denke... da habe ich mir nen Athlon 2000+ für Unsummen gekauft (war glaube ich aber 2002). In 10 Jahren wird es wohl noch ähnliche CPUs wie heute geben... nur halt extrem viel effizienter, schneller, mehr Cores etc. und natürlich schicke OLED Displays.
In 25-30 Jahre wirds bestimmt richtig spannend ... :fresse2:
 
Ich denke es könnte in 2 Richtungen gehen. Eine Sammelhülle, namens CPU mit einem FPGA die sich je nach nutzen fix umprogrammieren lässt(natürlich voll automatisch vom OS gesteuert). Brauche ich x86 kompatibilität, emuliere ich eben diesen. Brauche ich processing Power bleibt die fpga Struktur. Was diese verarbeiten kann ist wahnsinn, da alles parallel gemacht wird.
Die ander Möglichkeit wird auf jedenfall in die Optik gehen, wenn ich meinem Dozenten so glauben schenken darf, was der zeit alles so passiert in Sachen Optik/LWL (Studienrichtung LWL) dann wird da einiges kommen, und vorallem bezahlbarer.
Den nächsten dicken Schwungen werden wir in 2~3 Jahren erleben, wenn die neuen Konsolen erscheinen(oder wann auch immer sie erscheinen). Dann geht es seitens der Games wieder nach vorne. Und Spiele waren schon immer ein Antrieb der Computer/Multimedia Instruie neue, noch Leistungsstärkere Technologien zu erfinden.

MFG Jubeltrubel
 
seit gestern geistert ja das gerücht im netz rum, dass Microsft noch diesen monat den Xbox360 nachfolger enthüllt...dauert dann
bestimmt noch 1-1 1/2 jahre bis die dann aufn markt kommt, aber in sachen gaming technik/optik ein silberstreif am horizont!

angeblich ist das ding dann 90% intel...intel quadcore, intel grafik *speku an* eventuell in der cpu intregiert oder gar richtung
labree konzept!? *speku aus*, 4gb speicher und 750gb HDD...

vorallem 4gb speicher in ner konsolen umgebung könnten richtig was bewegen! um das gleiche auf nem windows PC zu erreichen
dürftens dann bestimmt gern 8-16gb sein!

@topic

ich denke mal das es in absehbarer zukunft im mainstream segment nicht mehr als 8cores/16threads geben wird! vorher müsste
ein riesen schritt bei der software gemacht werden! großartige GHZ steigerungen wirds mMn auch nicht mehr geben,
vielleicht richtung 5-6ghz, aber mehr auf keinen fall! eher wird im laufe der nächsten jahre ein ganz neues system eingeführt,
spätestens wenn die kleinste produzierbare größe erreicht wird muss was neues her!

schätze mal ganz stark, dass vorallem intel da schon irgendwas im petto hat!
 
Zuletzt bearbeitet:
Dein RAM taktet ja schon in der Zukunft... Sig ;)

Tja, wer weiß was kommen wird, schneller und effizienter wirds schon sein. Wichtig wird die Reduzierung der Energierverschwendung sein, ob man das aber weiterhin nur so halbherzig umsetzt? Hauptsache die Benchmarks stimmen und die Leute surfen dann mit 16 Cores im Internet. Gespannt bin ich aber doch. Etwas...
 
Denken kann man viel aber wenn man sich nicht in der Thematik auskennt bzw. CPU´s entwickelt, kommen nur komische Gedankengänge bei raus die zu 98% nie zugetroffen haben, daher bringt spekulieren nichts, eher das Abwarten bringt was :)
 
in 10 Jahren ? Da hat doch jeder nur noch Tastatur und Monitor - Hardware Ade´wir leben in der Cloud :d

und in zwanzig Jahren clipst man sich nur noch nen Stöpsel in den Kopf - falls es die Erde bis dahin noch gibt ;)
 
in 20zig jahren würd ich als mir als pionier gern irgendwas einpflanzen lassen! neurale schnitstellen im rückenmark und sowas!
mit 55 is das leben eh 3/4 vorbei, da spende ich meinen körper gerne der game industrie!
 
Optische Rechner, evtl biologische Rechner, wenns gut läuft Quantenrechner... das wird sicher sehr geil. Wenn man überlegt was in den letzten 10 Jahren so alles passiert ist... dann gibts sicher nur noch Schreibtische mit eingebauten Touchscreens und Gesten-erkennende Bildschirme sind dann sicher schon wieder total oldschool. Und GTX 580 wird die schlechteste 50€-Karte auf dem Markt sein^^

Ich hätte dann gerne eine Brille mit Echtzeit-HUD, so ein cooles Touchscreenarmband wo man alles mit machen kann und mein Macbook Air soll bitte so flach sein wie ein paar Blatt Papier und trotzdem noch stabiler. Kann man sich irgendwie alles kaum vorstellen... aber wie bei Gameone, geht man zu den Commodore-64-Anfängen und haltet denen ein Ipad ins Gesicht, hätte man wohl auch nicht für möglich gehalten. Wahrscheinlich können wir uns das was wir uns heute noch garnicht alles vorstellen was mal kommen mag...
 
Bzgl. der Probleme bei der Parallelisierbarkeit von Code:

War es nicht so, dass in der Quanteninformatik Ergebnisse VOR der Berechnung da sein können? Könnte man das nicht nutzen, um eigentlich nicht parallelisierbare Threads doch auseinanderzupflücken:

A+B=C
C*D=E
E+A=F

C und E wüsste man schon vorher, kann also alle drei Berechnungen parallel ablaufen lassen - oder zumindest zwei davon.
 
Na mal wieder viel geschwafel hier im Forum ohne Grund oder Hitnergrundwissen :hail:

wenn du mal nachliesst kommt in bald die 22nm gen raus

die kerne leben mit silizium wir aus kohlenstoff hmm
silizium atome sind nicht grundlegend kleinermachbar wie man will da sie unter ca. 10nm instabil werden...

intel macht alle jahre tiktok würde heissen
22nm 16nm 12nm evtl noch ein mehr?

1jahr 3jahr 5jahr evtl noch 7 jahr?

dann ists ende
man kann mit ca 2,5 multiplizieren *transistoren* und 100 kerne sind in aussicht als maximum des theoretischen möglichen derzeit

transistoren in 32nm ca. 1,25mrd bei 130Watt evtl 4 mal multiplizierbar mit 2,5

macht bei highend cpu im tiktok in 8 jahren das silizium maximum mit 50mrd transistoren und ca. 100 kernen

hier wird bei einem durch die neuen architekturen verbesserten wirkungsleistungen eine grenze durch die verlustleistung gesetzt.

130watt
derzeit ca. 65% wirkungsgrad in 32nm bei 6 core oder 8?? 100gflops intel i7
bester 6core von amd nur knapp über 50gflops -.- halt schlechterer wirkungsgrad...

kann man also von max theoretisch ca. 6000gflops ausgehen bzw 6tflops bei x86 cpus

hier wäre natürlich durch architekturen bis dahin noch etwas spielraum...

ein pentium 4 mit 3,8ghz hat dagegen nur 7,6gflops und ein atom 330 6,4gflops

weiterhin wird falls es keine neue technologie durch z.b. dotierung oder gar kohlenstoffnannorörchen oder ein jüngeres element als silizium für prozessoren verwendung findet, da silizium nicht weiter geshrinkt werden kann und man sich ja die 130W grenze gesetzt hat,

wird man sich an der restlichen hardware die optimierungen rauspicken die noch zum teil *veraltet* sind z.b. hdd ssd...

mfg
 
Interesanter Thread :)

Generell kann ich jedem, der sich für die (bzw eine mögliche) nähere Zukunft interessiert nur Charles Stross ans Herz legen, zum Thema passend am besten "Accelerando" und "Halting State".

Zum Thema:
Ich denke das wir in 10 Jahren gerade am Übergang zwischen Silizium-basierten Chips und Chips aus neuen Werkstoffen (Graphenen, ev irgendwas organischem) sein werden.
Das was wir jetzt als Cores im Sinn eines in sich abgegrenzen Prozessors haben wird sich in Richtung der heutigen GPU-Architektur (je nach Einsatzzweck programmierbare Shader) gepaart mit hochspezialisierten "Modulen" für zb Video-Decoding, entwickeln. Die Anfänge sieht man denke ich ja schon in den SandyBridge- und der Bulldozer-Architektur.

Optische Laufwerke wird es keine mehr geben, wenn wir ehrlich sind braucht die auch heute schon keiner mehr.

Speicherplatz verteilt sich auf ein paar hundert GB im Gerät selbst (bei den Strukturen in 10 Jahren mit ein paar Speicherchips zu realisieren), der Rest liegt in der Cloud oder so.

Die Geräte selbst werden deutlich kleiner: Unterwegs hat man sein Smartphone, zuhause steckt man das Ding in einer Dockling-Station an der ein größerer Monitor, Maus & Tastatur hängen.
Dazu kommt ein starker Einsatz von Augmented Reality, zb durch Brillen mit integrierter Kamera & Displays in den Gläsern.

Das warn mal ein paar Gedanken von mir, wie jeder andere hier liege ich damit wohl völlig falsch. Denkt 10 Jahre zurück, hättet ihr auch auch nur ansatzweise vorstellen können, welche Rechenleistung/Grafik/Speicherplatz/Bandbreite/Displaygrößen wir 2011 zur Verfügung haben? Oder die ganze Frage verpackt in einem Wort: Smartphones? :fresse:

mfg
Hadan
 
Optische Laufwerke wird es keine mehr geben, wenn wir ehrlich sind braucht die auch heute schon keiner mehr.
ach ja... ich hatte gerade eben die Metro2033 DVD im LW und erst gestern eine Foto-DVD gebrannt. Zugegeben, man braucht die nicht mehr so oft wie früher, aber wie zB. willst Du Deine Blu Rays abspielen?
 
ach ja... ich hatte gerade eben die Metro2033 DVD im LW und erst gestern eine Foto-DVD gebrannt. Zugegeben, man braucht die nicht mehr so oft wie früher, aber wie zB. willst Du Deine Blu Rays abspielen?
Klar gibts noch Anwendungsbereiche für optische Medien, aber man kommt auch ohne aus:
Die meisten Spiele kann ich mir direkt aus dem Internet kaufen/laden.
Anstatt BD kann man Filme streamen (bei uns noch nicht so weit verbreitet wie in US, aber doch möglich).
Größere Datenmengen kann man auf DVD brennen oder auf nen Stick kopieren, die meisten Fernseher können auch damit umgehen.

Einigen wir uns darauf das die BD wohl kein Nachfolgeformat mehr bekommen wird.

mfg
Hadan
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh