Takt vs. Core?

Hardwarekenner

Legende
Thread Starter
Mitglied seit
06.01.2005
Beiträge
21.785
Ort
in der schönsten Stadt der welt.
was denkt ihr, wird es in der Taktschraube immer weiter gehen, oder wird sich in zukunft durchsetzen das es weniger Takt auf dafür viele Cores geben wird?

etwa:

5Ghz x8 +HT (16T) oder 2Ghz x16 +HT (32T)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke beim Takt werden sie bald in eine Wand fahren bzw. sieht man schon gut, dass es nur noch schwer schneller geht. Leider skaliert halt nicht alles mit mehr Kernen, d.h. "einfach Parallelisieren" und 100 Kerne draufpacken spielts halt auch nicht.
Silizium ist jetzt bald am Ende angelangt, siehe 7nm etc. dünner gehts halt einfach nimmer, da muss dann irgendwann mal was ganz anderes her.
 
mit blick auf die entwicklung der gpu würde ich sagen, immer mehr recheneinheiten hat zukunft (teilweise "wildern" aktuell gpus in cpu-aufgabengebieten durch ihre tausende shader parallelleistung), dabei wird man aber auch weiterhin versuchen die taktleistung und ipc zu steigern, nur ist da halt nicht mehr so viel luft wie bei der threadzahl.

allerdings wird das imho noch n paar jahre dauern, bis threadripper und co zum standard werden. hex und octa mit ht werden vermutlich die nächsten 2-3 jahre standard sein.
 
Zuletzt bearbeitet:
ich denke das es nicht so lange dauern wird, da gerade jetzt durch die Zen Cores die Software schneller auf viel Treads ausgelegt werden wird, als "nimm was da ist" wird die software dann nutzen, und viele Cores scalieren dann eben vor wenigen mit viel Takt, was dank der künstlichen Bremse von Intel noch immer so ist.
Intel hat sich zu lange ausgeruht, oder eher den Markt blockiert mangels konkuränz, das wird sich für Intel noch rächen (ich bin ein i7 besitzer!!)
 
naja insbesondere im spielebereich sind längst noch nicht alle spieleengines auf multicore ausgelegt. die entwicklung der engines und anschließend der spiele nehmen ja auch noch n weilchen in anspruch. frostbyte ist zwar schon so weit und auf der basis sind auch einige titel in arbeit, aber es gibt ja noch andere engines...
 
Man sieht ja aktuell an den Taktsprüngen (oder Sprüngchen) bei Intel schon, wie sehr die am TDP Limit sind. Man hatte damals(tm) ja schon sehr optimistisch die 8ghz mit dem Pentium 4 angepeilt, geklappt hats aber nicht. DAs Problem ist ganz einfach, das die Verluste exponentiell mit dem Takt steigen - es ist also im Hinblick auf die Effizienz absolut nicht sinnvoll den Takt immer weiter zu erhöhen.

Für mich geht der Trend genau den Mittelweg:
So viele Kerne wie nötig bei so hohem Takt wie möglich. Wobei immer ein Auge auf der Effizenz (TDP/Verbrauch) liegt. Außerdem wird z.B. der Singlecore Turbo bei Intel immer weiter hochgeschraubt, um den niedrigen Gesamttakt auszugleichen. Für mich ein guter Kompromiss.
 
was denkt ihr, wird es in der Taktschraube immer weiter gehen, oder wird sich in zukunft durchsetzen das es weniger Takt auf dafür viele Cores geben wird?
Schon vor über zehn Jahren hat sich gezeigt, dass ein Takt über 5GHz nicht sinnvoll ist. Die schnellste in Serie gebaute CPU war IBMs POWER6, und der erreicht 2006 schon die 5GHz im Serienprodukt und 6GHz im Labor. Seitdem wird konsequent an der Parallelisierung gearbeitet.

P.S. Intel bremst dabei überhaupt nicht, und ist bei der Erhöhung der Corezahl deutlich vor AMD. AMD kann nur 8 Cores auf einem Die unterbingen, Intel schafft zurzeit 28. IBMs POWER9 (kommt in der zweiten Jahreshälfte) wird 12 oder 24 Cores auf einem Die haben. Die AMD MCMs (Threadripper und Epyc) nutzen mehrere Dies zu je max. 8 Cores. Beim POWER8 gibt es von IBM nur noch DCMs, d.h. analog zu Threadripper zwei POWER8 Dies in einem Gehäuse. Der SPARC XIfx hat 32Cores, der ARM Cavium ThunderX Prozessor 48 Cores, Oracle SPARC M7 hat 32 Cores, …
 
Bei AMD wird die Entscheidung zugunsten des 8Core Dies wohl eher eine wirtschaftliche als eine technische gewesen sein. Es ist schlicht günstiger einen Die mehrfach zu verwenden. AMD hat nicht ohne Grund InfinityFabric entwickelt um das Skalieren mit mehreren Dies möglichst günstig zu halten.

Ich gehe davon aus das AMD ebenfalls riesige Dies herstellen könnte, sodenn sie wollten ;)
 
Sinnvoll ist ein Takt über 5GHz schon, nur erreicht man den nicht wirklich. Schneller ist _immer_ besser. Keiner wird absichtlich den Takt drosseln. Wie schon gesagt, es gibt genug Tasks die man nicht parallelisieren kann, dann nutzen 10000 Cores nichts.
 
Fast Nichts von wirklichem Interesse lässt sich nicht parallelisieren, manchmal ist das halt mit viel Aufwand (und Hintergrundwissen) verbunden, den Spielentwickler nicht bereit sind zu finanzieren, wenns auch ohne "läuft". Spieler und ihre Anforderungen an einen PC sind eben nur ein Hobby.
 
allerdings wird das imho noch n paar jahre dauern, bis threadripper und co zum standard werden. hex und octa mit ht werden vermutlich die nächsten 2-3 jahre standard sein.

2-3Jahre?? Die nächsten 10Jahre werden 6-8Core der Mainstream sein. Intel geht ja jetzt grade mal langsam zu 6Core. Ich gehe nicht davon aus, dass es jemals 16Core für die Mainstreamplattform geben wird (edit: vllt doch bei AMD :) ) . Bis es soweit kommt, wird die Technologie abgelöst werden.
Es werde schon viele alternativen erforscht, auch mit der Verknüpfung unserer Technologie, z.b. die Magnonik
 
Zuletzt bearbeitet:
Schneller ist _immer_ besser. Keiner wird absichtlich den Takt drosseln.
IBM hat den Takt gedrosselt, weil die Verlustleistung bei hohem Takt komplett aus dem Ruder läuft. Und wir reden hier über Systeme bei denen hohe Leistungsaufnahme normalerweise keinerlei Problem darstellt, wenn es entsprechenden Output dafür gibt. Enterprise Software ist üblicherweise schon parallelisiert, und deshalb ist das in diesem Bereich nicht so das Problem, wenn die Taktrate nicht so hoch ist. Für die Spezialfälle, bei denen man nur über Singlethread weiterkommt, überlegt man sich da andere Lösungsansätze z.B. über FPGA. Intel will übrigens ebenfalls diesen Weg einschlagen und in Xeons FPGAs integrieren.
 
Sag ich ja, das Problem ist nicht "hoher Takt ist schlechter als viele Kerne", das Problem ist "hohe Takte sind schwer zu erreichen" aber eben auch, dass man das nicht einfach durch "dann packen wir halt doppelt so viele Kerne drauf" in den Griff bekommt.

Und du hast absolut recht, FPGAs sind deutlich schneller für bestimmte Sachen.
Bin ja gespannt ob neue Materialien noch etwas reissen. Zumindest in meiner Lebensspanne. ;D
 
2-3Jahre?? Die nächsten 10Jahre werden 6-8Core der Mainstream sein. Intel geht ja jetzt grade mal langsam zu 6Core. Ich gehe nicht davon aus, dass es jemals 16Core für die Mainstreamplattform geben wird (edit: vllt doch bei AMD :) ) . Bis es soweit kommt, wird die Technologie abgelöst werden.
Es werde schon viele alternativen erforscht, auch mit der Verknüpfung unserer Technologie, z.b. die Magnonik

änliches habe ich gelesen als der erste Dual Core rausgekommen ist und auch beim Quad damals!!
 
Ja dann denk dochmal schwer nach wie lange es vom Dual zum Quad mit HT gebraucht hat und wie lange die sich im Markt gehalten haben und dann vermute mal wann 16 Kerner Mainstream sind die aktuell jenseits der 1.000€ kosten .... meine Fresse ey ... willst du ne Prognose was in 20 Jahren ist? Autos fliegen!
 
änliches habe ich gelesen als der erste Dual Core rausgekommen ist und auch beim Quad damals!!

Was ist denn ähnliches? Mir ist nicht bekannt, dass vor 15Jahren schon viele alternativen für den Mainstream Zielgerichtet erforscht wurden. Die Idee von irgendwelchen Quantencomputern mal ganz außen vor gelassen. Sehr fragwürdig, ob wir sowas jemals zuhause im Wohnzimmer stehen haben, eher in der Cloud....
Und diese Entwicklung nimmt fahrt auf, ein ganz kleines Beispiel ist Intels 3dXpoint. Eine komplett neue Speichertechnologie aus dem Boden gestampft.

Meine ganz eigene Glaskugel sagt mir, dass wir in 25Jahren keine Computer mehr wie heute oder in der Vergangenheit bauen.....
Ein ganz großer Meilenstein für die Menschheit werden auch KIs mit Neuronalen Netzen sein, welche sich grade Durchsetzen. Nvidia Volta wurde extra für diesen Zweck entworfen, also keine Zukunftsmusik mehr.
Schau dir mal diesen Artikel dazu an. Neuronale Netze in der Spieleentwicklung.
Nvidia: Machine Learning für bessere Spielgrafik und schnelleres Raytracing
Und diese Technologie lässt sich mittlerweile auch in unsere Computer stecken. Die nächsten Jahre werden also sehr spannend. Ich glaube auch, dass sich desshalb der Beschleuniger Bereich(Grafik, Physik,Ki) viel schneller entwickeln wird, wie der CPU sektor, so wie es eigentlich schon immer war.
 
Zuletzt bearbeitet:
Denke auch, das es ein Mittelweg wird. Overclocking wird dann aber auch so langsam aussterben, man rennt ja eh gegen die Watt/Temperaturmauer mit Leichtigkeit bei den ganzen Cores. Sinnvolle Turbos werden hier am Wichtigsten, ggf. neue Befehlssätze wie MMX/AVX werden dann vermutlich mehr bringen, also den Takt immer weiter zu erhöhen. Vielleicht ja auch mal ein Hyperthreading 3.0, der dann 2 virtuelle Cores hin bekommt. ;-)
 
Overclocking wird so lange nicht aussterben wie die Hersteller diese Möglichkeit einräumen bzw. nicht wirksam unterbinden.

Es wird immer Leute geben, die einen Leistungszugewinn durch geeignete Maßnahmen zu erzielen wissen.
 
Die Richtung wird auf mehr Cores gehen.
Beim Takt hat man eine physikalische Grenze.
Das zeigt auch ein Blick auf sog. Supercomputer.
Die haben alle extrem viele CPUs/Kerne und selten einen hohen Takt.
Beispielsweise der derzeit zweitschnellste Supercomputer der Welt.
Tianhe-2, steht in China:
32.000 Intel Xeon E5-2692 CPUs (Ivy Bridge, 12 Kerne, 2,2 GHz) + 48.000 Intel Xeon Phi 31S1P Co-Prozessoren (57 Kerne, 1,1 GHz), 1,4 PB RAM
Also 384.000 Xeon E5 Cores + 2.736.000 Xeon Phi Cores.

Selbst mein Tablet hat schon 4 Cores.
 
Ja dann denk dochmal schwer nach wie lange es vom Dual zum Quad mit HT gebraucht hat und wie lange die sich im Markt gehalten haben und dann vermute mal wann 16 Kerner Mainstream sind die aktuell jenseits der 1.000€ kosten .... meine Fresse ey ... willst du ne Prognose was in 20 Jahren ist? Autos fliegen!

nochmal dein satz: "Ich gehe nicht davon aus, dass es jemals 16Core für die Mainstreamplattform geben wird "

damit hast du es für immer ausgeschlossen!

zudem wurde mir schon in den 70ern versprochen das im jahr 2000 die Autos fliegen, ich habe in meinen 50 jahren schon mehr aussagen die sich nicht bewarheitet haben und ander die zutreffend waren aber keiner es gedacht hätte erlebt!

"der Taschenrechner wird sich nie durchsetzen" oder „Mehr als 640 Kilobyte Speicher braucht kein Mensch“
oder „Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten - allein schon aus Mangel an verfügbaren Chauffeuren.“ > Gottlieb Wilhelm Daimler
 
Overclocking wird so lange nicht aussterben wie die Hersteller diese Möglichkeit einräumen bzw. nicht wirksam unterbinden.

Ok, aussterben war zuviel des Guten, aber es lohnt dann kaum noch, wenn die Prozessoren eh am Limit hängen. Coffee Lake Turbo bei 4.7 Ghz sind schon recht hoch, glaube kaum, das da 4.9 Ghz Allcore gehen, geschweige 5 Ghz. die Threadripper Turbos von 4.1 Ghz sind auch am Limit. Es wird also nicht aussterben, aber bestimmt weniger werden, wenn man eh nur noch 100-200Mhz rausholen kann.
 
nochmal dein satz: "Ich gehe nicht davon aus, dass es jemals 16Core für die Mainstreamplattform geben wird "

Lern richtig zu zitieren und wenn du nochmal den Namen in einem Zitat einfach änderst weht hier ein anderer Wind!

Ich wollte wissen was du meinst wie lange die dual und quad im Mainstream vertreten waren und wie lange es dann hin zu 16 Kernen im Mainstream dauern wird.
 
nochmal dein satz: "Ich gehe nicht davon aus, dass es jemals 16Core für die Mainstreamplattform geben wird "

damit hast du es für immer ausgeschlossen!

zudem wurde mir schon in den 70ern versprochen das im jahr 2000 die Autos fliegen, ich habe in meinen 50 jahren schon mehr aussagen die sich nicht bewarheitet haben und ander die zutreffend waren aber keiner es gedacht hätte erlebt!

"der Taschenrechner wird sich nie durchsetzen" oder „Mehr als 640 Kilobyte Speicher braucht kein Mensch“
oder „Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten - allein schon aus Mangel an verfügbaren Chauffeuren.“ > Gottlieb Wilhelm Daimler

Wer hat dir denn in den 70ern versprochen, dass heute Autos fliegen, das Mickimausheft? Ich rede nicht von irgendwelchen Milchmädchen Zukunftsfantasien, sondern habe dir schon in den letzten beiden Posts von mir konkrete Beispiele genannt, welche bereits existieren und nicht auf wunschdenken beruhen.

Auch habe ich nie behauptet, dass keine bessere Hardware nötig wird. Wer das heute noch glaubt, ist einfach nur dumm oder naiv. Ich sagte , dass wir unsere Ziele im Computerbau in Zukunft anderes erreichen als heute, und nicht durch 120Kerne CPUs.....
Die TensorKerne lassen grüße ausrichten.

Und nun zu meiner 16Kern Aussage, gut möglich, dass es 16Kerne irgendwann doch noch in den Mainstream schaffen, das wird aber wohl trotzdem eher das Ende der klassischen Computerära darstellen, zumindest bei der aktuellen Entwicklungsgeschwindigkeit.
 
Zuletzt bearbeitet:
dualcore kam 2005 mit dem athlon 64 X2, quadcore kam 2007 mit dem core 2 quad Q6600, sechs kerne kamen 2010 mit i7 980X, und phenom II X6, okta 2014 mit i7 5960X (2011 mit FX8150)

dualcore ist mittlerweile absolut überholt, quadcore inzwischen auch hart an der grenze, hexcore der neue standard (spätestens mit coffee lake).

ich denke die entwicklung wir aber schneller werden, weil irgendwann die programmierung mit N kernen einfach mehr sinn macht als gezielt auf dual oder quad zu optimieren...
 
Zuletzt bearbeitet:
Beim Takt hat man eine physikalische Grenze.
Das zeigt auch ein Blick auf sog. Supercomputer.
Die haben alle extrem viele CPUs/Kerne und selten einen hohen Takt.

Die müssen aber bei der Menge an Cpus und Gpus vorallem auf die Effizienz und den Energieverbrauch schauen. Deshalb kann man einfach nicht höher Takten. Es wäre schlicht nicht wirtschaftlich und extrem schwierig zu kühlen.
 
Lern richtig zu zitieren und wenn du nochmal den Namen in einem Zitat einfach änderst weht hier ein anderer Wind!

Ich wollte wissen was du meinst wie lange die dual und quad im Mainstream vertreten waren und wie lange es dann hin zu 16 Kernen im Mainstream dauern wird.

Sorry,

ich habe aber keinen Namen im Zitat geändert, habe nur dem falschen auf ein anderes Zitat geantwortet :-)
 
Die müssen aber bei der Menge an Cpus und Gpus vorallem auf die Effizienz und den Energieverbrauch schauen. Deshalb kann man einfach nicht höher Takten. Es wäre schlicht nicht wirtschaftlich und extrem schwierig zu kühlen.
Die Effizienz ist das eigentliche Problem, weil daran direkt die Betriebskosten hängen. Man verwendet in HPC RZs schon länger Wasserkühlung, weil man so viel Kühlkosten einsparen kann. Mit passender Ausrüstung sind dann bis zu 50kW pro Rack möglich. D.h. die Abwärme pro CPU ist üblicherweise kein Problem. Das sind dann z.B. so aus https://www.youtube.com/watch?v=EgFs0sBY87k
 
dualcore ist mittlerweile absolut überholt, quadcore inzwischen auch hart an der grenze, hexcore der neue standard (spätestens mit coffee lake).

ich denke die entwicklung wir aber schneller werden, weil irgendwann die programmierung mit N kernen einfach mehr sinn macht als gezielt auf dual oder quad zu optimieren...

Zum Ersten, das ist völlig übertrieben, bei ~60% mobile Anteil im Clientbereich sind es immernoch 2C/4T, welche in Massen weggehen. Solche Allrounder wie ein i5-7200U bspw. Selbst 4C ist dort lange nicht Standard, weil bis dato der Corecount massiv Takt opfern musste und damit im Alltag einfach weniger Leistung raus kommt. Nach 6C kräht dort fast kein Hahn.

Zum Zweiten, auch das ist Unsinn. Man programmiert nicht auf 2 oder 4 Kerne, allerbestenfalls programmiert man auf Threads hin und da ist die absolute Anzahl idR. völlig egal.
Du fällst hier auf ein immer gern gebrachtes aber nicht zutreffendes Märchen rein.
Und ich sag dir auch warum, bist du in der Lage dein Aufgabenfeld durch MT zu lösen, bist du in nahezu allen Fällen in der Threadanzahl ungebunden... der Punkt der da gegen steht ist nur der, wo weitere Aufteilung durch mehr Overhead nicht mehr Skaliert. Was macht man dann? Man erhöht die Komplexität und weiter gehts.
 
@fdsonne: ich denke mal wir reden hier von gamingsystemen und von neuanschaffungen. für einfaches office und surfen reicht auch heute noch ein singlcore sempron 145 aus. und das wird sich auch nie ändern. war gestern noch mit einem netburst celeron notebook im netz. die cpu war schon leistungsmäßig schrott, als sie vor 13 jahren auf den markt kam. und doch läuft auch der aktuellste firefox damit. ich denke nicht dass der te das mit seinem thread meinte.

Und ich sag dir auch warum, bist du in der Lage dein Aufgabenfeld durch MT zu lösen, bist du in nahezu allen Fällen in der Threadanzahl ungebunden... der Punkt der da gegen steht ist nur der, wo weitere Aufteilung durch mehr Overhead nicht mehr Skaliert. Was macht man dann? Man erhöht die Komplexität und weiter gehts.
in wie weit unterscheidet sich das von meiner (zugegeben extremst vereinfachten) aussage? es wird optimiert, damit es mit zwei threads am besten läuft oder es wird optimiert, das es mit vier threads am besten läuft... ich denke nicht dass sich das irgendwer so vorgestellt hat, dass bei quadcore je ein viertel des programmcodes einem festen kern zugewiesen ist. aber bei der engine wird auf eine bestimmte threadzahl hin optimiert. mit weniger brauchts mehr takt und/oder ipc, darüber skaliert es nicht mehr.
 
Zuletzt bearbeitet:
Von Gaming stand da aber nix. Ich hab ehrlich gesagt ne Abneigung gegen solche Pauschalen, die werden aufgeschnappt und weitergetratscht. Siehste doch schon bei Ryzen... gibt nun 8C für wenig Geld und auf einmal geht drunter nix?
Nur warum muss man das immer so übertreiben? Einfach mal Kirche im Dorf lassen... denn auch im Gaming wird das nämlich in Zukunft interessant, der Spagat zwischen 0815 System und richtiger Gamingschleuder geht immer weiter auseinander ;) mal schauen was wird. Standard ist das aber eben nicht bei ~60% mobile Anteil.

Und zum Anderen, unter einer Optimierung versteht man für gewöhnlich was anderes... wenn es nicht mehr Skaliert ist das lange nicht dahin optimiert. Wird aber hier gern behauptet! Mal davon ab das die Skalierung idR. ein Witz ist, wenn da 2/1 bei rum kommt ist das noch viel. Und ihr sprecht von Optimierung.
Um es dir noch etwas genauer zu beschreiben, du kannst heute schon meist recht brauchbar CPU Breite nutzen wenn du sehr niedrig taktest, das Problem ist, reicht die CPU Power weitestgehend aus wird es nicht mehr nach oben (FPS) skalieren und auch nicht in die Breite (Cores). Da die Berechnung einfach fix ist. Anders bei GPUs, da geht es fast immer, weil mehr Leistung = mehr FPS. Mach nen Limiter rein und du siehst das gleiche verhalten. Würdest du hier von optimiert sprechen?? Sicher doch nicht. Das Komplexitätslimit der CPU Berechnungen ist wie der FPS Limiter. Und wird dazu idR. davon vorgegeben, was am Markt so zu kaufen gibt. Kein Entwickler der Welt baut unnötig Komplexität ein um CPU Breite zu nutzen, wenn dadurch fast niemand mehr den Rohleistungsbedarf decken kann...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh