Ist der merkliche Fortschritt bei der CPU oder auch PC Performance abgeflacht?

...

Neja das ganze, was du nun etwas nebenbei erwähnst, sollte man bei allgemeiner Fortschrittsbetrachtung natürlich nicht ganz ausblenden ;)
Und vom 2600 non K mit 3,4GHz (3,5GHz Allcore Turbo) auf 4770 non K mit wohl 3,5GHz (3,6GHz Allcore Turbo) hast du immerhin ne IPC Steigerung von ~7% (bis Ivy) + 5-10% (bis Haswell). Letzteres steht wohl noch nicht 100% fest!? Sagen wir im Mittel ~7%. Das sind dann immerhin inkl. Taktsteigerung und IPC in Summe ~17,8% reine Mehrleistung. Binnen ~2,5 Jahren. So schlecht finde ich das nun nicht unbedingt ;)

...

Klar sind die neuen Features ein netter Fortschritt, aber der reinen Rechenleistung der CPU bringen viele Features wie z.B. eine bessere iGPU oder PCI-E 3.0 usw. nicht viel.
Naja und ~17,8% in 2,5 Jahren? Das wäre ja so wie wenn man von einem Pentium 4 2GHz nach 2,5 Jahren auf einen mit 2,4GHz wechselt.
Als Beispiel vielleicht der Pentium III:
Anfang 1999 kurz nach Release kauft man sich als Top Modell den P3 500MHz (Katmai)
2,5 Jahre später (einen DIE Shrink bzw. leichtes Redesign auf Coppermine sowie ein weiteres Redesign auf Tualatin [jetzt angelehnt auf Sandy-Ivy-Haswell]) also so Mitte 2001 kauft man sich einen Tualatin mit (bleiben wir mal fair) 1266MHz oder einen Tualatin-256 (also die kleinere Version) mit 1200MHz.
Oder vielleicht schon einen P4 (Willamette) mit 1,5 oder 1,7GHz welche da schon am Markt waren.
Das sind milde ausgedrückt "etwas" mehr als ~ 20% Leistungssteigerung.
Und das Spiel kann man eigentlich zeitlich ansetzen wo man will zwischen sagen wir mal Anfang der 1990er bis eben zur Core i Sandy Serie - Top Modell (ohne Extreme Edition, Xeons, FX etc.) zu Top Modell 2,5 Jahre später.
Und ja klar - meist wurde der Leistungsgewinn durch Taktsteigerung gewonnen, aber auf genau das will ich raus. Eben daß ich es etwas komisch bzw. erschreckend finde daß Intel da nicht auch weiter an der Taktschraube dreht. Geht da vielleicht tatsächlich nicht mehr? Kann ich mir irgendwie nicht vorstellen. Gut die CPUs werden immer komplexer mit immer mehr Transistoren oft bedingt durch riesigen Cache und vielen Kernen, aber die Fertigungstechniken schreiten ja auch voran wie damals.

Aber wie gesagt - mal sehen ... vielleicht hat Haswell doch noch mehr Potential bzw. vielleicht kommen ja doch auch noch höher getaktete Modelle.

wer will diese sicherheit ? ich nicht.
Wer will diese Sicherheit? Also ich finde es nicht schlecht diverse Techniken zu haben die mich bei einem Unfall schützen. Airbags, Verstärkungen in den Säulen (zwecks Überschlag), Verstärkungen die den Insassenraum schützen (Seitenaufprall etc.) sowie diverse anderen Hilfen wie ABS, ESP etc.
Klar könnte man einiges davon weglassen ... wäre aber dann auch so wie wenn man bei den CPUs wieder Features entfernt. Nein im Ernst, viele Sicherheiten sind ja heute schon Vorschrift die es vor sagen wir mal 30-40 Jahren nicht gab und das ist wohl auch gut so.

heutzutage mit den wiedermal verminderten reibungswiderständen könnte man da noch gut 10 ps raus holen. da noch eine aufladung drauf und wir haben einen 1.0 3 zylinder motor mit 80-100(jeh nachdem ob kompressor oder turbo) ps der unter 200kg wiegt.
jetzt noch die karosse die vorne aus alu ist, und der rest ganz klassich wie in den 80ern bei den kleinwagen.
kein servo, keine airbags, keine elekt fensterheber, keine sitzheizung, keine zündschlossheizung, keine elektr verstellbaren außen spiegel, keine elektr verstellbaren sitze, keine klima, kein navi, kein auto radio, keine elektr fahrhilfen wie abs oder stabilitäts kontrolle oder was es sonnst noch alles gibt, kein ersatz rad (dafür das spray), leichtbau sitze und hinterbank, keine tausend sensoren für motor und auto. einfach nur eine lüftung die das auto im winter heizen kann, und eine lichtmaschine. analoger drehzahl besser und manuell schaltung und los gehts. man hätte so vorallem bei kabelbaum im auto schon eine ersparniss von bis zu 100kg ! das mit den anderen dingen die fehlen zusammen gerechnet und das mit dem leichten motor, ergiebt locker ein mögliches gewicht von 800kg. und das ist noch grpßzügig geschätzt. es wäre evtl noch leichter. der verbrauch wäre deutlich geringer als heute schon, und der verschleiß des autos würde auch wieder deutlich abnehmen.
Klar wäre das technisch möglich, wie Du schon sagst haben Kleinwagen in den 70er und 80er Jahren oft um/unter 800kg gewogen. Aber wie oben schon erwähnt muss ein gewisses Mass an Sicherheit rein und kaum jemand würde da auf was verzichten. Sonst könntest Du ja zu Deiner Abspeckung oben auch noch dazu geben daß die Sicherheitsgurte raus können - wieder ein paar kg gespart! Ach und die Nackenstützen ebenfalls ... und normales dünnes Glas für die Frontscheibe - da spart man auch ein wenig. Back to the 50s sag' ich da nur. Da kannst Du Dir bei einem (selbst kleinen) Unfall gratulieren. Und der Komfort ist eben auch gestiegen und viele der Sachen wie Klima, el. Fensterheber / Aussenspiegel sowie diverse Heizungen sind ja nicht nur einfach so erfunden worden sondern machen ja auch Sinn. Das Gewicht ist aber auch nicht der einzige Faktor um den Verbrauch zu verbessern sondern wie Du siehst werden die Motoren trotz mehr Gewicht das sie stemmen müssen und teils weniger Hubraum trotzdem leistungsfähiger und sparsamer.
Bei Stop and Go macht das Gewicht sicher einiges aus da es ja beschleunigt werden muss, aber wie schon fdsonne schreibt bei Langstrecken macht es nicht so einen riesen Unterschied ob das Auto jetzt ein paar hundert kg mehr wiegt.

jetzt verstehst du sicher warum ich bei den CPU,s so meckere. das konzept der entwicklung gefällt mir heutzutage nicht.
Eigentlich nicht wirklich. Nur weil derzeit mehr in die Breite (mehr Kerne/Module) und den Features sowie der Effizienz gearbeitet wird als an der reinen IPC Leistung bzw. (wie ich ein wenig bei Intel kritisiere) am Takt?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das sind milde ausgedrückt "etwas" mehr als ~ 20% Leistungssteigerung.
Und das Spiel kann man eigentlich zeitlich ansetzen wo man will zwischen sagen wir mal Anfang der 1990er bis eben zur Core i Sandy Serie - Top Modell (ohne Extreme Edition, Xeons, FX etc.) zu Top Modell 2,5 Jahre später.
Und ja klar - meist wurde der Leistungsgewinn durch Taktsteigerung gewonnen, aber auf genau das will ich raus. Eben daß ich es etwas komisch bzw. erschreckend finde daß Intel da nicht auch weiter an der Taktschraube dreht. Geht da vielleicht tatsächlich nicht mehr? Kann ich mir irgendwie nicht vorstellen. Gut die CPUs werden immer komplexer mit immer mehr Transistoren oft bedingt durch riesigen Cache und vielen Kernen, aber die Fertigungstechniken schreiten ja auch voran wie damals.

Rein auf den Takt hast du natürlich vollkommen recht. Ich sehe dennoch ein paar potentielle Gründe.
In erster Linie wurde seinerzeit ja die Taktbarkeit oftmals durch eben mehr Leistungsaufnahme erkauft. Da hast du heute das komplette Gegenteil. Mehr Leistung bei oftmals weniger Leistungsaufnahme + dazu noch weitere Features. Ebenso sehe ich den "Bedarf" an einer ähnlich hohen Taktsteigerung heute aktuell so nicht mehr. Zumindest nicht primär. Das Beispiel mit Sandy/Ivy/Haswell ist ja "nur" Mainstream. Schaut man mal etwas in Richtung Serverbereich, gehts dort mit den Taktungen am TDP Limit! doch schon etwas mehr bergauf. Der Vergleich passt dahingehen halbwegs gut, weil damals auch oftmals eben die üblichen Leistungsaufnahmeklassen ausgenutzt wurden, wie heute im Serverbereich auch (noch)
Da bekommst du nämlich die Quadcores mit hohem Takt, die Hexacores mit etwas gemäßigterem Takt und die Achtkern CPUs mit nochmals was weniger Takt. Jede Wette, in der nächsten Generation stagnieren die Quadcores, aber Hexacore + Oktacore legen am Takt was zu. Geht man nun etwas in der Zeit zurück, waren seinerzeit die Dualcore CPUs die höchsttaktenden, die Quadcores aber oftmals etwas schwächer. (TDP Limit)

Ich denke mal, hier lässt sich ansetzen mit der Argumentation. Die Mainstream CPUs sind aktuell alles andere als am Limit. Das dürfte massiv auffallen. Ein Quadcore Ivy/Haswell auf 130-150W getrimmt, dürfte mindestens mit 4,2-4,4GHz aufwarten können. -> nur macht man nicht.
Ich sehe hier klar den Markt im Wandel. Mehrkernunterstützung ist vielfach gegeben. Zwar nicht überall, aber kommt so langsam herauf.
Das Potentielle Problem sehe ich aber, wenn man die Quadcores viel höher takten würde, sprich die TDP ausnutzen ohne Wenn und Aber (wie eben seinerzeit auch), baut man sich selbst Konkurenten der nächst mehr Corigen CPUs. Warum sollte ich mir nen sagen wir 3,2GHz Hexacore in die Kiste drücken, wenn ich nen 4,4GHz Quadcore bekommen könnte. Das sind immerhin gute 40% mehr MT Leistung bei 4,4GHz (ausgehend vom einem 3,2GHz Quad) sowie gute 40% mehr SingleThread Leistung. Der Hexacore bringt es im MT zwar noch etwas fixer. Punktet aber bei weniger Auslastung weit weiger... -> potentielles Problem ;)

Mir fällt an der Stelle halt auf, das die Mainstream Modelle nichtmal mehr im Ansatz ausgefahren werden. Das darf mit K CPUs nun jeder selbst machen.
Den Vergleich zu älteren Generationen, vor allem weit vor Core2 finde ich an der Stelle deswegen etwas untrivial. Da eben wie oben schonmal erwähnt, die Produktpalette deutlich in die Breite gegangen ist. Wärend seinerzeit quasi alles aus einem Guss war. Ob nun Desktop oder Server. Die Leistungsfähigkeit war weitestgehend identisch und teils klar limitiert in der Leistungsaufnahme. Heute hast du im Mobile Bereich eigene, im Desktop Bereich eigene und im Server Bereich wiederum eigene Ableger. Die auch unterschiedlich stark beim Takt getreten werden. Das was man seinerzeit auch im Desktopbereich durch Takt realisiert hat, bekommen heute ausschließlich die breiten Server CPUs eben an mehr Cores. Nur hat man auch seinerzeit eben keine Produkte selbst aus eigenem Haus gefährdet. Denn ein sagen wir 20% höher taktendes Modell gabs dann sowohl im Server, als auch im Desktopbereich.
Heute hingegen bekommst du den 8 Kern Xeon nicht um 20% getreten. Den kleinen Desktop Quad hingegen schon ;) Der eine hat Luft, der andere arbeitet mit 150W Einstufung am Limit. Würde man alle CPUs wie seinerzeit auch fast immer ans TDP Limit bringen, würde die klare Abtrennung zwischen Quad/Hexa/Oktacore vollständig verschwimmen. Denn die Quads bieten heute so viel "Reserve" in der Leistungsaufnahme, das man damit zumindest annähernd nen Hexacore in Sachen Leistung erreichen kann/könnte.

Picke ich mir beispielsweise jetzt dediziert mal den S1155 raus, sehe ich zumindest eine Limitation auf vier Cores. Eben einen Fakt, den es damals nicht gab. Da hatte die aktuelle Plattform idR alle Möglichkeiten nach oben hin.
Man könnte beinahe sagen, auf die ganze Palette betrachtet, sprich von S1155 bis Server/Workstation S2011, sind die aktuellen Dual/Quadcores eher das, was seinerzeit die niedrig taktenden Einstiegsmodelle waren. Oder was beispielsweise heute Singlecore CPUs allein für S1155 sind. Eben das untere Ende der gesamten Palette.



Ihc muss auch ehrlich sagen, so viel Taktpotential, wie es heute bei K Modellen für S1155 gibt, hab ich selten vorher gehabt. Das bestärkt natürlich auch die Aussage, dass diese CPUs gar nicht am Limit laufen. Bzw. gewollt nicht das aktuell machbare ausnutzen. Denn dafür gibts die Nummer größer mit S2011. Mehr Preis, mehr "Features", mehr Cores und allgemein auch mehr Leistung.
 
Warum sollte ich mir nen sagen wir 3,2GHz Hexacore in die Kiste drücken, wenn ich nen 4,4GHz Quadcore bekommen könnte.
Weil von der theoretischen Betrachtung der 6x3,2GHz mehr Rechenleistung hat als ein 4x4,4GHz? Wer viele Cores auslasten kann, der kann meist sehr viel mehr als 4 Cores auslasten. Ein hoch getakteter Prozessor wird immer ineffizienter, weil das Verhältnis zum Speicherlatenz schlechter wird.

---------- Post added at 08:49 ---------- Previous post was at 08:44 ----------

Und ja klar - meist wurde der Leistungsgewinn durch Taktsteigerung gewonnen, aber auf genau das will ich raus. Eben daß ich es etwas komisch bzw. erschreckend finde daß Intel da nicht auch weiter an der Taktschraube dreht. Geht da vielleicht tatsächlich nicht mehr?
Der Stromverbrauch steigt dramatisch an. Solange man nicht grundsätzlich was anderes macht, d.h. entweder neue Materialen z.B. Graphen verwendet oder komplett neue Effekte ausnutzt, d.h. direkt auf quantemechanische Effekte setzt, wird sich an dieser Grundproblematik nichts ändern. Man kann die Cores kleiner machen und dadurch die Taktrate etwas höher bekommen. Aber Terahertz CPUs werden wir nicht sehen.
 
die Zukunft wirds halt bringen, man wird die konventionelle Schiene verlassen und sich auf völlig neue Technologien stützen. Ich meine damit das Rechnersystem auf rein optischer Basis. Chinesischen und russischen Forschern ist es gelungen opt. Speicherzellen zu entwickeln die wie konventionelle Speicherchips ansprechbar und zu handhaben sind, bloß halt mit Lichtgeschwindigkeit und schier unvorstellbaren Kapazitäten.
Desweiterin sind diese Forscher inzwischen auch in der Lage sämtliche logische Operanden auf rein optischer Basis zu realisieren und darüber hinaus noch Fähigkeiten bereitzustellen, die eben nur optisch realisiert werden können. Extrem hohe Geschwindigkeiten sind dabei selbstverständlich, ebenso die absolute Zuverlässigkeit, die extrem geringe Leistungsaufnahme und die nicht mehr vorhandene Wärmeentwicklung.
In US amerikanischen Reißern durften wir schon häufig bewundern wie hocheffiziente LASER Waffen todbringend eingesetzt wurden, um das Gute zu schützen und die Welt zu retten, aber wie gesagt, US amerikanische Wunschträume, denn den Chinesen und den Russen ist es inzwischen gelungen diese Wunschträume aufzugreifen und in die Tat umzusetzen.
Einer Schweizer Firma ist es inzwischen auch gelungen einen holographischen Speicher produktionsreif zu entwickeln, die Verbreitung dieser echten Innovationen wird aber von der mächtigen Traditionslobby eben noch verhindert, denn das Speichervermögen dieser holographischen Speicher ist quasi unvorstellbar und würde die Fertigung konventioneller Speicher über Nacht überflüssig machen!
Es wird in absehbarer Zukunft also ne Menge Überraschungen geben, haben wir also noch etwas Geduld, es wird schon werden!

Gruß Proon

übrigens, mein Name ist nicht Stanisław Lem ;-)
 
Zuletzt bearbeitet:
Weil von der theoretischen Betrachtung der 6x3,2GHz mehr Rechenleistung hat als ein 4x4,4GHz? Wer viele Cores auslasten kann, der kann meist sehr viel mehr als 4 Cores auslasten. Ein hoch getakteter Prozessor wird immer ineffizienter, weil das Verhältnis zum Speicherlatenz schlechter wird.
Neja im Server/Workstationbereich wäre das durchaus so. Im Desktopbetrieb?
Wenn ich mir die CPU Auslastung über den Tag verteilt meiner Workstation oder meines Arbeitsnotebooks (beide mit 8 Thread Quadcores) ansehe, sehe ich dort bestenfalls Spitzen, die mal die Cores ausfahren. Im Schnitt würde es wohl selbst ein kleiner Dualcore tun ;)
Und hier liegt eben das Problem. Wir sind hier im Mainstreambereich. Zumindest der aktuellen Argumentation folgend. Heist halbwegs günstig. Gepaart mit oftmals nichtmal ansatzweise voller Threadbelastung der CPUs.
Und ich schrieb ja oben schon, das der Hexacore leicht schneller wäre beim MT, aber eben bei weniger Threadauslastung deutlich unterlegen ist. Und das wären 1-4 Threads. Und somit aktuell das, was im Mainstreambereich schon oftmals nicht anliegt.
Auch sollte das ja nur ein Beispiel sein. Das ganze lässt sich ja auch auf andere Modelle ummüntzen. Beispielsweise 4,xGHz taktende i3 gegen default taktende i5/i7 Modelle... Da schaffst du selbst mit zwei Threads die Cores gut zu belasten. Und jedes MHz zahlt sich direkt in mehr Leistung aus. Die Breite nutzt dir halt nur dann, wenn die Anwendung(en) mitspielen. Es wird zwar mehr, aber wir sind denke ich noch ein ganzes Stück weit entfernt von flächendeckender Auslastbarkeit.

Der Stromverbrauch steigt dramatisch an.
Kann man so aber auch nicht sagen. Die Taktrate skaliert idR mit der Leistungsaufnahme simpel linear 1:1. 50% mehr Takt = 50% mehr Verbrauch (grob)
Das Problem sind die Spannungen. Denn die skalieren im Quadrat mit dem Verbrauch. Viel Takt = idR höhere Spannung nötig und somit explodiert ab gewissen Einstellungen der Verbrauch.

Aber das ist an der Stelle auch eher ne Randbetrachtung finde ich. Denn wie angesprochen, es gab Zeiten da hat man fast das maximal mögliche aus dem Silizium geholt. Auch im Desktop Bereich. Heute hast du das bestenfalls noch für die großen S2011 CPUs oder eben noch ein Regal höher. Die Mainstreamer sind nicht am Limit! was auch schon die TDP Einstufungen zeigen.
Würde man hier ähnlich "selektieren", wie seinerzeit noch mit den Netburst Modellen oder den S939/AM2 X2s, hätten wir auch heute noch immer wieder von Zeit zu Zeit ne leicht höher taktende CPU bei fast gleichbleibenden Verbrauch. Bedingt durch besser werdende Fertigung wäre das durchaus drin. Nur gefährdest du halt durch die Luft zum Limit wie angesprochen die nächst höher taktenden Modelle.


Auch sollte man nicht vergessen, diese Mainstreamplatform wurde irgendwann 2008? mit S1156 eingeführt. Davor gab es diese Klasse schlicht nicht. Da war S775 das Maß der Dinge. Mit S1366 hat man ja bewusst anfangs nur Quadcores gebracht. Eine Trennung ist also klar ersichtlich. Würde man diese Tatsache als Basis für nen Vergleich in der Vergangenheit anwenden, so würden dort die ganzen hochtaktenden CPUs alle samt aus dem Raster fallen, denn das waren damals die, die heute nicht im Mainstream Sockel platz finden, sondern im S2011 als Hexa/Oktacores zu kaufen sind. Eben bis fast 100% mehr Leistung der Mainstreamplattform im MT.
 
die Zukunft wirds halt bringen, man wird die konventionelle Schiene verlassen und sich auf völlig neue Technologien stützen. Ich meine damit das Rechnersystem auf rein optischer Basis. Chinesischen und russischen Forschern ist es gelungen opt. Speicherzellen zu entwickeln die wie konventionelle Speicherchips ansprechbar und zu handhaben sind, bloß halt mit Lichtgeschwindigkeit und schier unvorstellbaren Kapazitäten.
Desweiterin sind diese Forscher inzwischen auch in der Lage sämtliche logische Operanden auf rein optischer Basis zu realisieren und darüber hinaus noch Fähigkeiten bereitzustellen, die eben nur optisch realisiert werden können. Extrem hohe Geschwindigkeiten sind dabei selbstverständlich, ebenso die absolute Zuverlässigkeit, die extrem geringe Leistungsaufnahme und die nicht mehr vorhandene Wärme entwicklung.
In US amerikanischen Reißern durften wir schon häufig bewundern wie hocheffiziente LASER Waffen todbringend eingesetzt wurden, um das Gute zu schützen und die Welt zu retten, aber wie gesagt, US amerikanische Wunschträume, denn den Chinesen und den Russen ist es inzwischen gelungen diese Wunschträume aufzugreifen und in die Tat umzusetzen.
Einer Schweizer Firma ist es inzwischen auch gelungen einen holographischen Speicher produktionsreif zu entwickeln, die Verbreitung dieser echten Innovationen wird aber von der mächtigen Traditionslobby eben noch verhindert, denn das Speichervermögen dieser holographischen Speicher ist quasi unvorstellbar und würde die Fertigung konventioneller Speicher über Nacht überflüssig machen!
Es wird in absehbarer Zukunft also ne Menge Überraschungen geben, haben wir also noch etwas Geduld, es wird schon werden!

Gruß Proon

übrigens, mein Name ist nicht Stanisław Lem ;-)

Muss man wissen!
 
@ Bucho
das die effizienz gesteigert wird, stört mich nicht. finde ich sogar gut. doch diese ganzen dicken chaches und endlosen Threads und intigrierten gpus fressen halt auch viel platz und technik die man hätte anders verwenden können. zb für mehr leistung. wie war das noch vor ein paar jahren ? lieber ein starker dual core als ein schwacher quad core. oder wie heiß es 2011 zu zeiten von 2500K vs FX8150 ? lieber 4 schnelle kerne als 8 luschen. genau das meine ich.
ich denke für die meisten leute wird ein X4 sogar noch lange reichen. eben weil tausende threads und eine GPU in der cpu für zocker irrelevant sind.

mein kumpel zockt heutzutage alle top titel noch mit einem intel dual core aus 2007, und mein X3 aus 2008 langt auch noch für BF3 und co.
ich habe sogar das gefühl, das mein X3 wenn ich ihn nochmal mit gewalt auf 3,5 ghz prügel, im jahr 2018 noch für die meisten spiele auf medium bis high details mit auflösungen um die 1280x1024 oder 1680x1050 aussreichen wird wenn die nötige moderne grafik karte ihn gut entlastet. man stelle sich heute mal vor mit einem Athlon XP 3200+ BF3 zu zocken ^^
dagegen werden die cpu,s von heute in 10 jahren wohl deutlich besser abschneiden.
 
Zuletzt bearbeitet:
@fdsonne
zu Deinem Post #234
Ja ich verstehe was Du meinst. Ist auch irgendwie klar daß eine einzelne CPU mit vielen Kernen bzw. viel Cache die TDP schneller erreicht und deswegen nicht so viel Takt haben kann wie eine kleinere mit weniger Kernen und Cache. Und ja im Serverbereich werden die Limits deutlich eher erreicht (siehe den E5 Octacore mit 3,1GHz und 150W TDP - das gibt es im Desktop Bereich nur bei den Extreme Editions)
Vielleicht will man den Mainstream Bereich (also Sockel 1155 / 1150) recht kompatibel halten und somit die TDP der CPUs niedrig damit auch günstige Boards alle CPUs aufnehmen können. Kann mir schon vorstellen daß so ein kleines H61 Board um 40 EUR keine 8 Kern 150W TDP CPU packen würde.

Serverplattformen gab' es aber jedoch schon immer eigene und dort wurden nicht nur technisch gleiche bzw. sehr ähnliche CPUs aus dem Desktop Bereich verwendet. Viele exotische CPUs und Sockel gab es nur dort (und teils im Workstation Bereich). z.B. Sockel 8 (Pentium-Pro), Slot-2, Sockel 603, 604, 771, 1356 oder Sockel 1567. Viele der Xeon CPUs die man dort angetroffen hat waren ja wirklich baugleiche Desktop CPUs wo max. ein paar Features aktiviert wurden, da gebe ich Dir recht. Aber eben auch damals gab' es schon eigene Plattformen und eigene CPUs die es nur dort gab und nie im Mainstream Bereich verfügar/lauffähig waren. Codenamen sind da z.B. Pentium II/III Xeons Drake, Tanner und Cascades mit 2MB Cache (damals wohl der Wahnsinn), P4 Netburst Xeons Potomac mit riesigen 8MB L3 Cache, sowie Tulsa mit noch grösseren 16MB L3 Cache, Core basierende Dunnington mit bis zu 16MB L3 Cache und Sechs Kerne, Nehalem basierende Beckton bis zu 24MB L3 Cache und Acht Kerne sowie aktuell noch die Westmere-EX mit bis zu 30MB L3 Cache und Zehn Kerne.
Also das damals "alles aus einem Guss" bzw. auf einer Plattform lass ich nicht gelten.
Auch AMD hat schon seit einiger Zeit ganz eigene Plattformen im Serverbereich die strikt vom Desktop Bereich getrennt werden. War ja auch nicht immer so (Sockel 939 und AM2 Opterons z.B. oder Athlon MP Sockel 462 CPUs etc.)

Wo ich Dir jedoch voll recht gebe ist daß sich der Mainstream Desktop Bereich seit wie Du sagst Sockel 1156 und 1366 geteilt hat. Mit dieser Option wurden dem Desktop Enthusiasten Möglichkeiten geboten aus dem Serverbereich zu profitieren - sprich auch CPUs bzw. teils Boards und Plattformen davon zu nutzen. Kann mir somit schon gut vorstellen daß so wie Du vermutest Intel sich da nicht selbst Konkurrenz machen will mit hochgetakteten Mainstream Quadcores die höher angesetzte "Mainstreams" Sechskerner ausstechen.

Wie dem auch sei finde ich es wie schon erwähnt etwas schade daß Intel da die Mainstream Quadcores nicht näher an Ihr TDP treibt (was mich nicht stören würde) sondern die künstlich niedrig hält, dafür aber interessanterweise dem Kunden mit den K CPUs die Möglichkeit bietet das selbst zu machen. Im Ethusiast Bereich (also derzeit Sockel 2011) ist es mit dem Takt auch kaum aber wenigstens mit den Kernen stärker bergauf gegangen als in meinem Vergleich von Sandy -> Haswell. Immerhin kommt man da (Ende 2009) vom Sockel 1366 Bloomfield i7-960 mit 4x3,2GHz über (Mitte 2010) den Gulftown i7-970 mit 6x3,2GHz auf derzeit (Ende 2011) Sockel 2011 i7-3930K mit 6x3,2GHz.
Und hier ist auch der Turbo Takt stärker gestiegen als von Sandy zu Haswell.

@Proon
Naja von vielen dieser Technologien hat man schon oft und lange her etwas gehört aber kaum welche haben es bis zur Marktreife geschafft. Und ich glaube da nicht an die bösen Konzerne die das verhindern (obwohl das teils durchaus der Fall sein könnte). Denn wenn dann würden die Konzerne doch das eher versuchen für sich zu gewinnen um mit eigenen Patenten und überlegenen Produkten den Markt zu dominieren, oder nicht? Also lieber mal abwarten was in Zukunft tatsächlich für brauchbare Technologien kommen und wie weit sich das für die Chipentwicklung auswirken kann.

@Nighteye
Ja das hat fdsonne oben auch schon geschrieben daß wohl in vielen Bereichen für den Kunden sogar noch ein alter Dual Core mehr als genug ist. Und ja für Gamer wird wohl ein guter QuadCore noch ein paar Jahre ausreichend sein um die Spiele zu spielen (gute Grafikkarte wie Du erwähnst vorausgesetzt). Wenn ich mir die kommenden Konsolen so anschaue untermauert das wohl auch diese Vermutung.
Dicke Caches sind jedoch nie verkehrt (und bringen ja auch Leistung da einige Daten so nicht aus den langsamen RAM geladen werden müssen). Die iGPUs sind ja auch nur in den Mainstream CPUs (bei Intel) bzw. APUs (bei AMD) enthalten und das eben aus dem Grund um den Markt der iGPUs auch zu bedienen. Immerhin ist es nun mal effizienter und leistungsfähiger die GPU in den DIE zu integrieren als wie früher im Chipsatz/am Mainboard.
Das Beispiel mit dem Athlon XP ist jedoch ein gutes um zu zeigen daß sich doch etwas in Richtung SMT getan hat. Denn selbst wenn der mit 4GHz rennen würde könnte man wohl einige Games heute nicht damit spielen. Das habe ich selbst gut an meinem Pentium-M gemerkt der wohl (mit OC) in Sachen Single Core CPU damals alles hinter sich gelassen hat (inkl. diverse Athlon FX Single Cores).
 
Zuletzt bearbeitet:
SMT ist ja unwichtig solange man 2 kerne hat. generell wird dieser CMT SMT sache zu viel wert angerechnet. das einzige was es bringt ist, das die verlustleistung niedriger ist als bei einem vollwertigen kern als gehilfen. aber da wir die verlustleistung ja gerade bei intel auf neuen rekord tiefen sehen, scheint die verlustleistung eh nicht das hauptproblem zu sein. wir konzentrieren uns auf strom sparen und lassen dabei zu sehr die leistung liegen. evtl weil wir die leistung nicht mehr so heraus holen können wie früher wie du auch schon sagtest. ich bin da mit dir einer meinung was das ganze thema angeht.
 
Ja da hab' ich mich unglücklich ausgedrückt - meinte nicht SMT in Form von Hyperthreading sondern Multithreading im Sinne von mind. 2 echte CPU Kerne.
Naja und daß wir die Leistung nicht mehr so herausholen "können" wie früher hab' ich nie gesagt - denn wie wir festgestellt haben "könnte" Intel z.B. bei den Mainstream Dual und Quad Cores die Leistung doch deutlich mit dem Takt steigern, hoffe ich zumindest ... vielleicht könnte es ja Intel doch nicht (zumindest nicht in dem Ausmaß wie früher) den Takt zu steigern? Oder machen das derzeit (zu gunsten der Mehrkern CPUs? zu gunsten der TDP?) nicht bzw. lassen es mit den K Modellen dem Benutzer selbst über es selbst zu tun.
 
Zuletzt bearbeitet:
Genau CMT und SMT ist überbewertet... :d Alleine schon die Gleichstellung ist vollkommen Banane Nighteye, das sind zwei komplett Unterschiedliche Sachen. SMT soll die Auslastung eines Prozessors optimieren, bringt bei einem i3 übrigens bis zu 25% in Spielen, und CMT setzt auf Ressourcenteilung und zwei Integer-Kerne pro Modul, da wurde der Kern quasi aufgebohrt. Und man muss sich hier auch nicht einreden, dass Singlethread-Leistung alleine der Nabel der Welt ist. Vier schnelle Kerne sind heute schon sehr nett und würden AMDs FXs 20% schneller sein und weit weniger Verbrauchen würden die selbst mit einem Preis von 250€ Intel das Leben schwer machen...
 
Auch sollte das ja nur ein Beispiel sein. Das ganze lässt sich ja auch auf andere Modelle ummüntzen. Beispielsweise 4,xGHz taktende i3 gegen default taktende i5/i7 Modelle...
Um die gleiche Leistung bei einem i3 zu bekommen, müßte man die Taktrate mindestens verdoppeln. Analog verhält es sich zwischen einem i7 3770 und einem Xeon E5 2687W, und das ist letztlich unrealistisch.

Kann man so aber auch nicht sagen. Die Taktrate skaliert idR mit der Leistungsaufnahme simpel linear 1:1. 50% mehr Takt = 50% mehr Verbrauch (grob)
Das ist nur in grober erster Näherung richtig, nur wird der Spaß doch erst ab Faktor 2 und größer interessant. Wenn man den Gedanken weiterspinnt, laufen viele Programme immer noch nur single threaded, d.h. ein Single Core mit viel Taktrate wäre für die Software optimal. Ein Pentium G Single Core müßte also die achtfache Taktrate haben, um überhaupt mit einem Xeon E5 2687W mitzuhalten, das sind dann 24,8 GHz bei maximal 150W TDP.

Auch sollte man nicht vergessen, diese Mainstreamplatform wurde irgendwann 2008? mit S1156 eingeführt. Davor gab es diese Klasse schlicht nicht. Da war S775 das Maß der Dinge.
S771 war das eher, aber früher haben andere CPU Hersteller das Server Segment stärker abgedeckt.


Mit S1366 hat man ja bewusst anfangs nur Quadcores gebracht. Eine Trennung ist also klar ersichtlich. Würde man diese Tatsache als Basis für nen Vergleich in der Vergangenheit anwenden, so würden dort die ganzen hochtaktenden CPUs alle samt aus dem Raster fallen, denn das waren damals die, die heute nicht im Mainstream Sockel platz finden, sondern im S2011 als Hexa/Oktacores zu kaufen sind. Eben bis fast 100% mehr Leistung der Mainstreamplattform im MT.
S1356 und S2011 ist kein Mainstream Sockel, sondern die Brot und Butter Serverplattform.

---------- Post added at 08:25 ---------- Previous post was at 07:49 ----------

@ Bucho
das die effizienz gesteigert wird, stört mich nicht. finde ich sogar gut. doch diese ganzen dicken chaches und endlosen Threads und intigrierten gpus fressen halt auch viel platz und technik die man hätte anders verwenden können. zb für mehr leistung.
Das das ist nicht möglich, da man die Kerne kleiner machen muß, damit man deren Taktrate steigern kann. Aber auch das geht nicht endlos, da der Stromverbrauch überproportional mit der Taktrate ansteigt, unter anderem weil man die Spannung erhöhen muß. Die Kerne intern immer "breiter" zu machen, wird ebenfalls schwierig. Wenn man nun etwa 20 Befehle pro Takt abarbeiten könnte, dann müßte diese 20 Befehle vom Compiler auch entsprechend erzeugt werden. Am Itanium hat man gesehen, daß das in der Realität nicht funktioniert.
 
Ich konnte nicht mehr schlafen, also habe ich mir jetzt jeden Post durchgelesen. Danke für den Thread, sehr informativ, aber ich habe jetzt Kopfschmerzen.
 
Vier schnelle Kerne sind heute schon sehr nett und würden AMDs FXs 20% schneller sein und weit weniger Verbrauchen würden die selbst mit einem Preis von 250€ Intel das Leben schwer machen...
Möchte/könnte man glauben, glaube ich aber weniger - Mit Hilfe der EU hat man sich ziemlich unbeliebt bei so einigen Firmen gemacht, damit meine ich nicht unbedingt Intel mit ;)
 
Zuletzt bearbeitet:

nöö, sollte man wissen ;-) !

Gruß Proon

---------- Post added at 12:09 ---------- Previous post was at 11:58 ----------

Ich konnte nicht mehr schlafen, also habe ich mir jetzt jeden Post durchgelesen. Danke für den Thread, sehr informativ, aber ich habe jetzt Kopfschmerzen.

das ist aber blöd und ich wünsche dir gute Besserung. Die Zukunft wird ganz gewiß ne Menge Neuerungen bringen und wenn sich das nicht nur im EVP ausdrückt und die Bedienbarkeit beherrschbar bleibt, wollen wir mal nicht meckern.
Allerdings halte ich es für einen riesigen Nachteil, dass bei möglichen Neuentwicklungen halt diese Geldtrixer (Betriebswirtschaftler) oft mehr zu sagen haben, als die Entwicklungsingenieure. Auf diese Art wird halt viel verhindert, weil nach deren Meinung alles viel zu teuer ist und alle haben das Nachsehen.

Gruß Proon

was nun die Entwicklung besagter holographischer Speicher durch eine Schweizer Firma anlangt, lohnt es durchaus mal zu Gurgeln ...
Nicht immer paßt es der Konkurrenz, bringt auf einmal ein Unternehmen eine völlig neuartige Speichertechnologie auf den Markt.
Erinnern wir uns, damals, als quasi alles erst anfing, gabs sogar Maschinenstürmer ;-) !
 
Zuletzt bearbeitet:
Vielleicht will man den Mainstream Bereich (also Sockel 1155 / 1150) recht kompatibel halten und somit die TDP der CPUs niedrig damit auch günstige Boards alle CPUs aufnehmen können. Kann mir schon vorstellen daß so ein kleines H61 Board um 40 EUR keine 8 Kern 150W TDP CPU packen würde.

Ich sehe als naheliegendsten Grund eher den Preis ;)
Ne Mainstream Platform mit ~350€ max. Preis für die CPU ist ein Todschlagargument im P/L. Schnellere CPUs würden auch deutlich teurer sein. Somit verlieren aber auch teurere CPUs auf anderen Platformen ihren Reiz.
Wenn man sich mal im OEM Bereich umschaut. Im Officebereich geht nix über S1155 aktuell. Bestenfalls noch FM1/FM2 von AMD. Die quasi immer implementierte GPU zeigt diesen Umstand auch recht gut, finde ich.
Ich denke Intel will gar nicht schnellere CPUs für diese Platform bieten. Ein Grund dafür könnte auch die Konkurenz sein. So kann man AMD schön "klein" halten. Und bei dehnen, die wirklich mehr wollen, auch wirklich mehr kassieren. Die Masse dürfte aber bei weitem durch S1155 rein kommen.

Serverplattformen gab' es aber jedoch schon immer eigene und dort wurden nicht nur technisch gleiche bzw. sehr ähnliche CPUs aus dem Desktop Bereich verwendet. Viele exotische CPUs und Sockel gab es nur dort (und teils im Workstation Bereich). z.B. Sockel 8 (Pentium-Pro), Slot-2, Sockel 603, 604, 771, 1356 oder Sockel 1567. Viele der Xeon CPUs die man dort angetroffen hat waren ja wirklich baugleiche Desktop CPUs wo max. ein paar Features aktiviert wurden, da gebe ich Dir recht. Aber eben auch damals gab' es schon eigene Plattformen und eigene CPUs die es nur dort gab und nie im Mainstream Bereich verfügar/lauffähig waren. Codenamen sind da z.B. Pentium II/III Xeons Drake, Tanner und Cascades mit 2MB Cache (damals wohl der Wahnsinn), P4 Netburst Xeons Potomac mit riesigen 8MB L3 Cache, sowie Tulsa mit noch grösseren 16MB L3 Cache, Core basierende Dunnington mit bis zu 16MB L3 Cache und Sechs Kerne, Nehalem basierende Beckton bis zu 24MB L3 Cache und Acht Kerne sowie aktuell noch die Westmere-EX mit bis zu 30MB L3 Cache und Zehn Kerne.
Also das damals "alles aus einem Guss" bzw. auf einer Plattform lass ich nicht gelten.

Dem stehen aber deutlich (wie ich finde) mehr Gegenbeispiele entgegen ;)
Mit aus einem Guss meinte ich eher die Sachen wie Single/Dual Sockel 5, Single/Dual Slot 1, Single/Dual Sockel 370.
Das sind die Platformen für P1, P2 und P3.
Auch zu erwähnen wär hier noch S775/S771. Denn das ist im Grunde das selbe, nur mechanisch inkompatibel. Eine S771 CPU ist das gleiche wie ne S775 CPU, nur eben mechanisch inkompatibel.
Erst mit dem Ende vom P3 bzw. Anfang vom P4 hat man im Serverbereich angefangen, dauerhaft ne dedizierte Serverplatzform zu plazieren. Slot 2 lass ich an der Stelle so mal ausgeklammert, weil es eben auch Slot 1 in Dual Ausführung gab.
Das ist Anfangs der S603, gefolgt vom S604. Der hatte ewig lange bestand. Später wurde S604 mit Einführung des S771 als Multiplatform "abgeschoben" und bekam sogar noch Core2 Hexacore CPUs ;) Wärend Dual S771 eben die Dual Platform war.
Sprich wir sind hier schon bei drei Platformen. Desktop (S775), Dual (Dual S771), Multi (Multi S604) Obwohl S775 und S771 hier noch vergleichbar waren.
Später mit Nehalem war das aber dann Geschichte.
Denn heute hast du bekanntlich S1155 als Mainstream, S2011 als Dual und S1567. Und nix ist mehr direkt vergleichbar. Denn S1155 CPUs sind bis 4 Kerne. S2011 CPUs bis 8 Kerne und S1567 bis 10 Kerne aktuell. Mit Ivy-Ex geht letzteres sogar bis 15 Cores. Wobei es auch ein neue Sockel werden könnte ;)

Vor Vorteil von damals war auch einfach gesagt der FSB. Denn an nem Bus wie dem FSB ist es eher egal, ob du nun eine, zwei, vier oder mehr CPUs dran klemmst. Heute muss die CPU das können. Intel tut also auch gut die Trennung zu wahren. So muss man im Mainstream natürlich nicht den Balast von zusätzlichen Interconnects mitschleppen -> spart Transistoren und DIE Size. AMD hat hier ein "Problem" mehr. Denn hier hast du diese Vermischung noch deutlich ausgeprägter.

Dicke Caches sind jedoch nie verkehrt (und bringen ja auch Leistung da einige Daten so nicht aus den langsamen RAM geladen werden müssen).

Wobei man da auch etwas differenzieren muss. Denn der Code muss auch damit umgehen können. Der größte Cache nutzt nix, wenn die Software und die Hardware damit nix anzufangen weis. Die Software muss also auch mit der Zeit gehen ;) Sonst wird das alles nix.

SMT ist ja unwichtig solange man 2 kerne hat. generell wird dieser CMT SMT sache zu viel wert angerechnet. das einzige was es bringt ist, das die verlustleistung niedriger ist als bei einem vollwertigen kern als gehilfen. aber da wir die verlustleistung ja gerade bei intel auf neuen rekord tiefen sehen, scheint die verlustleistung eh nicht das hauptproblem zu sein. wir konzentrieren uns auf strom sparen und lassen dabei zu sehr die leistung liegen. evtl weil wir die leistung nicht mehr so heraus holen können wie früher wie du auch schon sagtest. ich bin da mit dir einer meinung was das ganze thema angeht.

Neja so kann man das nicht sagen. SMT und auch CMT sind Techniken um möglichst effizient viel Leistung aus eben dem wenigsten Mittelaufwand zu erhalten.
Das eine reine Corevervielfältigung mehr bringt, steht außer Frage. Aber das ist auch nicht das, was SMT oder CMT verhindern wollen. Sondern eben möglichst wenig Transistoraufwand und möglichst viel MT Leistung soll hinten raus kommen.
Im konkreten Fall von SMT wäre ein Core gegen einen Core mit SMT im Schnitt natürlich im Nachteil. Aber genauso wären zwei Cores gegen zwei Cores mit SMT im Nachteil. Das Spiel lässt sich ewig weiter treiben.

Um die gleiche Leistung bei einem i3 zu bekommen, müßte man die Taktrate mindestens verdoppeln. Analog verhält es sich zwischen einem i7 3770 und einem Xeon E5 2687W, und das ist letztlich unrealistisch.
...
Das ist nur in grober erster Näherung richtig, nur wird der Spaß doch erst ab Faktor 2 und größer interessant. Wenn man den Gedanken weiterspinnt, laufen viele Programme immer noch nur single threaded, d.h. ein Single Core mit viel Taktrate wäre für die Software optimal. Ein Pentium G Single Core müßte also die achtfache Taktrate haben, um überhaupt mit einem Xeon E5 2687W mitzuhalten, das sind dann 24,8 GHz bei maximal 150W TDP.
...
S771 war das eher, aber früher haben andere CPU Hersteller das Server Segment stärker abgedeckt.

Du argumentierst du viel in extremen. Das i3 zu i5 Beispiel muss bei weitem nicht auf Top Modell vs. Topmodell hinauslaufen. Und soll es auch gar nicht.
Bekanntermaßen gibt es auch 3GHz Quadcores. Ein i3 mit viel Takt, sagen wir 4,4-4,5GHz hätte schonmal per se ca. 50% Vorteil gegen nen i5 mit 3GHz. Dazu noch anständige SMT Auslastung (20-25%) und du hast ne Single Thread Mehrleistung von ca. 50% und nen Multithread Nachteil von vllt 15%.
Wenn das Anforderungsprofil mehr in richtung weniger Threads geht, wäre der hochtaktende i3 also klar besser aufgestellt.

Auch spricht niemand von nem Pentium G als SingleCore Modell und vergleicht diesen mit dem 8 Kern Xeon als aktuelles Topmodell :(
Meine Aussage war konkret auf die nächst höher Corigen CPUs. Und das sind bei mir nicht gleich die Topmodelle...

Und auch ist/war S771 nicht Mainstream... Sondern S775, denn nix anderes war meine Aussage... Was willst du jetzt mit S771?
 
Vor Vorteil von damals war auch einfach gesagt der FSB. Denn an nem Bus wie dem FSB ist es eher egal, ob du nun eine, zwei, vier oder mehr CPUs dran klemmst.
FSB soll also ein "Vorteil" sein. Nun ja so ziemlich jeder Benchmark der Speicherbandbreite braucht, widerlegt so eine Aussage. Die NUMA-Architektur hat sich nicht ohne Grund auch bei Intel durchgesetzt.

Du argumentierst du viel in extremen. Das i3 zu i5 Beispiel muss bei weitem nicht auf Top Modell vs. Topmodell hinauslaufen. Und soll es auch gar nicht.
Dem OP ging es doch um maximale Leistung. Der höchstgetaktete je verkaufte Intel Prozessor ist der Xeon X5698 mit 4,4GHz (eine CPU speziell fürs Algo Trading), und wenn ich hier die OC Diskussionen manchmal querlese kommen ähnliche Zielwerte bei den SBs und IBs raus. Ergo gewinnst Du mit einem Dual Core maximal 50% Taktrate, wenn man realistisch ist weniger. Der Factory OC Xeon X5698 hat keinen TurboMode mehr, die OC CPUs auch nicht mehr, d.h. der Taktratenvorteil für einen hypothetischen i3 schrumpft ganz massiv zusammen. Der Xeon E3 1230v2 ist momentan der kostengünstigste nicht übertaktbare IvyBridge Quad Core Prozessor. Der erreicht mit 2 Cores 3,7GHz: 4,5/3,7=121,6%. Nunja, so gut sieht das nicht aus. 20% merkt man kaum. Beim Algo Trading sieht das wahrscheinlich wegen der Latenzen anders aus, aber das macht man als Normalo eh nicht. Bei MT Benchmarks sieht ein aufgebohrter i3 gegen den E3 eh kein Land, dazu wären Taktraten um die 4,5GHz viel zu niedrig.
 
Wieso reist du die Wörter aus dem Zusammenhang... Klar ersichtlich steht dort Vorteil in Verbindung mit der reinen CPU Anzahl... Die Erklärung quotest du auch gleich munter mit.
Das es heute keinen FSB mehr gibt, hat Gründe, die überhaupt nicht von Belang sind für das Wörtchen "Vorteil" rein bezogen auf die Machbarkeit bzw. Einfachheit der Realisierung von mehr als einem Sockel.


Und der OP ist für die Taktdiskusion auch nicht verantwortlich... Sondern das war konkret Bucho, der hier aus seiner Sicht Intels Taktstagnation aktuell kritisch gegenüber steht. Und genau darum dreht(e) sich die Argumentation.
Es waren nur Beispiele. Nicht mehr und nicht weniger. Einen aktuellen Ivy Quad gibts zwischen 3,0 und 3,5GHz.
Einen aktuellen Ivy Dualcore als T Modell mit ner TDP Einstufung von 35W schafft es auf 2,9GHz...
Klar erkennbar sollte doch sein, das zwischen 35W und 150W Einstufung (extrem) knappe 4,3x liegen. Von 2,9 auf 4,5GHz aber gerade mal gute 1,5x. Der Rest kann spielend in Spannung versenkt werden... Und das ist bei weitem noch mehr Luft als benötigt wird.
Und dabei ist Dual auf Quadcore auch gleichmal doppelte Leistung. Wie ursprünglich schon angesprochen. Von Quad auf Hexacore sind nur 50% nötig. Und von 77W Einstufung beim default Quad sowie 65W beim S Modell bleiben immernoch mehr als doppelt Luft bis 150W Limit! Gleiches Spiel in Bund. 3,5 respektive 3,1GHz zu 4,5GHz und genügend Reserve für Spannungskorrektur nach oben. Und du hast deinen 4,5GHz Quadcore, der dem 3,2GHz Hexacore im SingleThread deutlich davon rennt und im MT immernoch nicht nennenswert nachsteht.

PS: nur weil die Xeon Umsetzung keinen Turbo hatte, heist das nicht, das es nicht geht... Denn es geht natürlich auch. Multi anheben und dennoch für weniger Threadauslastung nen höheren Multi drauf machen ist nämlich machbar. Da es alles nur Theorie ist mit den Taktungen hier, kann man das genau so wenig grundsätzlich ausschließen wie eben annehmen.

EDIT: und weil du gerne über Server CPU sprichst :fresse:
Ich erkenne zumindest zwischen den Hexacore und den Oktacore Modellen hier genau das Gegenteil von dem, was sich sagte. Nämlich Intel vermischt scheinbar nicht. Obwohl es machbar wäre.
Der schnellste Hexacore Xeon E5 der 260xx Reihe für S2011 ist, wenn ich das jetzt richtig sehe, der 2640. Kommt gerade mal mit 2,5GHz. Der nächst größere ist schon ein Oktacore. Nämlich 2650, taktet aber nur mit 2GHz. Dafür aber 33% mehr Cores. Diese 33% wären ziemlich genau erreichbar mit 2,66GHz bei nem fiktiven Hexacore 2560 ;)
 
Wieso reist du die Wörter aus dem Zusammenhang...
Viele CPUs an einen FSB hängen ist sinnfrei, denn die zusätzlichen CPUs verbrauchen immer mehr Strom aber die Gesamtrechenleistung wird faktisch nicht mehr größer. Bis auf wenige exotische Anwendungsfälle bringt das nichts. ccNUMA existiert nicht ohne Grund.

Einen aktuellen Ivy Dualcore als T Modell mit ner TDP Einstufung von 35W schafft es auf 2,9GHz...
Ja, und das belegt einen lineare Anstieg des Stromverbrauchs? Zwischen den Xeon E3-1280v2 und E3-1290v2 erfolgt ein steiler Anstieg der TDP. Bis auf die 0,1GHz Taktfrequenz gibt es keinerlei Unterschiede zwischen den CPUs. Hier deutet sich ziemlich stark ein exponentieller Anstieg des Verbrauchs abhängig von der Taktfrequenz an. Durch die TDP Klassen, erscheint das ganze bei den anderen CPUs linear anzusteigen, obwohl die CPUs unterschiedliche Leistungsaufnahmen haben. Bestenfalls kann man über die jeweils höchstgetakteten CPUs in einer TDP-Klasse die Leistungsaufnahme abschätzen.
Klar erkennbar sollte doch sein, das zwischen 35W und 150W Einstufung (extrem) knappe 4,3x liegen.
Es sind zwei komplette verschiedene Dies. Der Xeon E5 hat doppelt so viele Speicherkanäle, er hat doppelt so viele PCIe Lanes, er hat sehr viel mehr Cache. All das ergibt einen höherere Grundleistungsaufnahme eines Xeon E5.

Die Leistungsaufnahme ergibt sich eben nicht aus 8xCore_TDP=CPU_TDP, die Sache ist komplizierter.

Von 2,9 auf 4,5GHz aber gerade mal gute 1,5x.
Es ist eine andere Welt, wenn der Anstieg exponentiell erfolgt.
PS: nur weil die Xeon Umsetzung keinen Turbo hatte, heist das nicht, das es nicht geht...
Der Xeon X5698 hat eine spezifizierte maximale Gehäusetemperatur von ca. 40°C - nein da geht nicht mehr viel.
Der schnellste Hexacore Xeon E5 der 260xx Reihe für S2011 ist, wenn ich das jetzt richtig sehe, der 2640. Kommt gerade mal mit 2,5GHz.
Es ist der E5-2667, 2,9GHz, 130W TDP, desweiteren sollte man den E5-1660, 3,3GHz, 130W TDP nicht außer acht lassen.
 
Der Threadersteller spielt mit einem 19" Bildschirm mit einer Auflösung von 1.280x1.024! Kein Wunder reicht ihm die Hardware für alle Spiele locker aus :d Es kommt halt immer auf den eigenen Anspruch an :)
 
jdl, nochmal das FSB Argument sollte schlicht und ergreifend die einfache Machbarkeit zeigen.
Und bekanntlich ist ein Quadcore Core2 auf S771/S775 Basis auch nur ein doppelter Dualcore. Nicht so exzelente Skalierung, keine Frage, aber es ist einfach umsetzbar. Genau so wie man eben mit nem Dual CPU S771 und zwei Dualcores annähernd die Leistung eines Single Quads bei gleichem Takt und gleichem Cache erreicht hat. -> Fakt. Den Test hab ich selbst durchgeführt, und das System hab ich hier.

Es ändert also nix ander Tatsache der einfachen Machbarkeit. Und um nix anderes ging es in der Aussage.
Da kannst du noch so viel mit NUMA Nodes kommen. Es bleibt dabei, das es früher schlicht so gehandhabt wurde. Wie viel am Ende bei rum kommt, hängt von vielen Faktoren ab. Nicht nur von NUMA Node ja oder nein.


Zum Rest sag ich jetzt nix. Du willst nicht sehen, worauf ich hinaus will. Es waren theoretische Überlegungen. Und du stützt dich einzig und allein auf aktuell zu sehendes, um technisch machbares zu benennen oder zu bezweifeln. Das ist aber fernab jeglicher Theorie von Möglich. Und genau darum gings, nicht um aktuelle Umsetzungen.
Das gleiche gilt für den Turbo, das gleiche gilt für die TDP Vergleiche usw.
Ich bleibe auf jedenfall dabei. Es wäre machbar. Und Intel würde es machen, wenn es Sinn hätte. Da es das scheinbar nicht hat, wirds nicht so kommen.
 
Ich finde es ganz gut das so wenig Innovation geboten wird. Das schont meinen Geldbeutel :).
2013 werde ich vermutlich so wenig Geld in Hardware investieren wie noch nie.
Zuerst war ich enttäuscht über das bisher gebotene im CPU und Grafikkartenbereich aber andererseits gibt es noch viele andere tolle Investitionsmöglichkeiten im Leben ;).

Eventuell wird mit einer Insolvenz von AMD der CPU-Bereich etwas interessanter wenn ein großer wie Google die dann aufkauft ;-)
 
warum freuen sich eigentlich so viele darauf, dass AMD pleite geht und glauben auch noch, das irgendwer in einen freiwillig Machtkampf mit Intel einsteigen wird?

Seit froh, dass es AMD noch gibt und sieh auch noch Konkurenzfähig sind.
 
Ich finde es ganz gut das so wenig Innovation geboten wird. Das schont meinen Geldbeutel :).
2013 werde ich vermutlich so wenig Geld in Hardware investieren wie noch nie.
Zuerst war ich enttäuscht über das bisher gebotene im CPU und Grafikkartenbereich aber andererseits gibt es noch viele andere tolle Investitionsmöglichkeiten im Leben ;).

Eventuell wird mit einer Insolvenz von AMD der CPU-Bereich etwas interessanter wenn ein großer wie Google die dann aufkauft ;-)

Du bist aber auch nicht ganz lecker, oder ? i7-3930K und motzt, schlimmer noch als ich :d
 
jdl, nochmal das FSB Argument sollte schlicht und ergreifend die einfache Machbarkeit zeigen.
Ich hätte ein Smiley hinzufügen sollen, es war eher frotzelnd gemeint.

Zum Rest sag ich jetzt nix. Du willst nicht sehen, worauf ich hinaus will.
Doch, nur scheint es mir, daß Du in Deinem Überschwang die technischen Probleme nicht so ganz sehen willst. Ich halte einen Zielwert von 4,5GHz mit aktueller Technik für realisierbar. Aber der Stromverbrauch wird deutlich höher sein, als Du Dir das so vorstellst.

---------- Post added at 20:36 ---------- Previous post was at 20:03 ----------

Seit froh, dass es AMD noch gibt und sieh auch noch Konkurenzfähig sind.
Naja, daran haben mittlerweile viele ihre Zweifel.
 
warum freuen sich eigentlich so viele darauf, dass AMD pleite geht
Das hat nichts mit darauf freuen zu tun. Das Hardwaregeschäft ist nunmal sehr schnelllebig und die, die da nicht mitkommen werden früher oder später geschluckt (3Dfx, ATI zb. wurden aufgekauft. IBM, Cyrix, SiS, Texas Instruments, Transmeta,.... haben mal x86 Prozessoren hergestellt. Via führt nur mehr ein Nischendasein).

und glauben auch noch, das irgendwer in einen freiwillig Machtkampf mit Intel einsteigen wird?
Es gibt sehr viel größere Fische im Teich als Intel...
Mal 2 Beispiele: IBM könnte zwar selbst x86 Prozessoren herstellen (die haben eine Lizenz) hat aber kein Interesse daran. Samsung hat vor ein paar Jahren mal angekündigt das sie was im Prozessorbereich machen wollen (keine Ahnung ob die damit ARM gemeint haben).
 
Doch, nur scheint es mir, daß Du in Deinem Überschwang die technischen Probleme nicht so ganz sehen willst. Ich halte einen Zielwert von 4,5GHz mit aktueller Technik für realisierbar. Aber der Stromverbrauch wird deutlich höher sein, als Du Dir das so vorstellst.

Gemessen an CPUs der Vergangenheit und derem möglichen OC Potential denke ich schon, das das machbar ist.
Wie gesagt, man schaue auf Phenom II, Phenom I, Core2 65nm, Nehalem Quads, letzte Netburst CPUs usw.
Was den Takt der Verkaufsmodelle vs. das, was unter Luft/oder Wasser des heimischen PCs machbar ist angeht, dürfte Sandy/Ivy aktuell wohl deutlich! mehr Reserven bieten. Und das, obwohl der Takt der Retailmodelle ja selbst mit Turbo eher stagniert. Je nachdem, wogegen man ansetzt.
 
...
Den Vergleich zu älteren Generationen, vor allem weit vor Core2 finde ich an der Stelle deswegen etwas untrivial. Da eben wie oben schonmal erwähnt, die Produktpalette deutlich in die Breite gegangen ist. Wärend seinerzeit quasi alles aus einem Guss war. Ob nun Desktop oder Server. ...

Genau dem wollte ich eigentlich nur widersprechen. Daß eben damals nicht immer alles aus einem Guss war. Gut - zur Zeit bis zu den ersten Pentium Modellen stimmt das da hier im Server Bereich (selbst bei einigen ultra seltenen Dual Systemen <= Pentium 1) die selben CPUs zum Einsatz kamen. Aber eben ab den späteren Pentium 1 Modellen gab' es sehr wohl schon öfters eigene Serversegmente.

...

Dem stehen aber deutlich (wie ich finde) mehr Gegenbeispiele entgegen ;)
Mit aus einem Guss meinte ich eher die Sachen wie Single/Dual Sockel 5, Single/Dual Slot 1, Single/Dual Sockel 370.
Das sind die Platformen für P1, P2 und P3.

Neben den Sockel 5/7 Pentium /MMX gab' es eben die Sockel 8 Pentium Pro Systeme. Kann man also recht gut vergleichen mit:

Sockel 7 zu Sockel 1155 = Mainstream und Sockel 8 (Single, Dual) zu Sockel 2011 (Single, Dual) und eventuell Sockel 8 Quad zu Sockel 1567 (wobei man letzten Vergleich vielleicht etwas ausklammern kann da es beim Skt 1567 keine aktuelle Architekur [wie Sandy, Ivy oder Haswell] gibt)
Gut, es gab' für den Sockel 8 auch Desktop Boards - was jedoch stark den Vergleich zu Sockel 2011 zeigt wo es dies genau so gibt.

Danach der Slot 1 zu 1155 = Mainstream und Slot 2 zu Sockel 2011 für Server. Und ja - es gab' auch Dual Slot 1 im Desktop und Server Bereich - was ich jetzt aber wieder analog zu Sockel 1155 sehe (ist auch Mainstream und trotzdem gibt es davon eine Serversparte)

Und Sockel 370 decke ich noch mit Slot 2 für den Serverbereich ab da sich der dort recht lange gehalten hat.
Also Sockel 370 zu Sockel 1150 (schon "neuere" Architektur wenn man so will) = Mainstream und Slot 2 (Single, Dual) zu Sockel 2011 (Single, Dual) sowie Slot 2 Quad zu Skt 1567.

(Slot 2 war zur Zeit des Sockel 370 durchaus noch aktuell mit den Coppermine Server Varianten Cascades mit 1 und 2MB Cache die sich damit doch deutlich zu den 256kB Cache Versionen der Desktop Skt 370 P3s unterscheiden)
Und ja nachdem es keine Multicore CPUs gab' konnte man da nicht einfach mehr Kerne reinklatschen und sagen "das ist nun High End Server only a'la Skt 1567, aber dies hat man eben mit mehr Sockel Mainboards erreicht.

Somit habe ich recht schön Deine Gegenbeispiele mit P1, P2 und P3 abgedeckt.

...
Erst mit dem Ende vom P3 bzw. Anfang vom P4 hat man im Serverbereich angefangen, dauerhaft ne dedizierte Serverplatzform zu plazieren. Slot 2 lass ich an der Stelle so mal ausgeklammert, weil es eben auch Slot 1 in Dual Ausführung gab.
Wieso lässt Du Slot 2 da ausgeklammert? Hat ja wie ich oben schon angeführt habe die P2 und P3 Sparte mit echten eigenen CPUs abgedeckt und das eben sogar bis zur Quad Ausführung. Slot 1 Dual sehe ich da eben wie oben schon geschrieben die derzeitige Xeon E3 Serie.

...
Auch zu erwähnen wär hier noch S775/S771. Denn das ist im Grunde das selbe, nur mechanisch inkompatibel. Eine S771 CPU ist das gleiche wie ne S775 CPU, nur eben mechanisch inkompatibel.

Das stimmt - die Skt 771 CPUs waren mehr oder weniger genau die gleichen CPUs wie auf dem Skt 775 nur eben mechanisch inkompatibel.
War allerdings beim Sockel 603 ja auch so - also im Prinzip auch nur ein Pin inkompatibler Sockel für Willamette, Northwood und Gallatin P4 CPUs welche es fast alle (ein paar Gallatin ausgenommen) auch so am Sockel 423 und 478 für den Desktop gab. Ausser daß es halt beim Skt 771 wie beim auch beim Skt 603 Dual Boards im Serverbereich gab.

...
Wobei man da auch etwas differenzieren muss. Denn der Code muss auch damit umgehen können. Der größte Cache nutzt nix, wenn die Software und die Hardware damit nix anzufangen weis. Die Software muss also auch mit der Zeit gehen ;) Sonst wird das alles nix.

Naja stimmt nur bedingt. Klar muss die Software an die CPU angepasst sein, aber der Cache kann trotzdem etwas bewirken ohne daß die Software speziell darauf optimiert ist. Sieht man ja recht gut bei einigen Benchmarkvergleichen von Sockel 775 Dual / Quad Core Modellen. Trotz gleichen Kern und Takt haben die grösseren Caches da teilweise deutlich mehr Leistung. Sonst wäre ja ein Celeron Dual Core E3300 (Wolfdale 1M) mit 2,5GHz / 200MHz FSB genau gleich schnell wie ein Pentium Dual Core E5200 (Wolfdale [2M]) mit 2,5GHz / 200MHz FSB. Sind sie aber nicht ( Budget CPU for Enthusiasts: Intel Celeron E3300 Processor Review. Page 5 - X-bit labs )

Die Sprungvorhersage wurde bei den CPUs auch laufend verbessert und diese in Kombination mit grossen Daten Caches bewirkt eine Beschleunigung ohne daß speziell dafür optimiert werden muss. Mehr Daten Cache = mehr Chance auf einen "Hit" anstatt "Miss".

@jdl
fdsonne wollte mit den FSB nicht als leistungstechnischen Vorteil darstellen sondern eben nur daß es mit diesem leichter war mehrere Kerne zu kombinieren weil diese eben über den FSB kommunizierten und nicht wie heute mit Interconnects zwischen den Kernen und CPUs bei Multi CPU Plattformen bieten muss.

...
Was den Takt der Verkaufsmodelle vs. das, was unter Luft/oder Wasser des heimischen PCs machbar ist angeht, dürfte Sandy/Ivy aktuell wohl deutlich! mehr Reserven bieten. Und das, obwohl der Takt der Retailmodelle ja selbst mit Turbo eher stagniert. Je nachdem, wogegen man ansetzt.

Jup - und genau das ist es was ich eben etwas erschreckend finde warum Intel da nicht weitermacht und den Takt steigert.
 
Zuletzt bearbeitet:
Es erinnert irgendwie beim Release der X6 von AMD, ja okay er ist jetzt noch nicht schneller als ein X4, aber die zeit wird kommen ^^
http://www.pcgameshardware.de/CPU-H...iele-profitieren-von-sechs-CPU-Kernen-746325/
Zusätzlich ist der X6 noch beim packen von rar/zip Dateien und beim umwandeln von Audio&Video Dateien schneller. Photoshop profitiert auch von den zwei zusätzlichen Kernen, gegenüber dem X4.

Aber dennoch glaube ich nicht das die FX-8xxx in paar Jahren das Feld von hinten aufräumen durch Software Anpassungen. Das wird eher ähnlich wie mit dem C2Q Q6600, man wird auch in ein paar Jahren noch die neusten Spiele mit spielen können, aber bewegt sich im (unteren) Mittelfeld.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh