Intel "Skylake"-Prozessoren sollen erst im August kommen

Ich glaube auch nicht wirklich mehr daran, dass Skylake so einen großen Schub bringt wie zB SandyBridge, sonst würde es ja keinen Sinn machen nach Skylake(-K) noch Broadwell-E vorzustellen, wenn Skylake gleich schnell oder schneller wäre.
Vermutlich bleibt es wieder bei <10% Steigerung, dafür erhöhter Effizienz sowie den Vorteilen des neuen Befehlssatzes AVX512, der aber soweit ich weiß nur für einige wenige Programme relevant ist (zB Videobearbeitung), aber da dann seinen Vorteil ausspielen kann.


Chingchingchingching.. röchtiiig !
So geht deren Spiel :P
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist 2011-3 ?
Welcher Intel Prozessor ist leistungstarker von 300-400€ als mein Intel I7 3770 für Videoschneiden und Rendern?
Mainboard habe ich Gigabyte Z77 D3H
Grafikkarte Gigabyte HD5770 die schon 5Jahre im mein PC habe welche Grafikkarte ist deutlich Stärker für Videoschneiden und Rendern? Wäre die GTX970 sehr gut?
Lohnt sich noch mehr RAM Speicher einzubauen das Rendern von Videos deutlich schneller wird, ich habe 8GB eingebaut lohnt auf 16GB aufzurüsten ?
Mein Videoschneide Programm Pinnacle Studio 18Ultimate ist sehr gut, der soll in der lage sein mit noch leistungstärken Hardware noch schneller zu Rendern auch in HD.
 
Zuletzt bearbeitet von einem Moderator:

Der Sockel 2011-3, auch als LGA 2011-v3 oder Sockel R3.
Beim Sockel 2011-3 handelt es sich um den Nachfolger des Sockel 2011 für den High-End-Desktop- und Server-Bereich.
Als Einsteigermodell gilt da der Intel Core i7-5820K.
Hier würdest du allerdings ein neues Mainboard, sowie passenden DDR4 RAM benötigen.
 
Ich hatte bis 2014 auch noch den i7 2600K im einsatz und der wurde aus Just for Fun gegen einen i7 4770K getauscht > Kein Unterschied... Da werde ich auch bleiben, die Power reicht noch locker aus.
 
Dito. Ich habe zwar einen Sandy-E (und den auch nur, weil er 2 mal PCIe x16 zur Verfügung stellt), aber einen Grund zum Wechseln sehe ich auch nicht. Ive-E hatte kaum Mehrleistung, genau wie Haswell-E, wobei ich beim Haswell-E die Beschneidung der Lanes beim kleinsten Modell und den Umstand, dass nur der 5960X 8 Kerne hat, für verarsche halte.

Das ist das sinnvollste was Intel machen konnte. 8 Kerne für 600€ wären schön, aber wo soll sich dann die 6- Kerner positionieren und wo ein 4790k? Und was soll AMD machen? CPUs für 100€ verschachern? Na dann gute Nacht. Solange von AMD nichts kommt, passiert auch bei Intel nicht viel. Man ist ja jetzt schon um den Faktor 2 (ohne OC schneller)
 
Ich glaube auch nicht wirklich mehr daran, dass Skylake so einen großen Schub bringt wie zB SandyBridge, sonst würde es ja keinen Sinn machen nach Skylake(-K) noch Broadwell-E vorzustellen, wenn Skylake gleich schnell oder schneller wäre.
Die Enthusiastenplattform hängt doch schon lange hinter dem Mainstream zurück, im Moment gerade mal nicht, aber ab Boardwell wird es wieder so sein. Das sind aber auch zwei verschiedene Plattformen für unterschiedliche Zielgruppen, der S. 2011(-3) ist ja vor alle für Xeons, also Profis und wird nur nebenbei noch für Enthusiasten verwendet. Profis wollen vor allem stabile HW, weshalb es auch Sinn macht dort nicht sofort die neueste Architektur zu verwenden.

Der Performanncevorteil der Highend Plattform ergibt sich aus der größeren Anzahl an Kernen der CPUs und damit kann sie bei Anwendungen die wirklich die Kerne gut nutzen die Nachteile bzgl. Takt (der i7 4790k ist der schnellste Haswell @Stock) und IPCs mehr als ausgleichen. Deshalb machen Haswell-E und auch Broadwell-E auch dann noch Sinn, wenn Skylake auf dem Markt ist. Zwar würde ich mir auch wünschen das Intel Skylake-E deutlich schneller bringen würde, aber den Gefallen wird Intel uns wohl leider nicht tun.
 
Haswell-E ist doch Sandy überlegen?
 
Bin vom I5 2500K auf den I5 4690K umgestiegen, ist schon ein deutlicher Unterschied. Bin sehr zufrieden hat sich voll gelohnt.

war der 2500K nicht auf 4,5+ ghz ?
falls er 4,5+ ghz OC betrieben wurde, würde mich ein deutlicher unterschied sehr wundern.
 
Für einen deutlichen Unterschied sagen die Messwerte aber etwas anderes ;) durch einen deutlichen Takt Unterschied wäre das möglich, bei gleichem Takt hält sich der Unterschied stark in Grenzen.

Aber Aufrüsten um was neues zu haben und seinen basteltrieb zu befriedingen ist natürlich ein legitimer Grund, wenn man grad das Geld und die Zeit hat :)
 
Zuletzt bearbeitet:
Jaja, der Basteldrang :d
Wird bei mir auch in den nächsten Tagen wieder massiv zum tragen kommen.
 
Hehe, Prüfungen sind bei mir jetzt auch erstmal vorbei, Semesterferien ahoi :d mein sandy wird aber erst ersetzt, wenn die Vernunft das zu lässt, und dann gleich gegen was mit mehr Kernen (nicht Modulen :S). Aber die 6-8 kerner müssen erstmal Mainstream werden :/ naja abwarten, Tee trinken.
 
Außerdem war das Teil schon etwas über 2 Jahre im Rechner. Zeit für was Neues!
Nur sind die Fortschritte bei der CPU Perfomance bei Intel in den letzen Jahren eher gering gewesen, zumindest bei gleicher Anzahl an Kernen. Die größten Vorteile liegen bei der iGPU und den Featues des Chipsatzes.
 
mein 2600er Sandy läuft seit Anfang an mit 4,5ghz @ 1,32V. Aus reinem Basteltrieb hab ich schon 2x das Gehäuse und 5 mal das Mainboard und alle HDDs + Monitor gewechselt. Ein neues Windows brauchte man Dank Win 7 auch nicht. So langsam wird es mal zeit für was neues. Sonst muß ich mir nen neues Hobby suchen :d
 
Und dann muss es vor allem auch Spiele geben, die das neue System ausreizen. Aber dann gibt es wieder einen Shitstorm, weil die breite Masse es nicht einsieht, die Uraltsysteme nach 10 Jahren mal wieder aufzurüsten. :(
 
Nur sind die Fortschritte bei der CPU Perfomance bei Intel in den letzen Jahren eher gering gewesen, zumindest bei gleicher Anzahl an Kernen. Die größten Vorteile liegen bei der iGPU und den Featues des Chipsatzes.

Richtig, aber Kleinvieh macht auch Mist ;)
Im Schnitt ca. 5-7% mehr pro Takt für jede Generation. Sind inkl. Skylake dann vier Generationen ab Sandy... + Taktvorteil im Stockzustand (wobei das den OCer nicht interessieren dürfte)
Zwischen einem Sandy Stock i7 und einem Haswell Refresh i7 liegen schon ganz paar Prozente... Für 3,5 Jahre ist das nach heutigen Maßstäben durchaus OK... Mit Broadwell und Skylake wirds sicher nicht weniger werden ;) Auch wenn es durchaus noch interessant sein wird, wie man sich ggü. dem hohen Takt des 4790K plazieren wird. -> Sprich ob mehr IPC und weniger Takt = kein Vorteil rauskommt oder ob man deutlich mehr IPC und hohen Takt bringen kann oder gar ein Leistungsrückschritt bei rum kommt.
Geht man von Sandy->Ivy, Ivy->Haswell von 7% und von Haswell->Broadwell und Broadwell->Skylake von 5% mehr pro Takt aus, kommen beim gegenwertigen Taktvorteil zwischen 3,5GHz allCore Turbo 2600K und 4,1GHz AllCore Takt spekuliert für einen Skylake am Ende 47% mehr Performance bei rum. Wenig ist das defintiv mal nicht! Wenn man sich ansieht, was AMD in ähnlichen Zeitabständen an potentieller Mehrperformance bei rausholt... :wink:

PS: das ist/wäre eine ähnliche Leistungssteigerung wie von einem Core2Quad Q9550 zu nem Stock 2500K Sandy. (inkl. IPC + Taktvorteil)
-> wo im übrigen auch knapp 3,5 Jahre zwischen lagen :wink:

Ich bin guter Dinge, vor allem auch, was Intel im Bereich GPU macht... Mit den GT3e und ggf. GT4 Ablegern bei gesockelten CPUs wird man dem Kaveri von AMD Konkurenz machen können und dabei in der CPU Power bedeutend schneller unterwegs sein. Das hat natürlich auch seinen Preis. Ob allerdings Intel die 300€ Marke stark überschreiten wird, wage ich ehrlich gesagt noch zu bezweifeln. (mal den Dollarkurs außen vor)
Kaveri Refresh wird es bei AMD sicher nicht rausreißen, das Bandbreitenproblem von DDR3 im Dualchannel hat er auch/wird auch er haben. Und bis Q2-Q3 2016 wird noch ne lange Durststrecke auf die Kunden zukommen...
Könnte mir sogar vorstellen, Intel geht für den Desktop Markt den gleichen Weg wie mit den Xeons -> sprich mit/ohne GPU bei sonst gleichen Restmodellen...
 
Zuletzt bearbeitet:
Naja, wenn man bedenkt, dass sogar einige sandy diese Prozent mit oc rausholen können, sind die immer noch gut dabei. Bei einem Upgrade ist mir persönlich wichtig, was die cpus @ max oc differenziert. Bin mal gespannt auf skylake (falls da ca. 25 Prozent oc unter Luft drinnen sind, ist der wahrscheinlich gekauft)
 
Sandy hat halt den Vorteil des relativ niedrigen Basistaktes...
Obenrum wird der Spaß halt interessant. Nen 5GHz Sandy zu betreiben in 24/7 Settings, die auch mal längere Volllast abkönnen ist nun nicht unbedingt alltäglich. Da ist eher so um die 4,5GHz realistisch(er). 4,5GHz + 25% mehr pro Takt bei Skylake währen dann 5,6GHz auf der Sandy, die man erreichen müsste... Was durchaus schwer ist.

Ich würde aber mal pauschal vorraussagen, dass Broadwell und Skylake faktisch keine 25%+ OC zulassen. Zumindest nicht mit normalen Mitteln und auch nicht 24/7. Der Basistakt ist einfach mittlerweile zu hoch.
Und Intel ist alles andere als gezwungen, da Taktfreudige CPUs zu designen. Warum auch, Konkurenz ist in den Regionen einfach nur das eigene Produkt. Da geht man eher auf Effizienz, auf Packdichte, auf Flächenersparnis usw. usf. Was den Finanzen am Ende zugute kommt. Den OCler unter uns aber alles andere als erfreulich stimmt ;)
 
Wie du schon sagtest, oc ist eben relativ zum basistakt ;) natürlich erreicht (fast) kein Sandy diesen Prozentsatz Alltags tauglich, aber ich würde sagen gut 30-40 Prozent schaffen mit einem potenten kühler durchaus 4, 8 GHz. Die mehrleistung von skylake steht natürlich trotzdem außer Frage. Aber wie spürbar der Unterschied dann (vor allem bei Spielen) ausfallen wird ist halt fragwürdig. Das man die oc Erwartungen im Verhältnis zum Basis Takt bei allen sandy Nachfolgern herabsetzen muss, ist klar, das Manko integrierter Schaltungen eben ;)
 
Wann ist eigentlich mit offiziellen Infos zu rechnen?
 
Also ich sitze auf einen I5-2500k der seit Jahren mit 4,5ghz stabil läuft ohne sonderlich auf den Staubgehalt meines Gehäuses zu achten. :asthanos:
Meine nächste Investition wird eine neue Grafikkarte zur Ablösung meiner GTX670. Generell kommt es mir so vor als ob nvidia/AMD einfach nicht hinterher kommen Grafikkarten zu Entwickeln
welche auf Augenhöhe der CPUs sind. DX12 wird die Situation wahrscheinlich noch verschärfen und am Ende ist es fast egal was du da drin hast da alles vollkommen ausreicht.
Die Träume von der achso tollen KI in Spielen und anderen CPU lastigen Anforderungen habe ich schon lange zu Grabe getragen. :fresse:
 
Richtig, aber Kleinvieh macht auch Mist ;)
Im Schnitt ca. 5-7% mehr pro Takt für jede Generation.
Natürlich, aber im Vergleich zu den Sprüngen die CPU früher, also z.B. so vor rund 10 Jahren mit jeder Generation gemacht haben, ist das spätenstens seid der ersten Core-i Generation halt wenig geworden, auch wenn man sieht wie sehr die GPUs (auch die iGPUs) noch immer zulegen, ist das bei den CPUs eben (pro Kern) wenig geworden und mehr als 4 Kerne spendiert Intel wohl auch den Skylakes für den Mainstream S. 1151 leider nicht.
Mit Broadwell und Skylake wirds sicher nicht weniger werden ;)
Bei Broadwell ist der Vorteil wohl auch nur in dem Rahmen, bei Skylake, der ja wieder vom Team kommt das auch Sandy Bridge entwickelt hat, dann hoffentlich wieder mal größer, aber je effizienter die aktuellen CPUs schon sind, umso schwerer wird es offenbar noch drauf zu legen, die Latte liegt halt schon verdammt hoch.
Auch wenn es durchaus noch interessant sein wird, wie man sich ggü. dem hohen Takt des 4790K plazieren wird. -> Sprich ob mehr IPC und weniger Takt = kein Vorteil rauskommt oder ob man deutlich mehr IPC und hohen Takt bringen kann oder gar ein Leistungsrückschritt bei rum kommt.
Der 4790k war wohl auch sowas wie ein Trotzplaster für die Kunden, weil Broadwell sich verzögert hat und man trotzdem nicht ohne eine "spürbare" Neuerung bleiben wollte, also hat man dem mal eine richtig spürbare Takterhöhung gegönnt, 10% hatten wird ja schon lange nicht mehr.

Einen schnelleren Broadwell wird es ja wohl nicht geben, aber beim Skylake wird man den 4790k wohl sicher überbieten, sonst hätte Intel dem 4790k wohl weniger Takt spendiert. Wenn der Spitzen Skylake also nur bis 4GHz geht, kann man mehr als 10% IPC Steigerung gegenüber erwarten.
Wenn man sich ansieht, was AMD in ähnlichen Zeitabständen an potentieller Mehrperformance bei rausholt... :wink:
AMD hat sich mit Bulldozer verrannt und die Weiterentwicklungen haben die Konzeptschwäschen auch nicht wirklich kompensieren können. Mal sehen was Zen dann bringen wird, das Potential wie auch die Anforderungen und Erwartungen sind da jedenfalls höher. Aber an Zen arbeiten wohl auch teilweise wieder Leute die schon einmal bewiesen haben, dass sie gute Architekturen schaffen können und in der Vergangeheit war AMD ja sehr innovativ, ob die Multimedia-Befehlssatzerweiterung (3DNow kam vor SSE), 64Bit, native Dualcores, intergrierter Memorycontroller, AMD hatte bei vielen Innovationen die heute selbstverständlich sind die Nase vorne. Das nutzt nichts wenn man heute eine Kaufentscheidung treffen muss, im Moment ist AMD eher in einer Sackgasse und muss seine CPUs / APUs wie Sauerbier anbieten und kann sie nur über den Preis verkaufen, aber abschreiben würde ich AMD noch nicht, zumal sie Zen wieder was neues machen und nicht erneut auf dem Irrtum Bulldozer aufbauen.

Ich bin guter Dinge, vor allem auch, was Intel im Bereich GPU macht... Das hat natürlich auch seinen Preis.
Da mich die iGPUs nicht interessieren ärgert mich vor allem der Preis und ich hätte gerne statt einer starken iGPU entweder eine billigere i7 CPU für S. 115x, ohne die Takteinschränkungen der Xeon E3 in Kauf nehmen zu müssen und am Besten mit mehr Kernen.

Ob allerdings Intel die 300€ Marke stark überschreiten wird, wage ich ehrlich gesagt noch zu bezweifeln. (mal den Dollarkurs außen vor)
Der Dollarkurs ist das große Risiko, die Dollarpreise werden sich sehr wahrscheinlich wieder an denen der Haswell / Braodwell Vorgänger orientieren, da hat Intel ja schon länger recht fixe Preispunkte definiert und man bekommt mit jeder Generation dann eben etwas mehr IPS und vielleicht etwas meht Takt bei der entsprechend positionierte CPU.
Kaveri Refresh wird es bei AMD sicher nicht rausreißen
Kaveri Refresh wird doch wie Haswell Refresh: Eine Notlösung weil ein echt innovativer Nachfolger noch nicht zur Verfügung steht und niemand so vom Hocker reisst, dass er vom Vorgänger auf die Refresh Version updaten wird und wenn man nach Erscheinen des Refresh kauft, schaut man sich halt an, was welcke konkrete CPU kostet und leistet. Kaveri Refresh dürfte vor allem den Nachteil haben, dass die noch zu einen besseren Wechselkurs eingekauften Vorgänger massenhaft in den Lager europäischer Händler liegen, womit es für Kaveri Refresh schwer wird ein besseres P/L Verhältnis zu bieten, zumindest für die europäischen Kunden.

Könnte mir sogar vorstellen, Intel geht für den Desktop Markt den gleichen Weg wie mit den Xeons -> sprich mit/ohne GPU bei sonst gleichen Restmodellen...
Das würde ich mir wünschen, aber ich denke die Dies mit defekter iGPU gehe in die Xeons, das sind wohl kaum andere Dies sondern nur welche mit deaktivierter iGPU und sei es weil sie einen Defekt hat.

Sandy hat halt den Vorteil des relativ niedrigen Basistaktes...
Ist das wirklich ein Vorteil? Eigentlich nur für Übertakter die ihren Erfolg vor allem daran messen wie viele % mehr sie rausgeholt haben. In meinen Augen ein bescheidenes Kriterium, denn für mich entscheidet was ich am Ende für eine Performance erreiche und ob ich die Performance schon ab Werk bekommen ohne Hand anlegen zu müssen, ist mir das weitaus lieber. Zumal das Ergebnis dann auch garantiert ist.
Ich würde aber mal pauschal vorraussagen, dass Broadwell und Skylake faktisch keine 25%+ OC zulassen.
Messe das Ergebnis nicht in %, da kannst Du mit jeder neuen Generation eigentlich nur mehr enttäuscht werden. Zumal bisher die Shrink immer dazu geführt haben, dass die Kurve der Leistungsaufnahme über den Takt anfangs immer flacher ist, aber dann bei einer immer Frequenz anfängt immer steiler anzusteigen und damit hohe Taktraten zu ereichen immer schwerer wird. Hoffentlich schafft es Intel bei Skylake diesen Anstieg wieder etwas flacher zu machen und später erfolgen zu lassen.

Und Intel ist alles andere als gezwungen, da Taktfreudige CPUs zu designen. Warum auch, Konkurenz ist in den Regionen einfach nur das eigene Produkt.
Bisher nicht und die Konkurrenz ist daher auch eher im ARM Lager zu suchen, weshalb Intel auch vor allen in die Effizenz bei eher geringen Frequenzen investiert also in eine gute Übertaktbarkeit. Das könnte sich mit Zen ändern.

Duplex, das scheint über den Ansatz bei AMDs APUs bzw. HSA hinaus zu laufen: Statt wenige leistungsstarke Kerne mit vielen einfachen Kernen zu kombinieren, schaltet man komplexe Kerne in mehrer einfach Kerne um wenn die Parallelität dadurch mehr Performance verspricht und genau wie beim Xeon Phi hat Intel hier auf die x86er Kerne statt auf GPUs Kerne. Das hat dann gleich auch noch Vorteile auf der SW-Seite, weil alle Kerne den gleichen Befehlssatz haben. Das wäre natürlich ein Hammer, würde sich aber gut in die bisherige Produktlinie einfügen: Eine CPU die sich bei Bedarf in einen Xeon-Phi verwandelt und wenn von "aggressive 4-way SMT" die Rede ist und es 512 Bit breite FPUs gibt, wären wohl eine Aufteilung in 4 virtuelle Kerne pro physikalischen Kern zu erwaren, ein High-End Skylake (S.1151) wäre damit dann auch ein 16 Threader, denn wie sollte z.B. Windows sonst die Kerne verwalten können?

Wenn das stimmt und im Anbetracht der Tatsache das das für SandyBridge verantwortliche Team Skylake entwickelt hat wäre das nicht so unwahrscheinlich, dann es wären nicht nur bei den Chipsätze der größte Sprung seid langem.

Fried_Knight, da ja wohl das Lizenzabkommen auch die aktuellen Erweiterungen erfasst, könnte AMD zu Intel damit schon gewaltig aufholen, was dann auch die erhöhte Geheimhaltung erklären würde. Dumm nur, dass wird die Ergebnisse wohl erst Ende 2016 sehen werden. Wenn es so wie oben skitziert aussehen würde, dann wäre es aber auch die Bestätigung das der bisherige Ansatz von AMD mit den APUs und HSA ein Irrweg sein dürfte, der ja schon jetzt an der mangelnden SW-Unterstützung krankt.

Eines ist aber jedenfalls sicher: Großartige Taktsteigerungen werden wir nicht mehr sehen, 5GHz sind offenbar eine Grenze über die man mit nicht kommt die Verlustleistung jenseits von Gut und Böse, was aber bei den schrumpfenden Strukturbreiten (auch wenn die genannte 32, 28, 22 oder 14nm mehr Werbung als Realität sind, aber das ist ja schon länger so und nicht nur bei Intel) zu immer größeren Problemen führt (Hot-Spots), weil die Wärme auf immer kleinerem Raum anfällt. Gleichzeitig sind die IPC immer weiter an der Grenze angekommen und könnnen zunehmend nur noch über Spezialbefehle gesteigert werden die gleiche Instruktionen für mehrere Daten glecihzeitig ausführen, was aber auch Grenzen hat und die Kerne sowie die Leistungaufnahmen bei deren Ausführung immer größer werden lässt.

Der Ausweg um mehr Leistung zu ermöglichen ist also die Parallelität zu steigern und auch unterschiedliche Befehle parallel abarbeiten zu lassen, seien es nun unabhängige Befehle eines Thread oder massiv Multithreaded Anwendungen. Bisher gilt da Nutzung des GPU als Lösung, nur hat das bei Grakas den Overhead des Datentansfers als Preis und macht es nur dann sinnvoll, wenn die Aufgaben ausreichend komplex sind um sich trotzdem zu lohnen. AMDs APU Ansatz ist die GPU so eng zu integrieren, dass diese Overhead fast wegfällt und somit selbst kleine aber massiv parallel abarbeitbare Aufgaben von der integrierten GPU profitieren können, was aber wegen der unterschiedlichen Archtiketuren der Kerne eine SW-Unterstützung erfolgert. Nur ist die SW-Industrie tranditionell lahm bei der Anpassung an neue Technologien und es lassen sich auch nicht alle Aufgaben parallel abarbeiten, weshalb Bulldozer mit seiner schlechten SingleThread Performance so gepatzt hat. Der Ansatz eine komplexe CPU dynamsich in mehrere einfache CPUs umzuschalten wäre da ein genialer Kompromiss, da man nicht so viele komplexe Kerne bauen muss (die kostet Platz und haben eine hohe Verlustleistung), trotzdem bei hoher Parallelität viele Kerne gleichzeitig arbeiten lassen kann ohne die SingleThread Performance opfern zu müssen.
 
Natürlich, aber im Vergleich zu den Sprüngen die CPU früher, also z.B. so vor rund 10 Jahren mit jeder Generation gemacht haben, ist das spätenstens seid der ersten Core-i Generation halt wenig geworden, auch wenn man sieht wie sehr die GPUs (auch die iGPUs) noch immer zulegen, ist das bei den CPUs eben (pro Kern) wenig geworden und mehr als 4 Kerne spendiert Intel wohl auch den Skylakes für den Mainstream S. 1151 leider nicht.

Der Vergleich hinkt aber. Früher hat man Performance idR über den Takt und zuungunsten des Verbrauchs erreicht. Schau dir die Mini Kühler an, die auf P1, P2 und P3 CPUs benötigt wurden. Erst mit den späteren Modellen ist man in Regionen vorgedrungen, wo man sich um die Kühlung sorgen machen musste. Bis Intel mit den Pentium D CPUs und fast 4GHz da einfach oben angedeckelt ist.
Heute wird allerdings die Performance in Relation zwischen Effizienz und pro Thread/Core Leistung erreicht.
Das ist halt nicht mehr so einfach wie einfach den Takt verdoppeln... Sollte klar sein :wink: Um so erstaunlicher ist allerdings dabei, dass es Intel nach wie vor hinbekommt, eben jene Leistung pro Thread pro Generation Stückchenweise zu steigern.

Das würde ich mir wünschen, aber ich denke die Dies mit defekter iGPU gehe in die Xeons, das sind wohl kaum andere Dies sondern nur welche mit deaktivierter iGPU und sei es weil sie einen Defekt hat.

Zumindest die GT3e vs. GT3 werden höchstwarscheinlich zwei unterschiedliche DIEs haben. Warum den teuren Cache verbauen, wenn man die GPU nicht aktiviert?
Bin da aktuell noch zuversichtlich... Könnte aber auch ganz anders kommen. Und das GT3e Modell bekommt ala Notebook Modell heute nen gehörigen Aufpreis...

Messe das Ergebnis nicht in %, da kannst Du mit jeder neuen Generation eigentlich nur mehr enttäuscht werden. Zumal bisher die Shrink immer dazu geführt haben, dass die Kurve der Leistungsaufnahme über den Takt anfangs immer flacher ist, aber dann bei einer immer Frequenz anfängt immer steiler anzusteigen und damit hohe Taktraten zu ereichen immer schwerer wird. Hoffentlich schafft es Intel bei Skylake diesen Anstieg wieder etwas flacher zu machen und später erfolgen zu lassen.

Wie soll ich das sonst messen? Absolute Taktraten sind sowas von nichtssagend ;) Den Kunden interessiert die Mehrleistung in Relation. Also in Prozent...
Zum anderen Part, das ist eher eine Frage der Spannung. Rein physikalisch geht der Takt 1:1 in den Verbrauch und die Spannung im Quadrat in den Verbrauch. Hoher Takt = 1:1 höherer Verbrauch. Aber für höheren Takt benötigst du höhere Spannungen. Und höhere Spannungen lassen entsprechend dann den Verbrauch schnell(er) steigen... Das war aber im Grunde schon immer so. Da hat sich heute nix geändert.
Was wir allerdings heute haben, die CPUs werden teils mit sehr niedrigen Basisspannungen ausgeliefert. Willst du da also entsprechend hohe Taktraten drauf OCen, dann benötigst du auch entsprechend mehr Spannung.

Bisher nicht und die Konkurrenz ist daher auch eher im ARM Lager zu suchen, weshalb Intel auch vor allen in die Effizenz bei eher geringen Frequenzen investiert also in eine gute Übertaktbarkeit. Das könnte sich mit Zen ändern.

Welches ARM Lager? Ich sehe da aktuell gar keine Konkurenz für die hier relevanten CPUs. Intel ist eher bestrebt, in Märkte vorzudringen, wo heute ARM wildert. Wobei sich auch ARM CPUs anschicken, dort zu wildern, wo Intel aktuell die Krone auf hat. Letzteres klappt aber einfach nicht im Desktopbereich bspw. Da einfach kein Windows aktuell drauf läuft... Bzw. mit dem RT Windows ggf. das OS, aber keine Software.
Bevor wir uns nicht ovn x86 verabschieden, hat Intel dort extrem gute Chancen weiter die Nase vorn zu behalten.
Bestenfalls im Server und Ultramobilen Segement wäre das eher unwichtig auf x86 zu bauen... Allerdings nutzen gerade Wald und Wiesen Server heute idR Virtualisierung -> also viele Services auf einem Blech. Ist da nur ein Teil x86 dabei, fällt ARM aus dem Raster. Zudem scheint mir auch vieles im Netzwerkbereich auf x86 zu setzen. Und da ist nichtmal die Effizenz oder neueste Technik verbaut. Teils wird da noch mit Core2 CPUs um sich getreten. Hatte jüngst erst ein paar Cisco Router der 2900er Reihe in der Hand, wo Module drin steckten mit irgend so nem Core2 Dualcore Modell.

Aber an Zen arbeiten wohl auch teilweise wieder Leute die schon einmal bewiesen haben, dass sie gute Architekturen schaffen können und in der Vergangeheit war AMD ja sehr innovativ, ob die Multimedia-Befehlssatzerweiterung (3DNow kam vor SSE), 64Bit, native Dualcores, intergrierter Memorycontroller, AMD hatte bei vielen Innovationen die heute selbstverständlich sind die Nase vorne. Das nutzt nichts wenn man heute eine Kaufentscheidung treffen muss, im Moment ist AMD eher in einer Sackgasse und muss seine CPUs / APUs wie Sauerbier anbieten und kann sie nur über den Preis verkaufen, aber abschreiben würde ich AMD noch nicht, zumal sie Zen wieder was neues machen und nicht erneut auf dem Irrtum Bulldozer aufbauen.

Begehe nicht den Fehler und schreib die damaligen Erfolge einzelnen Personen zu... Das geht nicht und ist wenig zielführend. Oder andersrum ausgedrückt. Nur weil der Herr Keller nun zurück bei AMD ist, heist das lange nicht, dass wege ihm dort auf einmal was Bahnbrechendes erscheint ;)

PS: und einige der besagten Neuerungen waren mit größter Warscheinlichkeit ein Grund, warum es AMD heute so geht, wie es ihnen geht ;)
Der integrierte MC, A64 als nativer Dualcore und ein notwendiger nativer Quadcore erzeugte Rückblickend ein massives Problem, nämlich dass AMD nicht wie Intel spottbillig auf Quadcores setzen konnte, indem man zwei Dualcore DIEs zusammen auf einem Träger vereint. Diese Strategie hat schon beim Pentium D geklappt.
Das hat unterm Strich irgendwie alles Vor- und Nachteile. Wäre der Phenom I gleich mit dem Core2 gekommen, würde es AMD wohl heute deutlich besser gehen... Allerdings kam inkl. dem Phenom I einfach bei AMD alles viel zu spät. Es war bestenfalls ein Reagieren auf die Konkurenz. Inkl. dem Problem, der Konkurenz nur noch hinterher zu schwimmen...
 
Der Vergleich hinkt aber. Früher hat man Performance idR über den Takt und zuungunsten des Verbrauchs erreicht.
Natürlich, aber dabei sind eben Performancesteigerungen raus gekommen gegen die diese 5 bs 10% heute lächerlich sind. Natürlich kann man diese heute nicht mehr erreichen, weil man eben beim Takt an einer Grenze gestoßen ist, die man nur mit unverhältnissmäßigem Aufwand (Leistungaufnahme, Kühlung) etwa weiter verschieben kann.
Heute wird allerdings die Performance in Relation zwischen Effizienz und pro Thread/Core Leistung erreicht.
Klar ist die Effizienz heute viel besser, das ist ja auch logisch das man daran arbeiten muss, wenn man beim Takt nicht mehr deutlich höher gehen kann.
Um so erstaunlicher ist allerdings dabei, dass es Intel nach wie vor hinbekommt, eben jene Leistung pro Thread pro Generation Stückchenweise zu steigern.
Wobei das auch teilsweise Augenwischerei ist, weil man eben neue Befehle einführt und die können dann mit mehr Daten auf einmal arbeiten, was dann wieder in IPCs umgerechnert wird, die Steigerungen bei den gleichen Befehle wie sie die alten CPUs kannten, sind dagegen geringer als die gesamte IPC Steigerung.

Wie soll ich das sonst messen? Absolute Taktraten sind sowas von nichtssagend ;) Den Kunden interessiert die Mehrleistung in Relation. Also in Prozent...
Dann werden sie als mit einem übertakteten Intel Pentium G3258 Anniversary Edition glücklich machen, die werden ja bei den Prozenten feucht im Schritt und würden über einem i7-4790K@4.6GHz nur lachen, auch wenn der mit dem Pentium den Fussboden aufwischen kann.
Aber für höheren Takt benötigst du höhere Spannungen. Und höhere Spannungen lassen entsprechend dann den Verbrauch schnell(er) steigen... Das war aber im Grunde schon immer so. Da hat sich heute nix geändert.
Wie das zusammenhängt und das es im Grunde immer so war ist schon klar, nur hat sich die Kurve der Lesitungsaufnahme im Verhältnis zur Frequenz eben heute geänder, läuft erst falcher und steigt dann aber auch steiler an.
Welches ARM Lager? Ich sehe da aktuell gar keine Konkurenz für die hier relevanten CPUs.
Es geht auch nicht um die hier relevanten CPUs, sondern eben um Intel Versuch im Mobilmarkt und bei anderen Anwendungen wo höste Effizienz vor viel Leistung geht, Fuß zu fassen und darauf wurden natürlich die ganze Technologie auch auch ein Stück weit ausgerichtet.

Hatte jüngst erst ein paar Cisco Router der 2900er Reihe in der Hand, wo Module drin steckten mit irgend so nem Core2 Dualcore Modell.
Ja bei den großen Geräten für Profis, aber was steckt in den kleinen Heimroutern? Das ist bei den NAS nicht anders, die größen Modelle für viele Hundert bis einige Tausend Euros haben auch Intel x86er CPUs, die ganze kleinen Heimgeräte kommen dagegen mit Marvell ARM CPUs daher, da zählt auch mehr die Leistungsaufnahme als die Leistung selbst.

Begehe nicht den Fehler und schreib die damaligen Erfolge einzelnen Personen zu... Das geht nicht und ist wenig zielführend.
Da bin ich mir nicht so sicher, die CPU Entwicklung ist zwar eine technisch extrem komplexe Sache, aber das ist die Formel 1 mindestens ebenso und auch in der Formel 1 gibt es immer wieder Konstrukteure wie einen Adrian Newey der zwar auch mit einem großen Team arbeitet, aber es dennnoch immer wieder geschafft hat außergewöhnliche Autos zu bauen.
PS: und einige der besagten Neuerungen waren mit größter Warscheinlichkeit ein Grund, warum es AMD heute so geht, wie es ihnen geht ;)
Das war Bulldozer und dessen Modulkonzept sowie die jahrelange Konzentration auf APUs statt auf eine wirklich gute CPU Architektur. Aber Intel hat sich in der Vergangenheit auch schon verrannt und den Weg zurück an die Spitze gefunden.
 
Dann werden sie als mit einem übertakteten Intel Pentium G3258 Anniversary Edition glücklich machen, die werden ja bei den Prozenten feucht im Schritt und würden über einem i7-4790K@4.6GHz nur lachen, auch wenn der mit dem Pentium den Fussboden aufwischen kann.
??
Wieso sollte das so sein? 40% OC machen nunmal keine 100% mehr Cores + 25% SMT Vorteil wett... Vergleiche sollten schon sinnvoll sein

Es geht auch nicht um die hier relevanten CPUs, sondern eben um Intel Versuch im Mobilmarkt und bei anderen Anwendungen wo höste Effizienz vor viel Leistung geht, Fuß zu fassen und darauf wurden natürlich die ganze Technologie auch auch ein Stück weit ausgerichtet.
Das sind doch aber völlig andere paar Schuhe... Du sagtest oben, das die Konkurenz eher im ARM Lager zu suchen ist... Aber wo?
Ich sehe bestenfalls eine Ambition, das Intel in diesen Märkten Fuß fassen will. Klappt allerdings nur bedingt. Von einer echten Konkurenzsituation sind sie da noch lange und weit entfernt. Schon allein deswegen, weil man die Teile querfinanziert noch und nöcher, damit überhaupt etwas Absatz entsteht.

Ja bei den großen Geräten für Profis, aber was steckt in den kleinen Heimroutern? Das ist bei den NAS nicht anders, die größen Modelle für viele Hundert bis einige Tausend Euros haben auch Intel x86er CPUs, die ganze kleinen Heimgeräte kommen dagegen mit Marvell ARM CPUs daher, da zählt auch mehr die Leistungsaufnahme als die Leistung selbst.
Rein an der Leistungsaufnahme liegt das faktisch nicht. Du bekommst nen Haswell-Xeon E3 auf unter 20W im idle... Und hast bedeutend mehr CPU Power als so ne Mini ARM Kiste.
Die Dinger werden viel eher billig sein... Wärend so ein Xeon mal schlappe 150€ kostet. Das kost das ganze NAS inkl. dem Marvell Prozessor. -> zwei völlig verschiedene paar Schuhe.

Zumal auch sich in diesen Märkten x86 teils anschickt. Stichwort VM auf NAS Würfel :wink: Mit ARM einfach unsinn... Es sei denn, man will sich auf Linux festnageln.

Da bin ich mir nicht so sicher, die CPU Entwicklung ist zwar eine technisch extrem komplexe Sache, aber das ist die Formel 1 mindestens ebenso und auch in der Formel 1 gibt es immer wieder Konstrukteure wie einen Adrian Newey der zwar auch mit einem großen Team arbeitet, aber es dennnoch immer wieder geschafft hat außergewöhnliche Autos zu bauen.
Marketing... Was das Marketing einer Person "anhängt" und was am Ende wirklich von der Person geleistet wird, sind zwei völlig verschiedene paar Schuhe...
Kleine persönliche Frage, gehst du arbeiten? Wenn ja, sollte dir dieser Umstand durchaus bekannt sein ;) Vor allem, wenn man eben NICHT in der Chefposition sitzt, der sich die Lorbeeren einheimst ohne einen Finger krum zu machen.
Das soll keinesfalls eine Abwertung ggü. dem Herrn Keller sein, definitiv nicht. Man sollte aber einfach die Kirche im Dorf lassen... Das Produktive kommt von den Jungs und Mädels aus der Entwicklung/Forschung. Da muss Jemand die zündende Idee haben und nicht irgendwo auf irgend einer Chef/Manager Position.

Das war Bulldozer und dessen Modulkonzept sowie die jahrelange Konzentration auf APUs statt auf eine wirklich gute CPU Architektur. Aber Intel hat sich in der Vergangenheit auch schon verrannt und den Weg zurück an die Spitze gefunden.

Das hat schon viel eher (also vor BD) angefangen ;)
Der Phenom I Quadcore war viel zu spät und hatte zu wenig Takt im Vergleich zu Core2. Mit dem Phenom II hat man das Taktdefizit bereinigt und die Effizienz gesteigert. Schneller ist das Ding aber nur bedingt geworden. Während Intel den Nehalem, später Westmere geleased hat und mit Lynnfield gefolgt von Sandy eine neue Mainstream Schiene eingeschlagen hat.
Bei AMD wäre der BD eher der Befreiungsschlag (nach der Sackgasse) gewesen... Aber das ging einfach nach hinten los. Dann hat mans über die APUs versucht -> AM3+ ist quasi Tod seit Monaten schon. Und die APUs sind vier Threads only. Der Markt, den AMD bedient, rutscht immer weiter nach unten... Und den Anfang nam dieses Fiasko mit dem Phenom I, der gemessen ggü. den Core2 CPUs immerhin wenigstens noch mit den großen Modellen ansatzweise mithalten konnte.

Um so interessanter ist allerdings, was AMD mit Zen bringt... Die Spekulationen riechen entweder nach einem totalen Reinfall (wieder acht Cores im Mainstream) oder nach einem Angriff auf die HighEnd Platform S2011 (acht Core + SMT Ansatz -> 16 Threads, analog dem i7 5960X und ggf. Broadwell-E Nachfolger)
Bei ersterem wird Skylake wohl relativ gute Karten haben, weiter die Nase vorn zu behalten. Bei letzterem wirds mit Skylake allerdings sicher nicht reichen ;)
 
Ist das wirklich ein Vorteil? Eigentlich nur für Übertakter die ihren Erfolg vor allem daran messen wie viele % mehr sie rausgeholt haben. In meinen Augen ein bescheidenes Kriterium, denn für mich entscheidet was ich am Ende für eine Performance erreiche und ob ich die Performance schon ab Werk bekommen ohne Hand anlegen zu müssen, ist mir das weitaus lieber. Zumal das Ergebnis dann auch garantiert ist.

Nenne mir mal eine CPU Generation mit hohem OC Potenzial, also niedrigem Basistakt, welche nicht bereits @Stock genug Performance ab Werk geboten hat.

Intel oder AMD lassen ja nicht ohne Grund Taktpotenzial brach, sondern nur dann wenn es der Wettbewerb nicht erfordert. Man kann ja Häppchenweise Takt nachlegen bis das Ende der Fahnenstange dann irgendwann erreicht ist.

Beispiele? QX6700, 5960x,...
Negativ Beispiel: AMD 9590, Intel 4790k,...

Warum ist der 4790k ein Negativbeispiel? Im Gegensatz zu früher gibt es keine guten OC Prozessoren für kleines Geld mehr die sich noch lohnen. Viele Kerne, geringer Takt mit OC? Pustekuchen. Alles bereits 140 Watt TDP ab 6 Cores. Der 4790k bedeutet für Intel als QuadCore (dank geringer Chipfläche) im Jahre 2015 maximale Gewinnmaximierung. OC lächerliche ~ 10%.

Der 4790k steht nur deswegen so gut mit der Performance da, weil AMD aktuell den Markt nicht mehr bedient.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh