Intel "Skylake-S": Der Core i5-6600K und der Core i7-6700K machen den Anfang (Update)

Weder ist der FX4 ein 2 Kerner, noch ist der FX6 ein 3 Kerner.

Nur weil Intel so viel bessere IPC hat, brauchst du den CPU,s nicht ihre Kernanzahl absprechen.

Ein FX6300 ist nicht umsonnst auf dem Niveau eines Phenom II X6 1090t.

Das gleiche kann man mit FX4 & X4 machen.

Aber man merkt das du ein Intelfanboy bist, bei dem solche Erklärungsversuche wohl nichts nützen werden.


Der FX4 ist technisch gesehen nun mal ein Zweikerner mit CMT. Vier Integer Kerne machen nach aktuellem Stand der Technik noch lange keinen Vierkerner, wenn man über CPU Kerne redet. Das hätte zu Zeiten des 286ers gereicht - aber seit den späteren 486ern besteht ein CPU Kern nun mal aus einer Integer und einer FPU Einheit.

Welche Leistung die CPU hat, ist für die Zählweise irrelevant. Wenn man einen kleinen und einen großen Apfel hat, hat man immer noch zwei Äpfel.

Mit deinen Diffamierungsversuchen wirst du die Realität auch nicht verdrehen können und auch nicht von den Sachthemen ablenken können. Jeder der diesen Thread von Anfang an gelesen hat, lacht sich doch eh tot über den Unsinn, den du hier mitunter von dir gegeben hast.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja ne ist klar, wenns nach dir gegangen wäre in den Reviews, hätte man schreiben müssen, wie Toll der Bulldozer ist, weil ein 3 Kerner (FX6300) so schnell wie ein Phenom II 6 Kerner ist, was mal eben für eine verdopplung der Leistungsfähigkeit Pro Kern sprechen würde.

Dann würde der Phenom II ja total schlecht aussehen und die Bulldozer Architektur wie ein Starker Fortschritt wenn man einen X3 mit einem FX6 vergleichen würde in Multi Threading Benchs.
 
Wenn wir ehrlich sind, sind es aber eher 60%, und somit wäre ein Skylake i5 bei 4ghz über 100% Schneller als mein FX4100 @ 4 ghz :d

Neja, du musst halt bei der Rechnung bedenken, dass eben die Module bei AMD anders skalieren als die Cores bei Intel oder auch SMT bei Intel.
Theoretisch gibt IPC eine Kenngröße in Verbindung mit der Taktung. -> kommt also dazu noch auf die Taktfrequenz an.
Wenn also real ~60% rauskommen, dann liegt das A) an CMT vs. SMT und B) an unterschiedlichen Taktraten. ;)

Und wo ist jetzt der Vorteil von Skylake?
Gleiche Taktfrequenz und gleiche TDP ?
Auch nur max 4 Kerne. Das ist ziemlich lame! :-(

A) geschätzt ~15% mehr Leistung als Haswell
B) deutlich größere IGP als Haswell und wohl immernoch größer als Broadwell (gesockelt)
C) gesteigerte Effizienz
D) DDR4 Support -> sollte die Speicherpreise langsam sinken lassen
E) neue Chipsätze in Verbindung -> mehr PCIe Lanes, aufbohrung von DMI auf die nächste Generation usw.

Alles in allem, nicht extrem viel, aber ggf. für einen Wechsel von der vier Jahre alten Sandy mittlerweile durchaus gut geeignet...
 
Nur mal als info weil ich es gerade auch in einem anderen Thread erwähnt hatte.

So viele denken ja, das das Taktpotential von Skylake nicht gut sein kann, weil der i7 6700K mit 100mhz weniger kommt als der Haswell i7 4790K.

Ich will nur mal daran errinern das du nicht den denkfehler machen solltest, Super Selectet CPU,s mit nicht Super Selectet CPU,s zu vergleichen.

Alle nehmen immer den 4790K als referenz, vergessen aber, das es schon einen i7 Haswell K gab, der mit weniger takt gestartet ist.

Beim Sandy gabs erst den i7 2600K und dann n Jahr später den i7 2700K.
Beim Haswell das selbe.
Daher sollte man den 4790K nicht als vergleich nehmen, sondern den 4770K welcher nur mit 3,5 ghz kam.

Verglichen dazu ist der Skylake also Extrem Höher getaktet.
 
15% mehr IPC gegenüber Haswell.
Geringerer Stromverbrauch des CPU Parts.
OC Potential ist sehr warscheinlich besser als bei Haswell.
Modernere Mainboards.
Mit solchen Annahmen wäre ich vorsichtig. Leaks zeigen bisher lediglich ~15% mehr Performance in MT. Und das muss nicht unbedingt 15% höhere IPC bedeuten, sondern könnte zB teilweise auch auf einen besseren Turbo zurückzuführen sein. ST IPC ist laut Leaks jedenfalls vergleichbar mit Haswell/Broadwell. Genauso wenig sollte man besseres OC Potenzial erwarten. Skylake hat schon von Haus aus höhere Taktraten. Sowas verringert eher das OC Potenzial, zumindest relativ gesehen. Und wie 14nm mit hohen Taktraten zurechtkommt, wird sich auch erst noch zeigen.
 
...
Das die Haswell und Ivy so schlecht gingen, lag an der implentierung der spannungswandler seitens intel, was schon im vorraus von kritikern als dummer schritt vorrausgesagt wurde, der sich dann bewahrheitet hat. ein sandy mit den spannungswandlern intern wie ivy, hätte viel weniger takt gefahren, daher sieht man den shrink vorteil des ivy kaum. einfach mal kopf einschalten und nachdenken.

Das stimmt so nicht. Ivy hatte die Spannungswandler (FIVR) noch nicht integriert, das kam erst mit Haswell.
Bei Ivy war der Shrink auf die FinFet Tri-Gate 22nm Technologie nicht ganz als reiner Shrink zu sehen und bestimmt noch nicht ausgereift. Dazu hat Intel hier angefangen ALLE IVY CPUs am Mainstreamsockel 1155 nicht mehr zu verlöten. Davor waren nur ab und zu ein paar kleinere Modelle nicht verlötet (Celerons auf Core2 Basis z.B.) Dadurch generell wesentlich höhere Temps was die OC Eigenschaften der Ivys auch einschränkte.
Bei Haswell kamen dann wie Du sagst die integrierten Spannungswandler noch dazu ...

...
Die hohe TDP ist relevant für OC Potential damit die CPU einen Ocer nicht Hindert.
Das gilt jedoch nicht generell für jede CPU. Einige drosseln bei überschreiten der TDP, andere nicht, sonst könnte man wohl nie mit extremer Kühlung sehr hohe Spannungen und Frequenzen fahren da die TDP ja sehr schnell überschritten wären.
Kurz nochmal zum Thema TDP - seht mal in den Namen: Thermal Design Power
Wie einige hier schon vermutet und angesprochen haben bezieht sich das auf die Kühlungsauslegung. Das besagt lediglich daß die Kühlung (z.B. der CPU Kühler) bzw. das ganze Kühlkonzept (z.B. in Laptops oder Gehäusen/Servern die ein gemeinsam konzipiertes Kühlsystem haben) dafür ausgelegt sein sollten. Wie man schön erkennen kann liegt die TDP bei Intel gerne über viele verschiedene Modelle einer Serie gleich hoch. Das besagt noch lange nicht daß die Modelle alle gleich viel Verbrauch und Abwärme haben. Einige können Peak Werte über TDP erreichen und andere kommen nicht mal in die Nähe. Weiter ist die TDP auch eine Richtlinie für Mainboardhersteller. Die Boards müssen auch dafür ausgelegt sein. Sah man früher ja immer wieder daß einige ältere/günstigere Boards nicht zu CPUs mit hoher TDP kompatibel waren.

Und wie einige schon vermuten spielt die iGPU da auch eine große Rolle. Je stärker diese ist desto mehr TDP hat die CPU. Ich vermute auch daß vielleicht die K CPUs mit mehr TDP auch eine stärkere GPU bekommen als die non K. War doch bei den Ivys auch schon so. Die K und die i7 haben die HD4000 erhalten, non K i5 und fast (Ausnahme einige wenige i3) alles darunter die HD2500.

...Abgesehen davon, steigt mit der erhöhten Grafikkartenlast immer die CPU last mit an.
Das würde ich so nicht sagen. Hängt immer vom Programm/Spiel ab. Wie schon erwähnt steigt die GPU Last ja schon mit der Auflösungserhöhung stark an. Limitiert hier irgendwann die Grafikkarte hilft Dir auch ein schnellerer Prozessor nicht viel. Und tendeziell ist man eher in einem Grafiklimit als einem CPU Limit, kommt aber wie gesagt stark auf die Anwendung(in dem Fall wohl Spiel) drauf an.

...
Zusätzlich wird die Standardauflösung immer höher, und 4k wird im Jahre 2017 bei immer mehr Leuten einzug halten, was wieder zu Expotentiell mehr CPU last führt.
Nein, 4K alleine führt nicht zu wesentlich mehr CPU Last, die GPU Last steigt jedoch enorm.

Ein FX4100 kann in Battlefield 4 eine Titan nicht mit genug Daten versorgen sobald du auf Ultra Details gehst. Da ists dann egal ob 800x600 oder 4K, die CPU bringt kein Flüssiges Bild, und genau das ist der Springende Punkt den ich meinte mit CPU Last.
...
Dann liegt es aber daran daß das Spiel/Programm generell nicht schneller auf der CPU rennt, egal was Du für eine GPU und Auflösung verwendest. Sprich das hat nichts mit 4K zu tun.
Ich weiß schon was Du meinst mit:
Der Kontext war, das man eine Starke GPU mit einer Starken CPU paaren muss, um Ultra Details Flüssig darstellen zu können.
Schau mal hier.
http://cdn.overclock.net/0/0b/0ba46a68_bf4_cpu_radeon2vrua.png
Allerdings kann man das nicht so verallgemeinern. Sieh Dir mal selbst die Grafik an ... ein i3-4340 im Vergleich mit einem i7-2600K. 40 zu 50 FPS. Wirklich? Finde ich nicht die Welt.
Und BF4 ist ein nettes Beispiel da es tatsächlich von mehr als 4 Threads gebrauch macht, viele andere Spiele machen das aber nicht. Da kleben die i5 und i7 zusammen und meist nicht weit die i3 hinterher. Und je höher die Auflösung desto enger rücken die zusammen.
Nimm z.B. GTA V ... http://pclab.pl/zdjecia/artykuly/chaostheory/2015/04/gtav/charts5/gtav_vhigh_cpu.png

Klar würde ich (zum Gamen!) keine Titan X zu einem Pentium G stecken und auch keinen i7-4790K mit einer GeForce GT 610 paaren, aber global zu sagen je stärker die GPU desto stärker muß auch die CPU sein ist nicht ganz richtig. Verlangt ein Spiel eine starke CPU muß diese her, klar, ist aber trotzdem eher unabhängig von Grafikkarte und eingesetzter Auflösung und (Grafik) Details (wo ich jetzt mal sowas wie PhysX oder CPU lastige Grafikeffekte weglasse).
Fazit - braucht bzw. nutzt ein Spiel viele Threads und somit eine starke CPU, sollte diese her. Ansonsten sollte die GPU so stark wie möglich sein.

Ob der 6600 auch so eine Legende wird wie der Core2 Namensvetter?

Ich glaube nicht. "Legenden" sind ja meist CPUs gewesen die einen großen Leistungssprung boten oder sonst irgendwie sehr besonders waren.
Die Core2 Serie war ja ein Meilenstein für Intel und ein Core2Duo E6600 den alten Pentium 4 und D in vielen Bereichen weit voraus. Der Q6600 ist eine legende da er der erste Consumer Quad Core war und wenn genutzt zu der Zeit eine gewaltige Leistung hatte.
Der i5-2500K ist in meinen Augen auch ähnlich da der Sprung der Vorgänger (i5-750 z.B.) recht groß war UND er einen freien Multi hatte. Die Sprünge danach waren wieder klein weshalb der i5-2500K bei vielen nach wie vor im Sys werkelt und eine Quasi Referenz darstellt. Wäre der Nachfolger (z.B. der i5-3570K) wieder so ein Sprung gewesen wäre der i5-2500K heute bestimmt nicht soo besonders.

Zen wird laut aktuellen gerüchten, 32 Threads haben. Ich glaube nicht dran, aber selbst die hälfte davon wäre Krasser als Krass.
...

Naja sind halt alles bisher sehr vage Gerüchte. 16 Kerne und 32 Threads wurde aktuell nur im Zusammenhang mit Servern erwähnt und das ist durchaus realistisch (siehe die letzten Opterons). Am Desktop bezweifle ich auch wie Du daß AMD sowas bringt, hat bestimmt auch in 2 Jahren noch keinen Sinn so viele Kerne am Desktop zu haben.

...
Und einen 6 Kerner unter 250€ von intel wirds in den nächsten 3 Jahren auch nicht geben.
Wieso nicht? Bei Skylake sieht es aktuell (lt. Roadmaps) nicht danach aus daß für den Sockel 1151 6-Kerner kommen, aber in 3 Jahren ist doch bestimmt schon ein Shrink/Refresh (Cannonlake "Tick") und wohl auch schon wieder eine neue Architektur (Cannonlake "Tock" Nachfolger) raus.
Auch preislich könnte es durchaus realistisch sein daß Intel die Preise endlich mal senken muß (wenn AMDs Zen z.B. leistungsfähig UND günstig ist).
Immerhin konnte man bereits im Herbst 2014 einen i7-5820K Sechskerner um etwa 350 EUR kaufen.

...
Andererseits kann es durch AMD viel Sinn machen von Sandy auf AMD Aufzurüsten wenn Zen wirklich so eine Bombe wird wie man es bisher vermutet.

Also quasi ein 200 euro teurer 8 Kerner auf dem Speedniveau zwischen Nehalem und Sandy bei weniger verbrauch als FX8350.

Wenn Zen tatsächlich die Hoffungen und Erwartungen erfüllt oder gar übertrifft kostet ein 8 Kerner (16 Threads) Zen bestimmt keine 200 EUR. Oder meinst Du jetzt einen 4 Kerner mit 8 Threads? Das wäre schon realistischer, obwohl wenn dieser mit z.B. einem Skylake i7 (4 Kern + HT) mithalten kann wird er wohl auch mehr als 200 EUR kosten.

mich würde mal interessieren an welche art von käuferschaft sich die verkauften cpu's von intel verteilen. ich nehme mal an das die gruppe der, ich nenne sie jetzt einfach mal "gamer, video / photo bearbeiter, hobby musikproduzenten, "average HWluxx user"" usw...ihr wisst was ich meine, prozentual weitaus niedriger ist als der absatz in gewerbliche gefilde (firmen)? ...auf der anderen seite kenne ich keine firma welche bei erscheinen eines 4790K diese sofort auf ihre mitarbeiter an deren arbeitsrechner ausrollt (gibt aber bestimmt da auch welche die das benötigen, will hier nicht pauschalisieren).
Du vermutest richtig, der Absatz an Firmen macht einen sehr großen Anteil aus, und selbst dort sind es nicht immer nur normale Desktops sondern oft verbaute Lösungen für alles mögliche (Automaten, Maschinen, Rechner für Public Displays etc.). Dort sind nirgends K CPUs interessant da in so gut wie jeder Firma nicht übertaktet wird und in den sonstigen non Desktop Systemen sowieso nicht.
Ein weiterer großer Markt ist wohl der klassische Consumer / Fertig-PC Markt. Auch hier ist der Anteil der K CPUs sehr sehr gering. Ist auch okay so denn der Großteil der Käuferzielgruppe hat wohl keine Ahnung bzw. kein Interesse am Übertakten.

d.h. eine cpu ohne integrierte gpu (produktionskosten sinken?) mit offenem multi / bclk, generell getrimmt auf hohe single core leistung / takt, weiteren abgespeckten features welche o.g. gruppe nicht benötigt, dadurch geringerem preis...müssten die "leute" doch intel aus den händen reißen?! klar was ich meine?
Die iGPU ist jedoch Bestandteil der Ferigungsmaske und extra eine neue Maske / Produktion dafür anwerfen? -> Kosten steigen.
Der Rest wird doch bereits mit den K CPUs gemacht -> immer höchste Taktraten des Modells, offenere Multi, Features entfernt (bei Sandy und Ivy K Modellen kein vPro, kein VT-d, kein TXT und bei Haswell sieht es ähnlich aus, lediglich VT-d ist bei den Devils Canion wieder dabei)

edit: das ganze dann noch als "gamer cpu" (oder so in der art) vermarkten? :>
Wurde ja quasi mit dem Pentium Anniversary Edition so gemacht.

...
95 Watt TDP haben wir schon bei Sandy gehabt. Dann ging sie auf 77 Watt bei Ivy herunter und stiegt bei Haswell wieder auf 88 Watt an. Nun bei Skylake haben wir wieder 95 Watt und das soll plötzlich besser sein ?

Ivy = 77 Watt TDP
Skylake = 95 Watt TDP
Skylake = sparsamer ?

Du vergisst die iGPU, die macht bestimmt einen großen Teil aus. Der CPU Teil wird von Skylake wohl sparsamer sein als bei Ivy denke ich.
Bei deaktivierter iGPU zeigt sich das ja schon bei den Haswell CPUs die mit 84W TDP trotzdem sparsamer sind als die 77W TDP Ivys:
Haswell im Test: Core i7-4770K, Core i5-4670K und Core i5-4570 [Artikel des Monats Juni 2013] - Haswell im Test: Benchmarks, Fazit
Allerdings kann hier die Plattform (Z77 zu Z87) vielleicht auch ein wenig mitspielen.


...
Ich orientiere mich da mehr an Benchmarks, in denen etwas nachgemessen wurde und nicht an feuchten Träumen:

Irgendwie ist der Intel X6 dort langsamer als der Intel X4... wen wunderts? Mich nicht.
...


Von den getesteten Spielen nutzt auch nur mal gerade ein Spiel mehr als 4 Kerne, und das ist BF4. Die anderen nutzen teilweise nicht einmal mehr als 2 (StarCraft 2 z.B.). Somit sollte es nicht wundern daß ein 6 Kerner mit weniger Takt nicht OnTop ist.
Die Spiele die tatsächlich von mehr als 4 Kernen profitieren sind aber leider wirklich noch ziemlich rar, wohingegen es immer noch einige gibt die nicht über 2-3 Kernen raus skalieren. Somit stimme ich Dir teilweise zu daß aktuell ein 6(+) Kerner noch wenig bringt und man mit einem guten Quad immer noch Top dabei ist.

Wird es eigentlich noch Broadwell-E geben oder geht Intel direkt auf Skylake-E?
Hab nur mal was von Broadwell-E Q1 2016 und Skylake-E 2017 gelesen. Ob das noch aktuell ist?
Also ich bilde mir ein das mal in Roadmaps gesehen zu haben daß Broadwell-E für den Sockel 2011-3 kommt. Würde auch dem bisherigen Schema entsprechen, sprich der große Sockel bekommt immer (etwas versetzt) die Aktuelle CPU (Tock) und den Shrink (Tick). Chipsatz bleibt. Skylake-E wird wohl wieder ein neuer Sockel, kommt aber bestimmt nicht vor Ende 2016.

...
Ich habe im Januar ein Kumpel mit ein C2D 6X00 eine Geforce 660 TI eingesetzt.
Ist die CPU lahm? Klar, aber genauso boosted die GraKa sein System soweit nach vorne das er nun endlich volle Details aktivieren kann und es deutlich(!) flüssiger läuft.
...

Das Problem an diesen Quatsch der dort verbreitet wird ist das soviele ahnungslose Leute Angst haben sich schnellere GraKas zu holen und/oder lieber CPU aufrüsten wollen anstatt ne schnelle GraKa zu holen.
Eine neue GraKa bringt noch immer mehr als eine neue CPU.
...
Bei den minimun FPS scheiden sich eh die Geister.
...

Das kann ich im Prinzip direkt so bestätigen. Komme selbst von einem (stark) übertakteten Core2Quad und habe nun eben aufgerüstet. Die GTX 680 hatte ich schon vor zwei Jahren gekauft und die hat das alte Core2 System nochmal ordentlich gepushed. Klar war diese wohl schon etwas zu stark, trotzdem konnte ich damit alles problemlos zocken. Auch BF4 läuft mit 1920x1200 Ultra mit ein paar Einstellungen verändert einwandfrei.
So lange wie das Core2Quad System hatte ich bisher auch kaum noch ein Sys. Man sieht daß sich in den letzten Jahren wirklich nicht mehr so sonderlich viel tut am Desktop Markt.
Jetzt habe ich aufgerüstet auf einen i7-5820K und die GTX 680 und SSD vom alten Sys mitgenommen. Mit der CPU/Plattform komme ich bestimmt wieder für die nächsten Jahre aus. GPU wird irgendwann mal ersetzt und gut isses.
Allzuviel habe ich bisher aber noch nicht getestet wie sich das Sys nun im Vergleich zum alten Core2Quad schlägt, auch OC bin ich noch nicht angegangen.
BF4 läuft auf jeden Fall eine Spur geschmeidiger und ich denke die GTX 680 wird nun endlich besser ausgelastet. Mit einer starken GPU und schwächeren CPU hat man wie Ihr schon angesprochen habt halt niedrigere min. FPS bzw. öfters FPS drops.

Was erwarte ich von Skylake?
- Tja die etwa 10% Mehr IPC dürften realistisch sein
- Die iGPU wird wieder ein gutes Stück zulegen
- Neue Chipsätze mit neuen Features (wurde ja schon erwähnt daß die Anbindung etwas aufgebohrt wurde)
- Bei gleicher Leistung etwas Effizienter als Haswell

Was bleibt noch offen?
- OC Potential gut? Maybe
- iGPU Iris Pro? Glaube eher nicht am Desktop, aber lassen wir uns überraschen
- Neue bahnbrechende Features wie MorphCore oder CoreFusion? Glaube ich auch nicht
 
Was viele vergessen, der neue 100er Chipsatz erhält endlich eine kleinere Fertigung (weiss nichtmehr wieviel NM ,wer kann da helfen ? )
Nachdem Intel Jahrelang den Chipsatz im immer selben Fertigungsprozess gefertigt und damit Strom verschwendet hat für die User !
 
Das gilt jedoch nicht generell für jede CPU. Einige drosseln bei überschreiten der TDP, andere nicht, sonst könnte man wohl nie mit extremer Kühlung sehr hohe Spannungen und Frequenzen fahren da die TDP ja sehr schnell überschritten wären.
Kurz nochmal zum Thema TDP - seht mal in den Namen: Thermal Design Power
Wie einige hier schon vermutet und angesprochen haben bezieht sich das auf die Kühlungsauslegung. Das besagt lediglich daß die Kühlung (z.B. der CPU Kühler) bzw. das ganze Kühlkonzept (z.B. in Laptops oder Gehäusen/Servern die ein gemeinsam konzipiertes Kühlsystem haben) dafür ausgelegt sein sollten. Wie man schön erkennen kann liegt die TDP bei Intel gerne über viele verschiedene Modelle einer Serie gleich hoch. Das besagt noch lange nicht daß die Modelle alle gleich viel Verbrauch und Abwärme haben. Einige können Peak Werte über TDP erreichen und andere kommen nicht mal in die Nähe. Weiter ist die TDP auch eine Richtlinie für Mainboardhersteller. Die Boards müssen auch dafür ausgelegt sein. Sah man früher ja immer wieder daß einige ältere/günstigere Boards nicht zu CPUs mit hoher TDP kompatibel waren.

Und wie einige schon vermuten spielt die iGPU da auch eine große Rolle. Je stärker diese ist desto mehr TDP hat die CPU. Ich vermute auch daß vielleicht die K CPUs mit mehr TDP auch eine stärkere GPU bekommen als die non K. War doch bei den Ivys auch schon so. Die K und die i7 haben die HD4000 erhalten, non K i5 und fast (Ausnahme einige wenige i3) alles darunter die HD2500.

Die TDP Sache hier im Thread habe ich auch nicht so recht verstanden.
Damals als ich noch OC betrieben habe war die TDP der Wärmewert in Watt den die CPU bei 100% Auslastung ohne OC erreichen kann.
Da man Energie noch nicht ohne Verluste umwandeln kann war der elekt. Verbrauch sogar noch ein Stück höher.

Ich erinnere mich an P4 Prescott Zeiten wo die CPU 130W und 150W TDP hat. Was hieß das die deutlich über 130W lagen ;)

Wenn man dann noch OC gemacht hat, hat sich der Bereich um den CPU Sockel gelb/braun verfärbt trotz WaKü :d

Ich weiß jetzt noch ob Intel sich nicht mehr an diese Angaben hält oder wieso plötzlich Anderes behauptet wird.


Was ich auch nicht so recht verstehe wieso die Hersteller nun auf brechen und biegen iGPU's verbauen müssen?!
Für Office Rechner nett, für alles Andere nutzlos.
Jede der damit spielen will oder bestimmte Sachen bearbeitet baut entsprechende Zusatzkarten ein.
Im Prinzip sollen wir für eine völlig nutzlose Sache extra bezahlen die 95% gar nicht nutzen.

Wäre die iGPU in mein 2600k jetzt nicht schneller als meine Notfall Ersatz GraKa hätte ich die nie aktiviert.
Dazu kommt sogar das die automatische Monitor Abschaltung nun nicht mehr funktioniert...:heul:


Ich werde nun auf jedenfall erstmal den Launch abwarten wie die Preise sind. Der einzig interessante Proz für mich ist der 6700K
Genauso hätte ich erwartet endlich 8 Kern + HT zu bekommen.
Wenn ich bedenke das es in den Roadmaps 2004 hieß das wir in 1-2 Jahren 8 Kerner im normalen CPU Segment haben...

Meine Befürchtung ist das die CPU deutlich über 300€ liegen wird.
Für mein 2600K habe ich nur 250€ bezahlt.

Genauso macht mir der RAM Sorgen. DDR4 ist in moment viel zu teuer das man mal auf 32gb aufrüsten könnte.
Habe ja seit Anfang an 16gb drin in mein alten PC, da muss schon ein Upgrade drin sein :d

Die Chipsätze scheinen mir auch noch nicht ausgereift zu sein. Hier sieht man kaum ein Upgrade bei den S-ATA Ports/Nachfolgern.
Dort geht es viel zu schleppend vorran wenn Intel SSDs mit 40GBit Schnittstelle anbietet. Hier wirken M2 Ports mit 10GBit gerade zu veraltet.
 
Ich hab ja auch ne GTX580 mit eigenem AKW ;)
Trotzdem wurde Intel immer als so stromsparend propagiert und der Chipsatz hat unnötig welchen verbraten obwohl mans leicht hätte ändern können.
 
Also so langsam müsste echt der Blitz durch die Leitung fahren und mein ganzes System zerstören damit ich mir was neues basteln werde. Lang dauert es nicht mehr, dann werkelt ein kleiner i7-3820ger 3 Jahre bei mir.

Die Software müsste einfach mehr Kerne / Threads unterstützen. Es hilft mir ein i7-5960X genau so wenig wie ein i7-4790k oder ein i5-2500k wenn die Software nur 4 Kerne nutzt...
 
Was viele vergessen, der neue 100er Chipsatz erhält endlich eine kleinere Fertigung (weiss nichtmehr wieviel NM ,wer kann da helfen ? )
Nachdem Intel Jahrelang den Chipsatz im immer selben Fertigungsprozess gefertigt und damit Strom verschwendet hat für die User !

Hmm also das wäre mir nicht bekannt daß die Chipsätze in so veralteten Fertigungen hergestellt werden/wurden noch daß diese unnötig viel Strom verschwenden. Die Chipsätze waren schon immer den CPUs hinterher, aber max. 1-2 Fertigungsstufen.
Okay habe mich jetzt etwas schlauer gemacht, tatsächlich waren die meisten Chipsätze bis inkl. dem Z77 noch in 65nm Fertigung. Am Desktop hatten die (z.b. der Z77) eine TDP von 6,7W. Find ich jetzt nicht irre schlimm.
Die 80er Chipsätze sind jedoch bereits in 32nm gefertigt und haben am Desktop (z.B. der Z87) eine TDP von 4,1W.

Die TDP Sache hier im Thread habe ich auch nicht so recht verstanden.
Damals als ich noch OC betrieben habe war die TDP der Wärmewert in Watt den die CPU bei 100% Auslastung ohne OC erreichen kann.
Da man Energie noch nicht ohne Verluste umwandeln kann war der elekt. Verbrauch sogar noch ein Stück höher.

Ich erinnere mich an P4 Prescott Zeiten wo die CPU 130W und 150W TDP hat. Was hieß das die deutlich über 130W lagen ;)
...
Ja die TDP hat sich in der Zeit etwas verändert weil ja z.B. auch die iGPU dazu gekommen ist. AMD und Intel haben die TDP sowieso schon immer anders aufgefasst und auch anders weitergeführt. Früher konnte man tatsächlich sagen wenn eine CPU eine TDP von 90W hatte hat sie unter Voll-Last +/- auch in etwa so viel verbraucht. Da gab' es aber auch meist noch Single Cores, keine Turbos, kaum ein Heruntertakten oder Spannung Senken etc. Die Caches und die Befehlserweiterungen waren noch gering was ja heute auch einen großen Unterschied macht wenn man z.B. Prime95 oder LinX etc. nutzt.

Was ich auch nicht so recht verstehe wieso die Hersteller nun auf brechen und biegen iGPU's verbauen müssen?!
Für Office Rechner nett, für alles Andere nutzlos.
...
Naja das ist wie schon gesagt in vielen CPU Kernen/Masken halt schon drin eben weil der Hersteller den Kunden das bieten will. Für den Großteil der Kunden macht das Sinn und wird auch genutzt. Für einen kleineren Teil macht es halt keinen Sinn, da wird das entweder vom Werk aus deaktiviert oder man deaktiviert es als Kunde selbst. Extra dafür zahlen tut man eigentlich nicht weil man es ja praktisch nicht ohne dem bekommt. Da wo es wirklich keinen Sinn macht ist es ja auch nicht mal in der Maske dabei (Server Sockel 2011 z.B).
Kann man vielleicht vergleichen mit einer Musikanlage im Auto. Viele sagen da wohl auch "pah wer braucht das, ich baue mir sowieso ein High-Tech Player Gerät, super Endstufen und wahnsinns Boxen ein". Allerdings ist das halt die Serienausstattung und man zahlt da nicht wirklich extra dafür (obwohl natürlich die Kosten im Kaufpreis miteinkalkuliert sind), aber man bekommt halt im Normalfall kein neues (normales) Auto ohne HiFi Anlage.

Wenn ich bedenke das es in den Roadmaps 2004 hieß das wir in 1-2 Jahren 8 Kerner im normalen CPU Segment haben...
Tja damals waren sie noch sehr optimistisch was vieles anbelangte. Auch Pentium 4 CPUs (bzw. dessen Nachfolger) haben sie für die Zukunft auf 8+ GHz progostiziert. Als sie dann bei 3,8GHz zum Schwitzen angefangen haben (CPUs und Entwickler ;) ) hat man das aber schnell wieder totgeschwiegen.
Bei den Kernen war es wohl ähnlich ... nachdem Dual Cores sehr lange gebraucht haben um wirklich breiter genutzt zu werden und die ersten Quads 2006/2007 sich auch gelangweilt haben wurde das wohl auch wieder hinten angestellt.
Hilft alles nichts wenn die Software sich nicht in die Richtung mitentwickelt.

Meine Befürchtung ist das die CPU deutlich über 300€ liegen wird.
Für mein 2600K habe ich nur 250€ bezahlt.
Davon kannst Du auch bestimmt ausgehen. Die letzten i7 K (Mainstream Sockel) lagen immer bei bzw. über 300 EUR. Aktuell mit dem bescheidenen USD<->EUR Kurs kannst Du nochmal einiges drauflegen.
Und den Preisen der Sandys kannst Du lange hinterherweinen. Die waren eine sehr seltene Ausnahme da sie nach Release stetig teurer geworden sind und sich bei so gut 15-20% über Release Preis eingependelt haben. An den Preisen haben sich dann auch jeweils die Nachfolger orientiert. Und damals war keine Kursschwankung zu beobachten. Ich vermute daß es tatsächlich daran lag daß Intel meinte sie können sich das erlauben da sie teilweise deutlich vor AMD lagen. AMD hat ja auch darauf reagiert und Ihre Bulldozer FX CPUs stetig im Preis gesenkt bis man nach einer Weile tatsächlich einen FX-8xxx um gut 130 EUR bekommen hat, wo Intels i5 K bei ~ 180 EUR und i7 K bei ~ 275 EUR waren.

Genauso macht mir der RAM Sorgen. DDR4 ist in moment viel zu teuer das man mal auf 32gb aufrüsten könnte.
Habe ja seit Anfang an 16gb drin in mein alten PC, da muss schon ein Upgrade drin sein :d
Die DDR4 Preise sind ja eh schon am fallen. Mein GSKill 16GB DDR4-3000 Kit hatte Anfangs etwas über 300 EUR gekostet ... ist dann auf über 400 (!) gestiegen und dann trotz schlechtem USD Kurs schön langsam wieder gefallen. Ich habe nun ~ 240 EUR dafür gezahlt und aktuell sind sie bereits bei etwa 220 EUR.
Mit Skylake werden die Preise bestimmt weiter fallen.

Die Chipsätze scheinen mir auch noch nicht ausgereift zu sein. Hier sieht man kaum ein Upgrade bei den S-ATA Ports/Nachfolgern.
Dort geht es viel zu schleppend vorran wenn Intel SSDs mit 40GBit Schnittstelle anbietet. Hier wirken M2 Ports mit 10GBit gerade zu veraltet.
Naja da tut sich ja seit den letzten 1-2 Jahren schon einiges, M.2 und SATA Express sind noch sehr neu und Du bekommst noch kaum (sinnvolle) Geräte dafür. Bei SATA Express frage ich mich sowieso ob das eine Totgeburt war. Und M.2 mit 10GBit sind ja schon mal besser als ein SATA III Port. Einige Hersteller werden den Port sowieso wieder stärker ausfallen lassen (mit 4 Lanes PCI-E 2.0 oder 3.0).

---

@jolly91
Ich finde es auch irgendwie lustig wie die Leute hier alle schreien "da wird mein i5-3xxx, i7-4xxx etc. aber noch lange im System bleiben". Als ob die CPUs / Plattformen so alt wären :rolleyes:
Ich komme von einem Core2Quad Q9xxx welcher (streng nach erscheinen des Xeons den ich habe) Ende 2007 (!!!) auf den Markt kam. Und selbst damit bin ich übertaktet bisher gut ausgekommen.
Je nach Anspruch behaupte ich mal kommt jeder mit mind. einem i5-2xxx oder neuer locker mit allen aktuellen Spielen und Anwendungen gut aus. Bei Spielen ist sowieso die GPU wichtiger und bei Programmen (wenn nicht gerade wirklich mehr als 4 Kerne etwas bringen) sind die CPUs auch schnell genug.
Freut Euch doch daß Ihr länger mit Eurer Hardware auskommt. Klar will man gerne mal was Neues haben oder wieder mal herumschrauben etc., aber erwartet Euch keine Quantensprünge.
 
Hi Bucho :)

" Ivy hatte die Spannungswandler (FIVR) noch nicht integriert, das kam erst mit Haswell. "

Ja das ist mir später auch aufgefallen, hab daher später nur noch Haswell geschrieben wenn es um die spannungswandler ging.

"4K alleine führt nicht zu wesentlich mehr CPU Last, die GPU Last steigt jedoch enorm."

"Ich weiß schon was Du meinst"

Gut. Mir gings halt eher darum klar zu machen das man in erster Linie genug CPU power benötigt um Ultra Details darstellen zu können, bevor man sich eine GPU reinbaut die 4K packt.

Star Citizen ist da halt ein Beispiel für.

Bei World of Tanks benötigt man auch zwingend einen Intel um auf Ultra Flüssig Spielen zu können, egal ob 800x600 oder 4K auflösung, das wäre eig ein besseres beispiel gewesen, auf das ich vorher leider nicht gekommen bin.

"Von den getesteten Spielen nutzt auch nur mal gerade ein Spiel mehr als 4 Kerne, und das ist BF4. Die anderen nutzen teilweise nicht einmal mehr als 2 (StarCraft 2 z.B.). Somit sollte es nicht wundern daß ein 6 Kerner mit weniger Takt nicht OnTop ist."

Meine Worte. Ich verstehe nie warum Leute immer mit Pauschalisierten Benchs ankommen, obwohl man selber nie Pauschalisiert hat.

" in 3 Jahren ist doch bestimmt schon ein Shrink/Refresh (Cannonlake "Tick") und wohl auch schon wieder eine neue Architektur (Cannonlake "Tock" Nachfolger) raus."

Ne der Cannonlake wird nicht 12 Monate nach Skylake Released, sondern frühestens 18 Monate laut Roadmap, daher wird sich wohl auch die nachfolge Gen auf mindestens 3 Jahre ab heute ca verschieben.

"Oder meinst Du jetzt einen 4 Kerner mit 8 Threads? Das wäre schon realistischer, obwohl wenn dieser mit z.B. einem Skylake i7 (4 Kern + HT) mithalten kann wird er wohl auch mehr als 200 EUR kosten."

Mein guter alter Freund Bucho :)

Du meintest das nicht ernst mit dem Zen 4 Kerner + SMT der auf dem Leistungsniveau eines Skylake i7 Agieren soll oder ?

Also quasi, gleich hohe IPC wie Skylake. Das glaube ich niemals. AMD ist zz knapp 100% Langsamer was die IPC angeht. Ich wäre schon Froh wenn Zen auf Sandy Bridge Niveau kommt um ehrlich zu sein.
 
15% mehr IPC gegenüber Haswell.
Geringerer Stromverbrauch des CPU Parts.
OC Potential ist sehr warscheinlich besser als bei Haswell.
Modernere Mainboards.

Also ich komme auf 3-5% mehr performance bei Spielen.
Geringerer Stromverbrauch bei einer höheren TDP ? hmm naja..
OC-Potenzial ist sehr warscheinlich SCHLECHTER als bei Haswell wegen des kleineren Fertigungsprozesses.
Moderne Mainboards? Soll das nen Argument sein? Ich hab nen Z97 das ist auch "modern"!

Fazit: In der Praxis bringt es nix. ;-)
 
Nach Sandy Bridge war das OC Potential nicht mehr so besonders, ich hab bereits 2011 die Sandy Bridge CPUs stabil auf 5Ghz übertakten können, die aktuellen Haswell sind dagegen ein Witz.
Deswegen lohnt es sich für mich auch nicht einen neuen i7 mit 4 Kernen + HT zu kaufen, ich merke keinen Unterschied zu meinem i7.
Normalerweise müsste man aktuelle Intel CPUs über 5,5Ghz übertakten müssen, je kleiner die Kerne werden desto schwieriger wird das OC Potential.
Nehalem war 45nm und den konnte ich dank D0 Stepping auf 4Ghz übertakten, die Xeons waren sogar besser.
Sandy Bridge war 32nm und den konnte ich über 5Ghz übertakten, in Tests mit viel Spannung sogar auf 5,6Ghz !!!
Als Ivy Bridge auf dem Markt kam hatte ich keine Lust mehr irgendeine CPU zu kaufen, als ich Haswell gesehen hab war endlich Feierabend mit OC!
Meine nächste CPU muss mind. 8 Kerne & 5Ghz OC haben, solange behalte ich mein Sandy Bridge 5Ghz, das war noch Golden Sample Silizium.
 
Zuletzt bearbeitet:
Tja damals waren sie noch sehr optimistisch was vieles anbelangte. Auch Pentium 4 CPUs (bzw. dessen Nachfolger) haben sie für die Zukunft auf 8+ GHz progostiziert. Als sie dann bei 3,8GHz zum Schwitzen angefangen haben (CPUs und Entwickler ;) ) hat man das aber schnell wieder totgeschwiegen.
Bei den Kernen war es wohl ähnlich ... nachdem Dual Cores sehr lange gebraucht haben um wirklich breiter genutzt zu werden und die ersten Quads 2006/2007 sich auch gelangweilt haben wurde das wohl auch wieder hinten angestellt.
Hilft alles nichts wenn die Software sich nicht in die Richtung mitentwickelt.
...
Freut Euch doch daß Ihr länger mit Eurer Hardware auskommt. Klar will man gerne mal was Neues haben oder wieder mal herumschrauben etc., aber erwartet Euch keine Quantensprünge.

Nun ist aber schon ein Teufelskreis.
Die Software Industrie wartet darauf das die Hardware kommt und die Hardware Industrie wartet auf die Software die es nutzen soll :asthanos:

Meine Hoffnung ist ja wenn die Markt mit Octas überschwemmt wird das die Software dann kommt.
Wie mans jetzt mit den Quads sieht.
Da tut sich ja langsam was.

Und die längere Hardware macht auch kein Spaß.
Da die ganzen letzten Jahre nix passiert ist, hatte ich mich fast komplett von der ganzen Hardware zurück gezogen.
Weil langweilig;)
 
Nach Sandy Bridge war das OC Potential nicht mehr so besonders, ich hab bereits 2011 die Sandy Bridge CPUs stabil auf 5Ghz übertakten können, die aktuellen Haswell sind dagegen ein Witz.

Normalerweise müsste man aktuelle Intel CPUs über 5,5Ghz übertakten müssen, je kleiner die Kerne werden desto schwieriger wird das OC Potential.

Es ist nicht gesagt ob das schlechtere OC an den kleineren CPU,s liegt.

Bei ivy wurde nicht verlötet, bei Haswell waren die Spannungswandler in der CPU.

Also ich komme auf 3-5% mehr performance bei Spielen.
Geringerer Stromverbrauch bei einer höheren TDP ? hmm naja..
OC-Potenzial ist sehr warscheinlich SCHLECHTER als bei Haswell wegen des kleineren Fertigungsprozesses.
Moderne Mainboards? Soll das nen Argument sein? Ich hab nen Z97 das ist auch "modern"!

Fazit: In der Praxis bringt es nix. ;-)

Warten wir mal ab. Schon Broadwell soll 5% mehr Single Thread IPC haben. Ich Vermute Skylake wird mit dem heutigen DDR4 Ram ca 10% mehr ST IPC als Haswell haben. Im Multithreaded evtl 15%.

Sparsamer wird Skylake auch wie ich erwarte. Aber die Benchs kommen ja im Sommer dann :)

Auch beim OC Potential erwarte ich locker 4,5-5ghz ghz mit Luftkühler bei einem 4 Kerner.
 
Was viele vergessen, der neue 100er Chipsatz erhält endlich eine kleinere Fertigung (weiss nichtmehr wieviel NM ,wer kann da helfen ? )
Nachdem Intel Jahrelang den Chipsatz im immer selben Fertigungsprozess gefertigt und damit Strom verschwendet hat für die User !

Was für ein Quatsch. Du solltest dir mal die Stromsparsthreads von Joinski angucken. Dort liegt ein alltagstaugliches i3-System auf einem B85 Board bei einem Idle Stromverbrauch von ca. 6 Watt. Wo wird denn dort bitteschön vom Chipsatz Strom verschwendet?
 
Hi Bucho :)
...
Gut. Mir gings halt eher darum klar zu machen das man in erster Linie genug CPU power benötigt um Ultra Details darstellen zu können, bevor man sich eine GPU reinbaut die 4K packt.

Star Citizen ist da halt ein Beispiel für.

Bei World of Tanks benötigt man auch zwingend einen Intel um auf Ultra Flüssig Spielen zu können, egal ob 800x600 oder 4K auflösung, das wäre eig ein besseres beispiel gewesen, auf das ich vorher leider nicht gekommen bin.
Deine erste Aussage diesbezüglich kam halt so an wie "... für 4K braucht man eine starke CPU ..." bzw. "... je höher die Auflösung/Details desto schneller muß die CPU sein ..." verallgemeinert was so eben falsch ist.

Wie gesagt, wenn eine CPU generell zu schwach für ein Spiel ist hilft Die die beste Grafikkarte und/oder die niedrigsten Einstellungen/Auflösungen nichts.

Meine Worte. Ich verstehe nie warum Leute immer mit Pauschalisierten Benchs ankommen, obwohl man selber nie Pauschalisiert hat.
Summierte Benchmarks über viele Spiele/Anwendungen sind schon okay um zu sehen wie eine CPU generell abschneidet. Ist ja ein ganz guter Indikator wenn man sich eine neue CPU kaufen will für aktuell diese Sachen, nur sollte man sich halt im Klaren sein daß neuere / andere Spiele/Anwendungen ganz anders abschneiden können. Und wenn man sich die Benchmarks auch nicht einzeln ansieht kann es auch sein daß z.B. ein flotter Dual Core in Summe gut abschneidet, aber auch nur weil er z.B. in SC2 sehr hohe FPS hat, in BF4 aber vielleicht sehr niedrige.
Genau so wie wenn man sich da z.B. den 6 Kerner ansieht aber nicht die Benchmarks im Detail um zu erkennen daß die Kerne z.B. bei vielen gar nicht genutzt werden.

Ne der Cannonlake wird nicht 12 Monate nach Skylake Released, sondern frühestens 18 Monate laut Roadmap, daher wird sich wohl auch die nachfolge Gen auf mindestens 3 Jahre ab heute ca verschieben.
Intel hat in letzter Zeit gerne mal einige Releases etwas hin und her geschoben. Daß z.B. Broadwell "so spät" am Desktop kommt aber Skylake schon knapp dahinter ist auch irgendwie komisch und untypisch. Wer weiß wie das in Zukunft wird.
Trotzdem sehe ich 3 Jahre als lange Zeit in der sich vieles tun kann, vor allem da AMD ja in der Zwischenzeit hoffentlich auch was bewegen kann.

Mein guter alter Freund Bucho :)

Du meintest das nicht ernst mit dem Zen 4 Kerner + SMT der auf dem Leistungsniveau eines Skylake i7 Agieren soll oder ?

Also quasi, gleich hohe IPC wie Skylake. Das glaube ich niemals. AMD ist zz knapp 100% Langsamer was die IPC angeht. Ich wäre schon Froh wenn Zen auf Sandy Bridge Niveau kommt um ehrlich zu sein.
Unmöglich ist das nicht. Zen ist ja keine Weiterentwicklung von Bulldozer ... ich denke da ist alles möglich. Ich erwarte im allerschlimmsten Fall in etwa eine IPC von einem Sandy. Im Optimalfall mehr. Allerdings spielen da viele Sachen zusammen wie auch eben die Anzahl der Kerne/Threads/die Taktraten/eventuell Caches und RAM Anbindung/TDP Limits und und und. Es ist ja auch eine neue Fertigung UND eine neue CPU Architektur, da kann auch schon mal was schief gehen (siehe Phenom I) und die Ewartungen werden nicht erfüllt. Da kann aber trotzdem (wie damals dann der Phenom II) was Besseres nachkommen.
Warten wir ab ...

@Duplex
Ja vielen geht es ähnlich, warum Ihre (eventuell gut übertaktete) Sandy / Ivy aufrüsten für ein wenig mehr Leistung und eventuell ein wenig mehr Effizienz bzw. ein paar neuen Features. Ich wollte auch nicht von einem Quad Core (C2Q) 4GHz auf einen Quad Core (i5 oder eventuell i7 4K 8T) ~4,5GHz aufrüsten. Klar steht da schon einiges mehr an Leistung durch die ganzen Generationen dazwischen an und auch dem Rundherum, aber Quad auf Quad wollte ich nicht. Deswegen habe ich mich für den i7-5820K entschieden.

@StillPad
Tja da müssen so Leute wie der Chris Roberts (Star Citizen, früher Wing Commander, Strike Commander etc.) her. Viele der Origin Spiele in den 90ern zwangen damals die Computer in die Knie. Wie es aussieht könnte Star Citizien wieder so etwas werden.

Leider ist es so daß wenige Entwickler sich wirklich die Mühe machen und Ihre Software auf viele Kerne / Threads optimieren. Ist halt sehr aufwendig, kostet Zeit und Geld und ist oft nicht einmal wirklich möglich. Programmiert und optimiert man voll drauf kann es sein daß mit schwächeren CPUs / Dual Cores das ganze nicht mehr gut läuft, die Kunden will man sich aber nicht aussperren. Optimiert man gleich nur auf 2-3 Kerne rennt es überall gut, aber auf 4+ Threadern halt nicht besser.

@Nighteye
Wie ich vorher schon mal schrieb könnte es eventuell an der Trigate Fertigung (ab Ivy) liegen daß das OC nicht mehr so prall geht. Ist halt doch eine neue Technik im Vergleich zu den vorherigen.
 
Zuletzt bearbeitet:
Ich wollte auch nicht von einem Quad Core (C2Q) 4GHz auf einen Quad Core (i5 oder eventuell i7 4K 8T) ~4,5GHz aufrüsten...

Deswegen habe ich mich für den i7-5820K entschieden.

Find ich gut das du den genommen hast. Dann haste Defenetiv genug Saft für Anständige Spiele wie Battlefield 5 & Star Citizen etc.

@StillPad
Tja da müssen so Leute wie der Chris Roberts (Star Citizen, früher Wing Commander, Strike Commander etc.) her. Viele der Origin Spiele in den 90ern zwangen damals die Computer in die Knie. Wie es aussieht könnte Star Citizien wieder so etwas werden.

Leider ist es so daß wenige Entwickler sich wirklich die Mühe machen und Ihre Software auf viele Kerne / Threads optimieren. Ist halt sehr aufwendig, kostet Zeit und Geld und ist oft nicht einmal wirklich möglich. Programmiert und optimiert man voll drauf kann es sein daß mit schwächeren CPUs / Dual Cores das ganze nicht mehr gut läuft, die Kunden will man sich aber nicht aussperren. Optimiert man gleich nur auf 2-3 Kerne rennt es überall gut, aber auf 4+ Threadern halt nicht besser.

Ja das ist echt Grausam das noch so viele Games auf quasi Dual Cores entwickelt werden.
Die Wot Entwickler wollen zb nicht Eilig auf Multicore Optimierung gehen weil es sich für sie nicht lohnt wie sie aktuell verlauten ließen. Mich regt das echt auf.

@Nighteye
Wie ich vorher schon mal schrieb könnte es eventuell an der Trigate Fertigung (ab Ivy) liegen daß das OC nicht mehr so prall geht. Ist halt doch eine neue Technik im Vergleich zu den vorherigen.

Ja das ist ein Indikator der stören könnte, mit Skylake werden wir wohl die entgültige antwort bekommen.
 
Nach Sandy Bridge war das OC Potential nicht mehr so besonders, ich hab bereits 2011 die Sandy Bridge CPUs stabil auf 5Ghz übertakten können, die aktuellen Haswell sind dagegen ein Witz.
Deswegen lohnt es sich für mich auch nicht einen neuen i7 mit 4 Kernen + HT zu kaufen, ich merke keinen Unterschied zu meinem i7.
Normalerweise müsste man aktuelle Intel CPUs über 5,5Ghz übertakten müssen, je kleiner die Kerne werden desto schwieriger wird das OC Potential.
Nehalem war 45nm und den konnte ich dank D0 Stepping auf 4Ghz übertakten, die Xeons waren sogar besser.
Sandy Bridge war 32nm und den konnte ich über 5Ghz übertakten, in Tests mit viel Spannung sogar auf 5,6Ghz !!!
Als Ivy Bridge auf dem Markt kam hatte ich keine Lust mehr irgendeine CPU zu kaufen, als ich Haswell gesehen hab war endlich Feierabend mit OC!

Meine nächste CPU muss mind. 8 Kerne & 5Ghz OC haben, solange behalte ich mein Sandy Bridge 5Ghz, das war noch Golden Sample Silizium.

Na dann kannst du noch lange warten. Ohne EUV-Lithografie wird es mit dem Takt nicht vorangehen. Die Steigerung der IPC hat wohl ganz offensichtlich einen negativen Einfluss auf die Taktbarkeit. Die nimmt Intel aber gerne bewusst in Kauf um die Effizienz im Bereich von 3-3.5Ghz zu erhöhen. Das mag bei kleinen Prozessoren wie dem 4970k unglücklich sein, ist aber bei immer mehr Kernen umso wichtiger. Spätestens mit DX12 wird die Singlethreadleistung ohnehin etwas an Bedeutung verlieren.
 
Zuletzt bearbeitet:
Was für ein Quatsch. Du solltest dir mal die Stromsparsthreads von Joinski angucken. Dort liegt ein alltagstaugliches i3-System auf einem B85 Board bei einem Idle Stromverbrauch von ca. 6 Watt. Wo wird denn dort bitteschön vom Chipsatz Strom verschwendet?

Unter Last Herr Kollege :)
Schau dir doch nurmal die Diskrepanz in der Fertigungstechnik an zwischen cpu und chipsatz..
Ausserdem ist der B Chipsatz extrem abgespeckt und nicht wirklich interessant.
 
Hier die Werte unter Last - für ein komplettes alltagstaugliches i3 System:
GPU Load (Furmark): 41W
CPU Load (Prime): 43W
CPU+GPU Load: 67W

Und da meinst du, der Chipsatz würde Strom verschwenden? LOL.

Ausserdem ist der B Chipsatz extrem abgespeckt und nicht wirklich interessant.

Was für eine schwachsinnige Aussage. Nicht jeder will ein SLI betreiben.

Aber vermutlich musstest du nach diesem Strohhalm suchen, nachdem dir aufgegangen war, dass deine Aussage nicht wirklich schlau war.

EDIT:

Hier noch ein Link zu einem Post von Joinski, in dem er einen i7 mit Z87 Chipsatz benutzt, Ergebnis: 8,7 Watt im Idle... - da gehen auf einem AM3 Board noch nicht einmal die LEDs auf dem Board an...
 
Zuletzt bearbeitet:
sagma verstehst dus nicht, EGAL wie wenig das schon ist, mit aktueller Fertigstechnik würde er noch viel weniger brauchen UND man bräuhte weniger grosse Kühlkonstrukte..
 
Ernsthaft... euch geht es um 5W mehr oder weniger? Im Idle? Wo man nicht mal die Maus bewegen darf ohne das der Verbrauch gleich mal wieder höher geht als diese utopischen 8,7W. Dieses Watt heischen taugt auch nur solange man keine Zugriffe jeglicher Art hat oder den Monitor dabei nicht an macht, da interessiert sich komischerweise kaum jemand ob das Gerät 30, 40 oder 60W benötigt. Und wer den Rechner für länger verlässt und wirklich sparen will, macht das gute Stück einfach aus.
 
sagma verstehst dus nicht, EGAL wie wenig das schon ist, mit aktueller Fertigstechnik würde er noch viel weniger brauchen UND man bräuhte weniger grosse Kühlkonstrukte..

Wieviel denn weniger? 0,2 Watt? 0,4 Watt? Was meinst du denn, kann man bei einer Chipsatz TDP von 4,1 Watt (Z97) - noch einmal zur Sicherheit in Worten: VIER KOMMA EINS WATT - noch einsparen? "Viel weniger"? 20 Watt? 30 Watt? Lol. Das wäre mir neu. Nur zum Vergleich: AMD AM3+ 990FX TDP: 19,6 Watt.

UND Kühlkonstrukte möchtest du einsparen! Lol. Eines der gerne empfohlenen Mainboards ist ja das AsRock B85M. Guck dir mal ein Bild des Boards an. Was willst du denn da an Kühlkörpern einsparen? Ernsthaft? Manchmal frage ich mich echt, was ich hier mache... in letzter Zeit immer häufiger... mit wem ich diskutiere... Alter...

Aber klar, der Intel Chipsatz verschwendet total Strom... iss klar... :banana:
 
Zuletzt bearbeitet:
Also wenn, dann verlange ich von Intel das man mit dem neusten Chipsatz sogar Strom produziert :coffee:
 
wenn mein AM3+ Board 20W zieht, und ich auf Skylake umsteige, spar ich nur durch den Chipsatz also schon 15W, nicht schlecht.

Wobei ich vermute das mein Board mehr zieht da ich ja nicht nur CPU Übertaktet habe, sondern quasi alles.

DDR4 Riegel verbrauchen in der Regel auch wieder weniger als DDR3 Riegel oder ? (vermute ich einfach mal weil ich gerade zu faul bin um nachzugucken).

Mein FX4100 @ 4,6 ghz zieht bestimmt auch ordentlich Strom. Ich wette bei einem Wechsel auf 4 ghz i5 Skylake würde ich ca mit der Hälfte an Strom auskommen.

Doppelter Speed & Halbierter verbrauch, also quasi 4 Fach Effizienz bei einem Upgrade :d man wie geil dieses Upgrade wird :d
 
halbierte Stromverbrauch könnte hinkommen, son AMD Sys zieht schon sehrviel strom...
 
halbierte Stromverbrauch könnte hinkommen, son AMD Sys zieht schon sehrviel strom...

ja, und auch die ca 100% mehr IPC zwischen Bulldozer MK1 aka "Zambezi" und Skylake könnten hinkommen, wo doch von Intel Kids hier im Forum immer wieder gesagt wurde das Haswell 70% mehr IPC als Zambezi hat im single core vergleich.

Und meine lieblingssoftware ist seit 1,5 Jahren World of Tanks, welches bekanntlich quasi ein Single Core Titel ist :d

Von daher wäre ein Upgrade auf Skylake dann ein Upgrade, wie kein anderes.

Die Leistung Pro watt würde um 400% Steigen. Welcher andere User hier hatte schonmal ein Upgrade um 400% was leistung pro watt angeht innerhalb von 4 Jahren :d

Oder sind es nur 200% mehr ?

Doppelte Leistung bei Halbem verbrauch, wären ergo, 100% mehr leistung bei 50% des verbrauchs.
Okay 400% war ein Denkfehler :d

Dennoch kann wohl kein User hier behaupten, das er sich im Jahr 2011 eine AKtuelle CPU gekauft hat, diese Übertaktet hat, und keine 4 Jahre später dann so ein Massives Upgrade hinlegen kann :d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh