Intel "Skylake-S": Der Core i5-6600K und der Core i7-6700K machen den Anfang (Update)

es ist nicht gesagt das die cpu so viel verbrauchen wird.

wenn man eine CPU mit 45W TDP spezifiziert, kann man ab einem gewissen Stromverbrauchspunkt nicht mehr Übertakten, da die CPU nur eine gewisse menge Stromzufuhr erlauben würde.

Die CPU erlaubt nur den Betrieb bis zu einer Thermalgrenze, die nicht überschritten werden darf, da sie sonnst anfängt zu trotteln.
Man kann jede CPU weit über die TDP-Angabe bringen, nur sie muss dabei gut gekühlt werden.

95W TDP hat nichts mit dem realstromverbrauch zu tun. es kann sein das die CPU nur 45-60W benötigt. diese 95W ist dennoch wichtig für Extrem übertakter. so wurde mir das zumindest mal erklärt.

Die TDP-Angabe ist ein Indikator für den benötigten Kühlaufwand. Je höher sie ist, desto besser muss der Kühler sein, da die CPU mehr Abwärme erzeugt. Das mit dem Übertakten spricht nur für die K-Modelle, da sie mittels ihren freien Multiplikator deutlich höher getaktet werden können. Die TDP ist daher höher, weil diese CPUs auf Leistung getrimmt sind und schon von Haus aus mit einem starken Turbo daher kommen und schon von Grund her mehr verbrauchen da sie mit höheren Spannungen und Taktraten arbeiten. Was ein Übertakter aber noch zusätzlich drauf schnallt, ist darin nicht berücksichtigt.

achja, die spannungswandler sind zwar draußen, doch mit dem Strom für die CPU hat das nicht wirklich was zu tun. Egal ob drinnen oder draußen, eine CPU frisst grob gleich viel. Denn der Stromzufluss für die CPU bleibt der gleiche, nur die strecke wird verändert, und daher wird nur die Wärmebeeinflussung anders, nicht aber der verbrauch.

Auch die Spannungswandler erzeugen eine Verlustleistung, die abgeführt werden muss. Warum werden dann Spannungswandler gekühlt, ob auf einem Board oder einer Grafikkarte ?
Fallen nun die Spannungswandler wieder raus aber die TDP steigt noch zusätzlich, so verbraucht die CPU trotzdem mehr als vorher.

@ Pickebuh. Warum so ein negativbild von Skylake ? Nur wegen den 95W TDP ?

95 Watt TDP haben wir schon bei Sandy gehabt. Dann ging sie auf 77 Watt bei Ivy herunter und stiegt bei Haswell wieder auf 88 Watt an. Nun bei Skylake haben wir wieder 95 Watt und das soll plötzlich besser sein ?

ein Skylake i5 @ 4 ghz wird bei mehr leistung, weniger verbrauchen als ein 4ghz i5 Ivy oder Haswell oder Broadwell.

Ivy = 77 Watt TDP
Skylake = 95 Watt TDP
Skylake = sparsamer ?

gegenüber Haswell wird der Skylake mindestens 15-20% mehr Leistung pro Watt bringen. Und OC wird höchstwarscheinlich auch besser gehen.
Ich erwarte Sandy ergebnisse.
Ergo, 4,4-4,8 ghz mit Luft oder 5ghz mit Wasser.

Nur weil du es dir wünscht, so wird es aber nicht kommen.
20% mehr IPC als Haswell wird sicherlich nicht drin sein. Ich schätze mal 5-8% ist das realistischste genauso wie der Sprung von Ivy zu Haswell. Und 5 Ghz ist sicherlich nicht die Norm, was ja die hier geschriebene Spezifikation von 4 Ghz beweißt. Ob sich Skylake besser oder genauso gut übertakten lässt wie Sandy, ist auch nicht garantiert.

Also, ich sehe da beim besten Willen keinen Fortschritt. Die paar Prozente(hundertstel) sind nicht gerade als bemerkbar anzusehen. :)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ Pickebuh

du sagtest "Auch die Spannungswandler erzeugen einen Verlustleistung, die abgeführt werden muss.".

Das ist Richtig. Ich habe nie das gegenteil andeuten wollen. Ich habe ledeglich gesagt, das diese hitze dann nicht in der CPU abgeführt werden muss.

Du hast dich wohl verlesen. Ich schrieb nie das Skybridge 20% mehr IPC haben wird, sondern 20% mehr Leistung Pro Watt.

Leistung Pro Watt ist etwas anderes als Leistung pro Takt.

Daher sagte ich auch, das Skylake bei gleicher Leistung, Sparsamer als Haswell wird.

Und natürlich gibt es keine Garantien für unsere Spekulationen vom OC Potential.

Das alles basiert ja mehr oder weniger auf der herausnahme der spannungswandler, was aber keine Garantie für gutes OC ist.

Denke das sollte sich aber jeder selber denken können.

Du sagtest

"Ivy = 77 Watt TDP
Skylake = 95 Watt TDP
Skylake = sparsamer ?"

wie bereits gesagt muss das nichts heißen. Es gab 95W TDP modelle die nur 45-60W benötigten im laufe der geschichte.

Du sagst.

"ich sehe da beim besten Willen keinen Fortschritt."

Das halte ich für absolut Unberechtigt. So einen starken Fortschritt wirst du laut Roadmap die nächsten 4 Jahre nicht mehr haben.

Denn wie bereits gesagt können die CPU,s trotz der TDP angabe, sparsamer sein.
Und die non K modelle werden sicherlich als 65W TDP oder sonnstwas rauskommen.

Abgesehen davon, könnte die iGPU diese zahl mitbeeinflussen.

Das bedeutet, beim nutzen einer Grafikkarte, und deaktivierter iGPU, wird nochmals weniger Verbraucht als man jetzt evtl annimmt.

Zusätzlich ist Broadwell schon 5% Schneller was die IPC angeht, und gleichzeitig Sparsamer als Haswell.

Skylake wird garantiert Effizienter als Broadwell, sonnst würde Intel ihn garnicht bringen.

Wir können also mit einem Zuwachs von 10% Single und 15% Multithreaded IPC gegenüber Haswell rechnen, bei gleichbleibendem oder sogar geringerem strombedarf des CPU Parts (ohne aktivierte iGPU).

Bedenke, das die neue iGPU im Skylake, besser und größer ist, als die alte iGPU im Haswell, und die TDP dadurch mitbeeinflusst wird.
Ergo ist der Stromverbrauch von Skylake bei gleichem takt und ohne nutzung von iGPU höchstwarscheinlich geringer als der Stromverbrauch vom Haswell, bei gleichzeitig 10-15% mehr IPC, was dann eine effizienzt von mindestens 15-20% ausmacht was die Leistung pro Watt des CPU parts angeht.

Zusätzlich ist davon auszugehen das die CPU höchstwarscheinlich besser zu Takten ist als ein Haswell.

Das nennst du keinen Fortschritt ? Und bitte nicht den fehler machen, und sich die guten Takt ergebnisse der i7 4970K anschauen, da diese CPU,s total Selektiert sind. Man sollte sich viel eher das durchschnitts Luft OC Potential von i5ern anschauen.
 
Zuletzt bearbeitet:
Zusätzlich ist davon auszugehen das die CPU höchstwarscheinlich besser zu Takten ist als ein Haswell.


der maximale boost-takt von 4.200Mhz bei dem i7 spricht meiner meinung nach dagegen.

der 4790k macht 4.4 ab werk und rauszuholen ist da in der regel kaum noch was - wir reden jetzt hier nicht von leuten mit monsterradis und pretested 1aus1000-CPUs.

bei den 4.400 des 4790k ist gelinde gesagt für intel schon weitestgehend schluss, deswegen haben sie den boost-takt wohl auch auf die 4.4 gefixt. schlechte modelle werden kaum die 4.5ghz machen -> und der querschnitt wohl auch kaum, bedenkt man die umgebung in einem "normalo-pc" (standart lüfter, womöglich OEM-ware beim mobo etc. etc.)

also die behauptung "das die CPU höchstwarscheinlich besser zu Takten ist als ein Haswell" halte ich für ziemlich aus der luft gegriffen. die sind von 3.4ghz in der regel alle auf 4ghz und mehr gekommen, auch wenns gedauert hat. da sind also 6 multi-schritte drin gewesen, sehe ich beim neuen nicht unbedingt so kommen.

gespannt bin ich trotzdem auf die neuen chipsätze und cpus - ma gucken was die dinger taugen. bedenkt man noch die zu erwartende IPC-steigerung (würde mal sagen max. 10%) wäre ein skylake i7 mit 4.200 im boost einem 4.6ghz 4790K etwa gleich. letztenendes kommt zwar sicherlich was bei rum hintenraus, aber ob man überhaupt an der 5ghz grenze knabbern wird wage ich zu bezweifeln.

/offtopic

bei mir wird wohl meine haswell-perle noch drinnebleiben bis es den ersten 8kerner mit freiem multi von intel gibt. solange muss er noch machen ;)
 
Zuletzt bearbeitet:
Gibt es doch schon. i7-5960X.

korrekt, jedoch zu teuer und derzeit nicht notwendig. im jahr 2017 erwarte ich schon die ein oder andere anwendung die mit mehr als 4 kernen was anfangen kann, und dann werde ich mir auch zeitnah ein entsprechendes modell zulegen. derzeit sehe ich keinen zwingenden bedarf, aber eine aufrüstung kommt für mich nur dann in frage wenn ich einen erheblichen leistungsschub erkennen kann, insbesondere in der architektur.

steht ja doch einiges aus, pcie-ssds sollten erschwinglich werden, usb 3.1 wird standart, 4k hält einzug, ddr4 wird marktreif etc. etc. das verfolge ich gespannt und werde mir dann ein aktuelles system zusammenschrauben. derzeit denke ich nur über einen GPU wechsel nach, aber vermutlich behalt ichs geld lieber und fahre in den urlaub :bigok:
 
der maximale boost-takt von 4.200Mhz bei dem i7 spricht meiner meinung nach dagegen.

der 4790k macht 4.4 ab werk und rauszuholen ist da in der regel kaum noch was

bei den 4.400 des 4790k ist gelinde gesagt für intel schon weitestgehend schluss, deswegen haben sie den boost-takt wohl auch auf die 4.4 gefixt.

Nichts als Vorurteile.

Der Sandy macht auch mehr als 4,4 ghz. Und das obwohl er noch in 32nm ist. Alles wegen besserer Qualy des Heatspreaders und den Externen Spannungswandlern. Ergo kannst du nicht wissen was Skylake packen wird.

lächerlich, wenn man bedenkt, daß der Broadwell i7-5775C mit gerade mal 65W TDP daherkommt und auch HT und einen offenen Multi besitzt.

dir ist schon klar das dein erwähnter Broadwell nur 3,3 ghz hat und sich daher nicht mit einem 4 ghz skylake vergleichen lässt ?

Daher ist die TDP angabe total irrelevant. Einen Skylake kann man auch auf 3,3 ghz herunter takten und den Verbrauch weiter absenken.
 
Nichts als Vorurteile.

Der Sandy macht auch mehr als 4,4 ghz. Und das obwohl er noch in 32nm ist. Alles wegen besserer Qualy des Heatspreaders und den Externen Spannungswandlern. Ergo kannst du nicht wissen was Skylake packen wird.

bild ichs mir ein oder ist nicht gerade wegen den 32nm und dem verlöteten headspreader die übertaktbarkeit besser? mehr nm -> mehr fläche -> besser kühlbar -> mehr takt realistisch

rechnet man die IPC steigerung zu haswell wieder raus, ist ein "normaler übertakteter haswell mit ~4,4ghz" ja auch schon wieder ein 4.8ghz-schwerer sandybridge. kenne einige leute mit nem 4.300 oder 4.400Mhz i7-2600k und die haben nicht mal besonders krasse kühler. die sandies waren halt auch gut, stehen für mich in einer reihe mit des ersten Q2Quads, wie dem Q6600 der halt auch ordentlich "heu gemacht hat". meiner lief 3.6 statt 2.4 mit nem 30€ scythe-kühler. warm gewordfen isser schon, aber auch nie wirklich kritisch. das waren noch 65(?)nm?
 
bild ichs mir ein oder ist nicht gerade wegen den 32nm und dem verlöteten headspreader die übertaktbarkeit besser? mehr nm -> mehr fläche -> besser kühlbar -> mehr takt realistisch

das wurde mal angenommen, konnte aber größtenteils kompensiert werden. Bei Grafikkarten dachte man das auch erst, doch wie man sieht haben die heutigen 28nm Grafikkarten einen höheren stromverbrauch als die damaligen 40nm Monster und es ist dennoch kühlbar.

bei Ivy und Haswell war einfach die Wärmeleitpaste schrott. Sie hatte den namen nichtmal verdient.

Daher kommen geköpfte Ivys/haswells auch meist direkt um die 400mhz höher bei gleichem kühler.

zusätzlich stehen halt die internen spannungswandler bei haswell als hitzeverursacher bei.

Wenn intel bei skylake wieder "zahnpasta" als wärmeleitpaste verwendet, wirds wohl so aussehen wie bei Haswell was Takt angeht.

Doch die ersten spezifikationen von 3,9 ghz lassen besseres schließen.

ihr dürft ja nicht vergessen das die ersten haswells deutlich drunter lagen, und der 4790K eine selektierte CPU ist, quasi die besten der besten und somit keine referenz für massenware.

rechnet man die IPC steigerung zu haswell wieder raus, ist ein "normaler übertakteter haswell mit ~4,4ghz" ja auch schon wieder ein 4.8ghz-schwerer sandybridge.

und mit einem skylake auf 4 ghz hat man wohl die selbe power wie ein 4,8ghz, nur das man viel weniger verbraucht.
 
News-Update :wink:
 
Naja, wüsste nicht, wofür ich meinen Ivy Bridge ersetzen sollte. Zum spielen langt die Leistung noch lange. Ich würde wenn wegen der neueren Plattform aufrüsten. Erstmal kommt eh ne neue Graka rein.
 
seht ihr, wie ich es vermutet hatte. hab heute morgen noch geschrieben nur die K modelle haben 95W TDP.

Aber irgendwie auch seltsam dass gerade bei den K Modellen die iGPU so stark einwirkt.
Die Taktraten sind ja bei den nonK Modellen nicht großartig anders.

Die Zielgruppe von K Modellen sind ja eher Gamer, und die werden mit einer iGPU nicht viel anfangen, sofern sie nicht übermächtig ist. (Wobei bei 30W zusätzlicher Verlustleistung ordentliche Grafikleistung dahinter stecken muss)
 
Dann hoffe ich mal, daß die bei den Skylake-CPUs auch die IrisPro verbauen, so wie im kommenden Broadwell. Alles andere wäre nämlich absolut lächerlich, wenn man bedenkt, daß der Broadwell i7-5775C mit gerade mal 65W TDP daherkommt und auch HT und einen offenen Multi besitzt.

Ich würde fast davon ausgehen, dass dies der Fall sein wird... Die Frage ist nur, wie groß wird die GPU im Desktop Modell werden?
Mit Broadwell bekommst du 48 EUs, mit Skylake stehen ja 72 EUs auf dem Plan/Papier -> ob die Desktop CPUs auch diese Ausführung erhalten werden? Mal gucken... Von einer GT3e Version für den Desktop würde ich allerdings stand heute schonmal ausgehen. Ob es auch die GT4(e) wird? Mal abwarten ;)

Aber irgendwie auch seltsam dass gerade bei den K Modellen die iGPU so stark einwirkt.
Die Taktraten sind ja bei den nonK Modellen nicht großartig anders.

Das eine muss mit dem anderen ja nicht unbedingt was zu tun haben.
Bei AMD haben auch die "K" Modelle mit offenem Multi bei den APUs mehr TDP Spielraum...
Und bei Intel sind die S2011-3 i7 auch unabhängig der Coreanzahl bei gleicher TDP. Genau so wie die Server S2011-3 CPUs komische Einstufungen haben (zum Teil)
 
Zuletzt bearbeitet:
Das eine muss mit dem anderen ja nicht unbedingt was zu tun haben.
Bei AMD haben auch die "K" Modelle mit offenem Multi bei den APUs mehr TDP Spielraum...
Und bei Intel sind die S2011-3 i7 auch unabhängig der Coreanzahl bei gleicher TDP. Genau so wie die Server S2011-3 CPUs komische Einstufungen haben (zum Teil)

Dann hab ich aber den Sinn der TDP nicht ganz verstanden.
Warum ist sie dann bei den K Modellen höher, wenn sie sich doch nur auf den Standardtakt bezieht?
Immerhin kann auch heute noch eine CPU locker über 100W mit OC Verlustleitung haben.
 
Eine Möglichkeit wäre die verbaute Grafikeinheit.
 
Viel interessanter als die frage nach dem warum, finde ich die Erkenntnis welche wir noch aus den neuen Infos gewinnen.

i7-6700T 4 Kerne / 8 Threads 2.8 GHz Standardtakt / 3.6 GHz Turbotakt bei einer TDP von nur 35W !

Wirkt sehr effizient auf mich.

Das teil dürfte ja in etwa so schnell sein wie ein Sandy Bridge i7 2600K ohne OC, und dabei nur die hälfte oder nur ein Drittel der Energie benötigen.
 
Eine Möglichkeit wäre die verbaute Grafikeinheit.

Das hab ich auch vermutet, wurde aber eher als "unwahrscheinlich" abgetan.

Außerdem wäre es ja unlogisch, gerade Käufer der K Modellen werden eher weniger auf die iGPU vertrauen, sondern eine eigene Grafikkarte nutzen.

Aber die ganze "vermuterei" ist sowieso Zwecklos.
Ich persönlich empfinde die TDP Leistung als äußerst irreführend.
Man sollte einen genormten Stresstest entwickeln, und die dabei entstehende Verlustleistung sollte als Wert angeben.
Intressant wäre es dann noch, wie viel Temperatur an einem "Normkühler" ankommt, um in etwa eine Vorstellung zu haben wie gut die Wärmeleitfähigkeit innerhalb der CPU ist.
 
Ich geb dir n Tipp, es geht um ein Spiel, welches Millionen von Menschen spielen werden, und einen heutigen i7 an seine grenze bringt, und auf 6 Kernen optimal läuft, und sogar 8 Kerne Unterstützt. Ach komm ich sags gleich. Star Citizen. Und bevor du jetzt den fehler machst und guckst was ein i7 für fps bei dem game schaft, denke erstmal über die umstände nach.

Das spiel kommt 2017, wird viel mehr leistung fressen als heute schon, da noch richtig viel fehlt was den leistungshunger defenetiv vergrößern wird.

Du argumentierst ernsthaft mit einem Spiel, das erst 2017 auf den Markt kommt? Du weisst schon, dass das noch in der Entwicklung ist?

Und schön, dass du heute schon weisst, dass dies Spiel von Millionen gespielt wird. Da freuen sich bestimmt die Entwickler. Nur wozu sollen die restlichen Milliarden, sich dann eine CPU mit mehr als 4 Kernen / 8 Threads kaufen?

Und in 2017 ist Skylake doch schon längst wieder durch eine neue Generation ersetzt.

Und zu dem CPU Hunger des Spiels noch eine Notiz:
"Sicher wird Entwickler Roberts Space Industries hier noch optimieren, die geplante Unterstützung von AMDs Low-Level-API Mantle scheint in dieser Beziehung aber schon jetzt besonders interessant." Quelle

CPUs mit mehr als 4 Kernen / 8 Threads sind für den Mainstream im Desktop Bereich so nötig wie ein Kropf. Du bist schon ein besonderer Fall von AMD Reklame/Gehirnwäsche Opfer.

Zusätzlich wird die Standardauflösung immer höher, und 4k wird im Jahre 2017 bei immer mehr Leuten einzug halten, was wieder zu Expotentiell mehr CPU last führt.

Und kannst du den Hintergrund dieser Aussage näher erklären? Ich hätte nämlich gerne etwas zum Lachen.
 
Zuletzt bearbeitet:
Viel interessanter als die frage nach dem warum, finde ich die Erkenntnis welche wir noch aus den neuen Infos gewinnen.

i7-6700T 4 Kerne / 8 Threads 2.8 GHz Standardtakt / 3.6 GHz Turbotakt bei einer TDP von nur 35W !

Wirkt sehr effizient auf mich.

Das teil dürfte ja in etwa so schnell sein wie ein Sandy Bridge i7 2600K ohne OC, und dabei nur die hälfte oder nur ein Drittel der Energie benötigen.
Man kann es nicht oft genug wiederholen, bitte nicht TDP mit tatsächlicher Leistungsaufnahme gleichsetzen. Niedrigere TDP bedeutet halt oft auch, dass der Turbo weniger gut greift. Mal davon abgesehen gibt's vergleichbare Taktraten bei 4C/8T Haswell auch schon mit 45W, siehe i7-4790T.
 
@ TARDIS

Cannonlake is expected to be released in 2017.

Mal sehen ob das Shrinken auf 10nm wirklich pünktlich gelinkt.

Dennoch ist das kein so tolles Argument.

Begründung:

Siehe Nehalem 45nm ->32nm oder Sandy Bridge - Ivy Bridge. Die Shrinks haben keine welten verändert.

Zudem werden 2017 die meisten Menschen auf Skylake und Zen unterwegs sein und für einen Skylake user wird sich das aufrüsten für evtl 5% mehr leistung kaum lohnen.

Zudem ist nicht gesagt ob mit Cannonlake endlich günstige 6 Kerner seitens Intel erscheinen.

zu deinem mantle argument habe ich schon etwas geschrieben. Ein Kaveri (welcher Mantle hat) leistet weniger als ein Piledriver mit Extra Modul.

Von daher war dein Argument schon wiederlegt bevor du es geschrieben hast.

Von einem Intel 6 Kerner im vergleich zu einem Intel 4 Kerner Profitieren schon heute viele Spiele, und es werden immer mehr.
Aber lustig wie du meinst ich mache hier AMD Reklame und sei ein Gehirngewaschenes Opfer. *verschwörungstheorie aktiv*

Zu der auflösung.

Die Berechnung der auflösung übernimmt die Grafikkarte.

Die heutigen Grafikkarten haben schon ohne Massiv PVP ernsthafte probleme bei AUflösungen von 2500.

Mit Massivem PVP wird sich das noch verschlimmern.

Eine Grafikkarte die 4K packt, muss also eine menge Power haben.

Und nehmen wir an wir haben eine Grafikkarte die bei 4k und Massiver Aktion konstant mindestens 80 fps liefert, auf welchen details wird dann wohl gespielt ? Bestimmt nicht auf Low.

Es gibt heutzutage noch keine Grafikkarte die das bei Star Citizen packt. In 2 Jahren wirds evtl eine High End karte geben die das gerade so schaft, und um diese auszulasten bei Ultra details etc, bedarf es mehr als einen Quad Core mit SMT.

Du hast evtl überlesen das die Hardwareanforderungen noch extrem ansteigen werden. zz fehlen in dem game ja noch die Sonnensysteme, Haufenweise Stationen & NPC,s & Routen die diese fliegen und Tausende von Spielern vor den Stationen.

Alleine aus Eve Online weiß ich, wie krass 1000 spieler die anforderungen im vergleich zum normalen spielen in die höhe schießen lassen.

- - - Updated - - -

Ich sag nur, eine GTX980 wird nichtmal für Low Details bei niedrigen auflösungen reichen.

die bringt heute ohne die ganzen erwähnten dinge die noch fehlen (NPC,s & Sonnensysteme & Tausenden von Spielern & Stationen & Massen Gefechten) gerade mal 80 fps average bei wie gesagt Low Details in mini auflösung.

http://media.gamersnexus.net/images/media/2014/guides/star-citizen-bench3.1.jpg

What's the Best Graphics Card for Star Citizen?
That's just the thing: There isn't one right now.

Right now, the best cards are only the best because of raw horsepower on the hardware side.
We would recommend waiting before purchasing GPUs.

- - - Updated - - -

Ich habe eher das Gefühl Tardis ist hier ein Intelfanboy, da er der erste ist, der mich als Fanboy bezeichnet, und uns allen hier klar machen will, das man nicht mehr als 4 kerne benötigt, und ein Intel Quad Core völlig aussreichend ist und bleiben wird.

Total Primitives und Rückschrittliches denken. Die Hardware Anforderungen steigen stetig, und iergentwann wird ein Quad Core einfach nicht mehr reichen.

Die Entwicklung das Dual Cores garnicht mehr aussreichen, ist ja auch bei immer mehr Games zu sehen und auch etwas ganz neues.
Genau so ging es einst dem Single Core. Der Quad Core wird für Enthusiasten spätestens 2017 mit Star Citizen Tod sein.

Man sieht heute schon wie schön die Crysis Engine (also auch die Star Citizen engine) mit den FX6 und FX8 im vergleich zum FX4 umgeht.

Der Zen wird genau davon Profitieren, genau so wie Intels 6 Kerner.
 
Zuletzt bearbeitet:
@ TARDIS

Cannonlake is expected to be released in 2017.

Oh, mein Fehler. Ich dachte es geht hier um Skylake. Ich muss es in der Überschrift überlesen haben, dass es um Cannonlake geht.

zu deinem mantle argument habe ich schon etwas geschrieben. Ein Kaveri (welcher Mantle hat) leistet weniger als ein Piledriver mit Extra Modul.

Von daher war dein Argument schon wiederlegt bevor du es geschrieben hast.

Ernsthaft? Das Spiel unterstützt dato doch noch gar kein Mantle. Die Mantle-Unterstützung ist GEPLANT.

Und weil ein Kaveri ein geplante, noch nicht implementierte Funktion... lassen wir das. Manchmal kann ich mir nur an den Kopf fassen...

Von einem Intel 6 Kerner im vergleich zu einem Intel 4 Kerner Profitieren schon heute viele Spiele, und es werden immer mehr.

Ich orientiere mich da mehr an Benchmarks, in denen etwas nachgemessen wurde und nicht an feuchten Träumen:



Irgendwie ist der Intel X6 dort langsamer als der Intel X4... wen wunderts? Mich nicht.

Zu der auflösung.

Die Berechnung der auflösung übernimmt die Grafikkarte.

Die heutigen Grafikkarten haben schon ohne Massiv PVP ernsthafte probleme bei AUflösungen von 2500.

Mit Massivem PVP wird sich das noch verschlimmern.

Eine Grafikkarte die 4K packt, muss also eine menge Power haben.

Natürlich steigen die Anforderungen an die Grafikkarte, du hattest aber behauptet, die Anfordeungen an die CPU würden exponentiell steigen!

Dann müsste mein X2 ja quasi implodieren, wenn in ein paar Wochen mein 4k Monitor kommt. Lol.

Ich habe eher das Gefühl Tardis ist hier ein Intelfanboy, da er der erste ist, der mich als Fanboy bezeichnet, und uns allen hier klar machen will, das man nicht mehr als 4 kerne benötigt, und ein Intel Quad Core völlig aussreichend ist und bleiben wird.

Ich bin halt ein Fan von Leistung und angemessener Leistung und das steht dem AMD Bullshit Bauernfängerei Marketing nun mal diametral gegenüber.
 
Zuletzt bearbeitet:
Viel interessanter als die frage nach dem warum, finde ich die Erkenntnis welche wir noch aus den neuen Infos gewinnen.

i7-6700T 4 Kerne / 8 Threads 2.8 GHz Standardtakt / 3.6 GHz Turbotakt bei einer TDP von nur 35W !

Wirkt sehr effizient auf mich.

Das teil dürfte ja in etwa so schnell sein wie ein Sandy Bridge i7 2600K ohne OC, und dabei nur die hälfte oder nur ein Drittel der Energie benötigen.

Nun lohnt es sich nicht wegen Energie Effizienz hunderte von Euros in das Update zu stecken.

Wegen Energiesparsamkeit was neues zu kaufen bringt nur den Herstellern was ;)

Desweiteren halte ich die 25% Leistungssteigerung zum Sandy Bridge für ein Traum.

Ich habe seit Jahren ein Sandy 2600K und warte auch schon seit Jahren auf ein Leistungsupgrade.
Meine Prognose liegt bei vielleicht 15%

Ich hoffe das bald mal Benchmarks auftauchen damit man endlich was einschätzen kann.

Es wird definitiv Zeit das mal wieder ein richtiger Leistungsträger auf dem Markt kommt.
 
Oh, mein Fehler. Ich dachte es geht hier um Skylake. Ich muss es in der Überschrift überlesen haben, dass es um Cannonlake geht.

Du hast doch mit Cannonlake angefangen. Ich errinere dich mit deiner eigenen aussage mal ;)

Und in 2017 ist Skylake doch schon längst wieder durch eine neue Generation ersetzt.

dein Erinnerungsvermögen scheint nicht gut zu sein :)

Ernsthaft? Das Spiel unterstützt dato doch noch gar kein Mantle. Die Mantle-Unterstützung ist GEPLANT.

Ja ernsthaft. Es gibt Mantle schon für andere spiele, zb Battlefield 4.

Und da sieht man, das ein Kaveri Quad Core trotz mantle, schwächer ist als ein FX6 & FX8.
Beim gleichen takt versteht sich. Und diese FX sind sogar noch eine Generation Älter.

Ich orientiere mich da mehr an Benchmarks, in denen etwas nachgemessen wurde und nicht an feuchten Träumen:

Irgendwie ist der Intel X6 dort langsamer als der Intel X4... wen wunderts? Mich nicht.

Super jetzt bringst du einen Mischmasch Bench wo der Durchschnittswert aller möglichen Titel vorhanden ist.

So ein Ungenauer bench hat keine aussage kraft für oder gegen meinen Kontext.

Mal ganz davon abgesehen das ich nicht schrieb das die meisten spiele von 6 Kernen profitieren, sondern "immer mehr", was nicht gleichbedeutend mit einer Überzahl ist.

Von daher bist du out of Kontext.

Natürlich steigen die Anforderungen an die Grafikkarte, du hattest aber behauptet, die Anfordeungen an die CPU würden exponentiell steigen!

Wenn du keinen Zusammenhang zwischen GPU last und CPU last findest, versuch doch mal eine Titan mit einem FX4100 auszulasten.

Ich bin halt ein Fan von Leistung und angemessener Leistung

Oh was du nicht sagst Mr.Quad Core :rofl:

Bin mal gespannt ob du als Leistungsfan mit deinem Quad Core in Star Citizen bei 4K & Ultra Settings gute FPS erzielst in 2 Jahren ;)

- - - Updated - - -

Desweiteren halte ich die 25% Leistungssteigerung zum Sandy Bridge für ein Traum.

Ich habe seit Jahren ein Sandy 2600K und warte auch schon seit Jahren auf ein Leistungsupgrade.
Meine Prognose liegt bei vielleicht 15%

Ich hoffe das bald mal Benchmarks auftauchen damit man endlich was einschätzen kann.

Es wird definitiv Zeit das mal wieder ein richtiger Leistungsträger auf dem Markt kommt.

DU hast Broadwell verschlafen oder ? Broadwell hat schon 15% mehr IPC als Sandy Bridge.
 
Wie schon gesagt. Hier werden um Prozente gefeilscht und das nach Jahren und mehreren Generationen !
Ich warte auch auf den wirklichen Sprung, aber das wird noch dauern.
 
Ich möchte mir kurz vor Weihnachten einen neuen PC zusammenstellen. Nun meine Frage sollte ich auf die Broadwell Modelle warten,damit die Haswell Modelle z.B.: I7-4790K günstiger werden oder sollte ich mein System mit Broadwell Modelle bestücken. Was meint Ihr?
 
Eine GTX Titan kriegt man in 4K problemlos mit nem FX4100 ausgelastet. Das 4K für höhere CPU-Last sorgt ist völliger Unsinn.

Mit DX12 ists dann für Spieler aber vermutlich eh fast egal was für eine CPU im System steckt.
 
Zuletzt bearbeitet:
Nun lohnt es sich nicht wegen Energie Effizienz hunderte von Euros in das Update zu stecken.

Wegen Energiesparsamkeit was neues zu kaufen bringt nur den Herstellern was ;)

CPUs mit niedriger TDP und hoher Effizienz haben noch andere Vorteile: die Kühlung, die auch in kleinen Gehäusen kompakter und/oder leiser ausfallen kann. Und das bei trotzdem hoher Leistung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh