Coffee Lake: Intel Core i7-8700K, i5-8600K und i5-8400 im Test

Nur ist der Unterschied zwischen einem Ryzen und Coffee Lake deutlich kleiner als zwischen einem Lynnfield und Ryzen ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum geht das heute eig. nur via XMP Profil?

Früher konnte man einfach im Bios den max. Ramteiler auswählen und anschließend auch noch über den FSB noch über den höchsten Ram Teiler hinaus übertakten?


Das geht doch eig. heute auch noch, andernfalls wäre ja kein RAM OC mehr möglich?

...noch gar nicht ausprobiert beim Z370, müßte schon gehen, nur hat man dann den Stress mit den ganzen Parametern, alle second und third usw. wieder richtig setzen, ob das mit Auto mitkommt bei unaktiviertem XMP, denk wohl kaum..;)
 
Warum geht das heute eig. nur via XMP Profil?

Früher konnte man einfach im Bios den max. Ramteiler auswählen und anschließend auch noch über den FSB noch über den höchsten Ram Teiler hinaus übertakten?


Das geht doch eig. heute auch noch, andernfalls wäre ja kein RAM OC mehr möglich?

ja das geht auch heute alles noch,
meine 2666mhz riegel betreibe ich zb mit 3000mhz.
 
Warum geht das heute eig. nur via XMP Profil?

Früher konnte man einfach im Bios den max. Ramteiler auswählen und anschließend auch noch über den FSB noch über den höchsten Ram Teiler hinaus übertakten?


Das geht doch eig. heute auch noch, andernfalls wäre ja kein RAM OC mehr möglich?

das ist simple jedec was den standayrd für ramtakt vorgibt haben sich nur bis ddr4 2133 geeinigt alles darüber ist oc

Daher gibt es kein jedec ddr4 2666
Sondern konsequent ddr4 2133 lediglich die latenzen machen den unterschied ddr4 2133 und cl12 wären sehr gut normal sind cl16
das sind bsp cl16
16x2000/2133=15ns
cl12
12x2000/2133=11,25ns

was mehr bringt hängt von der anwendung ab bandbreite klar takt, Geschwindigkeit klar je kürzer die ns sind desto besser
das ist gut zu sehen bei Test mit aida64 ns jede kombi mit ddr4 2666 und cl15 ist schneller als mit ddr4 2966 und cl18
Weil die zeit hier Nenner ist.
Die bandbreite allerdings geringfügig weniger
band-breite... beste ist quadchannel
Geschwindigkeit.... beste ist geringe cl werte bei ddr4 beste wäre cl12 auf ddr4 2400 =10ns
Der schnellste ram ist ddr4 2400 cl10 =8,3ns
Und je schneller der ram desto agiler das os weil weniger Wartezeiten entstehen
Der ramtakt an sich is da ziemlich egal.
 
Daher gibt es kein jedec ddr4 2666

Doch. Es sind bis DDR4-3200 Jedec-Standards festgelegt: https://en.wikipedia.org/wiki/DDR4_SDRAM
Da bisher die Speichercontroller in den CPUs allerdings erst nach und nach von 2133 über 2400 auf DDR4-2666 kommen, wurde von den Herstellern oftmals alles über DDR4-2133 durch das XMP Profil festgelegt.
Da die unterstützte Speichergeschwindigkeit der CPUs zukünftig noch steigen wird, werden wir auch neue Speichermodule mit höheren Jedec-Standards sehen, da zumindest die OEM Hersteller keine bzw. kaum XMP Profile aktivieren.
 
....und man muß erstmal DDR2400 mit CL10 schaffen, auch die anderen Parameter spielen bei der Standardberechnung eine entscheidende Rolle für die tatsächliche Ermittlung der Latency.
weil gut 10x2000/2400 = 8,33ns was sehr gut ist, dennoch erst erreichbar, wenn da CL10-10-10-24- @1T Command gesetzt ist und das möchte ich mal sehen bei DDR4-2400, zudem spielen second und third Timings mit wie tRFC und vor allem bei der Verzögerung auch das refresh-interval tREFI.....;)
ich hab jetzt DDR4-3540 CL16 zwar, aber die wichtige tRCD steht auf 18, tRP und auch tRAS spielen keine Rolle, aber wie gesagt stimmt die Standardprozedur nicht zumal ich auch auf command rate =2 setzen muß, um diesen Takt mit meinen 2x8GB Corsair LPX 3200 stabil (LinX 0.8.0) zu erreichen...
geschöntes Resultat wäre also 16x2000/3540 = 9,0395ns, was aber bestimmt nicht ganz so toll ausfällt, außer man tweaked extrem an second und third Timings....

cachemem.png
 
Zuletzt bearbeitet:
Wie Unterscheiden sich denn die i7 -8700 und i7-8700k Prozessoren untereinander ? man liest immer nur etwas von dem K Modell
 
wer nicht oder nur ganz minimal übertakten will, kann mit dem non K genau so glücklich werden, sind bis auf den Basis- und Max-Multi identisch, außerdem hat der K 95Watt TDP und der non K 65Watt. weitere Unterschiede fallen mir jetzt keine ein...;)

//edit:
ach ja, wenn man z.B. mit negativem OffSet kühler fahren will, weil Einem die Leistung ohnehin mehr als ausreicht, der kauft dann den etwas günstigeren non K..
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hallo HardwareLuxx Community,

ich habe eine Frage bezüglich meiner Pläne einen neuen Prozessor zu kaufen und würde gerne auf diesem Weg die Community um Ihre Meinung fragen.
Entschieden habe ich für eine CPU der Serie "Coffee Lake" der Firma Intel. Nun stecke ich in dem Dilemma, ob ich mich für einen Intel i7-8700k oder
einen i5-8600k entscheiden soll. Ich nutze meinen Rechner hauptsächlich zum Spielen also zum Ausgleich zur Arbeit. Lohnt sich für diese Ausrichtung
wirklich der Aufpreis zum i7?

Mit freundlichen Grüßen
TThielmann
 
Jein.

Aktuell ist der 8600K ausreichend schnell, um die kommenden Games zu befeuern.

Aber:
Die Spiele-Programmierer haben langsam verstanden, dass es keinen Sinn macht, alle paar Jahre einen Kern mehr effizient auszulasten, sondern direkt eine Mehrkern-Optimierung zu implementieren. D.h. Spiele werden nicht bei -6- Kernen Schluss machen, sondern ihre Leistung weiter steigern, wenn -8- Kerne im System sind.

Bestes Beispiel ist "Assassins Creed Origins":
Assassin's Creed Origins: Grafikkarten-Benchmarks, CPU-Leistung

Da ist zwischen -4-, -6- und -8- Kernen ein deutlicher Unterschied zu sehen.

Ich persönlich würde also bis zum Frühjahr 2018 warten, was AMD mit "Ryzen Plus" abliefert - ob der Nachfolger des jetzigen R5-1600(X) dann mehr Takt bietet.

Aus folgendem Grund:
Bei AMD ist eine Langlebigkeit der Plattform nahezu garantiert. Der "Ryzen Plus" im Frühjahr wird auf AM4 laufen - der Nachfolger "Ryzen 2.0" soll auf AM4 laufen - bis 2019 ist es aber noch ein Stück hin. Das heißt man kauft heute ein Plattform, die man je nach Anforderung weiter und weiter aufrüstet.

Bei Intel ist das alles andere als sicher. Der jetzige 8700K läuft auf dem Z370. In 2018 kommt erstmal der Z390 - der für den 2018/2019 erscheindenen 8-Kerner konzipiert ist, aber auch den 8700K noch aufnehmen soll. Das legt die Vermutung nahe, dass der 8700K auf dem Z370 und Z390 laufen wird - der 9700K (8-Kerner) aber nicht auf dem jetzigen Z370.

Intels Plattformstrategie frisst Unmengen an Geld und ist nicht zukunftssicher. Da darf man alle zwei Jahre in einen neuen Chipsatz investieren, um aktuelle CPUs zu bekommen.

Und so wie die Spiele-Programmierer sich derzeit verhalten, wäre es bescheuert, sich auf eine bestimmte Kernanzahl festzulegen. Heute sind 6-Kerner optimal - in zwei Jahren können sie schon "out" sein. Da hilft dann auch das SMT eines i7 nur begrenzt, siehe 7700K heute.
 
J
Bei AMD ist eine Langlebigkeit der Plattform nahezu garantiert. Der "Ryzen Plus" im Frühjahr wird auf AM4 laufen - der Nachfolger "Ryzen 2.0" soll auf AM4 laufen - bis 2019 ist es aber noch ein Stück hin. Das heißt man kauft heute ein Plattform, die man je nach Anforderung weiter und weiter aufrüstet.

Über diese Brücke mit den Garantien würde ich abder nicht gehen. Manchmal kommt es anders als man denkt.



Bei Intel ist das alles andere als sicher. Der jetzige 8700K läuft auf dem Z370. In 2018 kommt erstmal der Z390 - der für den 2018/2019 erscheindenen 8-Kerner konzipiert ist, aber auch den 8700K noch aufnehmen soll. Das legt die Vermutung nahe, dass der 8700K auf dem Z370 und Z390 laufen wird - der 9700K (8-Kerner) aber nicht auf dem jetzigen Z370.

Intels Plattformstrategie frisst Unmengen an Geld und ist nicht zukunftssicher. Da darf man alle zwei Jahre in einen neuen Chipsatz investieren, um aktuelle CPUs zu bekommen.

Komme mit diesen Aussagen immer nicht klar. Ich kaufe mir einen Rechner, egal ob AMD oder Intel, nach ca. 5-6 Jahren Nutzungszeit wechsele ich nicht nur die CPU. Das macht keinen Sinn, da die anderen Komponenten auch altern und bestimmt auch neuere Technik und andere Anschlüsse verfügbar sind. Die möchte ich doch dann auch haben. Es ist aber, wie so vieles im Leben- suum cuique.
 
AMD würde mit sich selbst und den Kunden brechen, wenn sie den AM4 nach nur zwei Jahren auslaufen lassen würden. Bei den bisherigen AM2 bis AM3+ war es entweder so, dass die CPU oder das Mainboard mitgenommen werden konnte. Das spart eine Menge Geld und so hatte man nach ein paar Jahren entweder wieder deutlich mehr Leistung oder neue Anschlussstandards. Das Prinzip finde ich sehr gut.

Und natürlich wechselt man in der Regel nach 5~6 Jahren "alles", die GPU meist früher. Aber jetzt wäre es fatal, zum CoffeeLake zu greifen, der nicht nur zu teuer ist, sondern im Frühjahr Konkurrenz aus dem Hause AMD bekommt. Wenn diese Konkurrenz nicht nur gleichwertig, sondern aufgrund der Kernanzahl auch noch überlegen ist, kann man sich mal schön in den A*sch beißen.

Dass Intel jetzt mit CoffeeLake einen Vorsprung hat, mag niemand abreden. Dafür haben sie ja auch lange genug gebraucht. Der nächste Sprung dauert aber wieder - und RyzenPlus steht vor der Tür.
 
Wenn ich immer warte weil etwas neues vor der Tür steht, dann ist es wie warten auf Godot.
Habe mir einen 8700 gekauft, weil ich dieses Jahr noch ein Investitionsabzugsbetrag benötigte, dass ist aber reinweg persönlich und kann nicht verallgemeinert werden.
 
Obwohl ich auch immer "Probleme" habe zu warten, VERSUCHE ich jetzt standhaft zu bleiben.

Mein Großhändler hätte wohl ein paar 8600K und 8700K da.

Aber dieses mal möchte ich mindestens Zen+ abwarten. Ich erhoffe mir, deutliche Mehrleistung der neuen AMD-Prozessoren. Wenn es so kommt, wird es ein Zen+. Wenn nicht, dann warten ich (wieder...) auf Z390 + den 8 Core von Intel. Vielleicht kommt bis dahin auch die neue nVidia GPU, was perfekt wäre, da ich nicht aufrüste, sondern immer einen neuen PC baue.
 
Ich warte auch auf Zen+ um mein 2600K System abzulösen.
Hoffe auf ne leicht gesteigerte IPC + deutlich bessere Übertaktbarkeit. Dann wäre ich zufrieden.

Gesendet von meinem SM-G930F mit Tapatalk
 
Die Spiele-Programmierer haben langsam verstanden, dass es keinen Sinn macht, alle paar Jahre einen Kern mehr effizient auszulasten, sondern direkt eine Mehrkern-Optimierung zu implementieren. D.h. Spiele werden nicht bei -6- Kernen Schluss machen, sondern ihre Leistung weiter steigern, wenn -8- Kerne im System sind.

Diese angebliche Mehrkern-Optimierung nennt sich ganz einfach Multithreading. Da wo es sinnvoll sowie rentabel ist/war Last auf mehrere Threads aufzuteilen, wurde meistens auch Multithreading verwendet. Ausnahmen bestätigen die Regel. Ergo haben auch schon ältere Spiele mehrere Threads benutzt und waren Mehrkern-optimiert. Um dies zu überprüfen, kann man sich mit solchen Programmen, wie u.a. Process Lasso, anzeigen lassen, wie viele Threads ein Spiel erzeugt. Aber nur weil ein Spiel viele Threads benutzt, heißt dies noch lange nicht, dass dieses auch mit vielen Kernen gut skaliert, da nicht alle Threads parallel abgearbeitet werden können, weil eventuelle Abhängigkeiten zwischen Threads bestehen können, und all diese Threads unterschiedlich viel Last erzeugen, sodass manche daher eben mehr Rechenzeit in Anspruch nehmen als andere. Diese unterschiedlichen Rechenzeiten führen zu Szenarien, wo viele kleine Threads bereits nebenbei abgearbeitet wurden, aber aufgrund der Synchronisierung noch auf die Abarbeitung eines großen Threads gewartet werden muss, bevor das Ergebnis auf den Bildschirm produziert werden kann. Auch der Dx11-Overhead spielt hier eine Rolle. Es entsteht also ein Leerlauf => weniger Auslastung auf den Kernen. So ein asynchroner Ton oder nicht beachtete Eingaben würden das Spielerlebnis durchaus trüben.
Diese fehlende Kernskalierung wird dann oft als fehlende oder schlechte Mehrkern-Optimierung interpretiert, obwohl das Problem eher daran liegt, dass manche Sachen einfach nicht weiter parallelisiert werden können und eine daraus resultierende ungleiche Auslastung der Kerne, da diese Spiele einfach insgesamt nicht so viel CPU-Power benötigen, sodass die Last in den kleinen Threads relativ gering ist. Bei solchen Spielen wie AC Origin, die sehr viel CPU-Power benötigen, fallen diese kleinen Threads einfach viel größer aus, sodass diese eben nicht mehr so schnell nebenbei abgearbeitet werden können und so besser mit mehr CPU-Breite skalieren.

Bestes Beispiel ist "Assassins Creed Origins":
Assassin's Creed Origins: Grafikkarten-Benchmarks, CPU-Leistung

Da ist zwischen -4-, -6- und -8- Kernen ein deutlicher Unterschied zu sehen.

Und so wie die Spiele-Programmierer sich derzeit verhalten, wäre es bescheuert, sich auf eine bestimmte Kernanzahl festzulegen. Heute sind 6-Kerner optimal - in zwei Jahren können sie schon "out" sein. Da hilft dann auch das SMT eines i7 nur begrenzt, siehe 7700K heute.


Genau dies konnte man auch schon bei Ghost Recon Wildlands beobachten:

Ghost-Recon-Wildlands-CPU-Skalierung-2-0-GHz-pcgh.png


Aber auch nur weil die CPU untertaktet wurde -> geringere Singlethreadleistung -> Threads werden langsamer abgearbeitet -> mehr CPU-Breite wird benötigt. Aber durch Erhöhung des Taktes, haben schon 4C/4T gereicht, um ins GPU-Limit zu laufen.

Ghost-Recon-Wildlands-CPU-Skalierung-4-0-GHz-pcgh.png


Obwohl diese Spiele eine so gute Kernskalierung aufweisen, ist der 7700k immer noch schneller als der 1800x, also wo ist der 7700k bitte am Ende???
Es hieß doch immer ja aber wenn die Spiele endlichen anfangen mehr Kerne zu nutzen, dann sehen die 4 Kernern mit HTT kein Land mehr und die Ryzen ziehen an denen vorbei. Ja wo denn? Ich sehs immer noch nicht. :d

Ich persönlich würde also bis zum Frühjahr 2018 warten, was AMD mit "Ryzen Plus" abliefert - ob der Nachfolger des jetzigen R5-1600(X) dann mehr Takt bietet.

Ich hoffe bei Ryzen neben mehr Takt auch auf geringe Latenzen bei der Cross-CCX-Kommunikation.

Aus folgendem Grund:
Bei AMD ist eine Langlebigkeit der Plattform nahezu garantiert. Der "Ryzen Plus" im Frühjahr wird auf AM4 laufen - der Nachfolger "Ryzen 2.0" soll auf AM4 laufen - bis 2019 ist es aber noch ein Stück hin. Das heißt man kauft heute ein Plattform, die man je nach Anforderung weiter und weiter aufrüstet.

Coffeelake läuft auch auf 1151. :fresse:
Hoffentlich sind die alten Chipsätze mit den neuen Ryzen kompatibel. :d


Bei Intel ist das alles andere als sicher. Der jetzige 8700K läuft auf dem Z370. In 2018 kommt erstmal der Z390 - der für den 2018/2019 erscheindenen 8-Kerner konzipiert ist, aber auch den 8700K noch aufnehmen soll. Das legt die Vermutung nahe, dass der 8700K auf dem Z370 und Z390 laufen wird - der 9700K (8-Kerner) aber nicht auf dem jetzigen Z370.

Es wurde gemunkelt, dass die Änderungen an der Stromversorgung bei den Z370 Platinen eher für den 8-Kerner relevant sind, als für den 6-Kerner. :wink:
 
Der 1600X ist kaum langsamer, als der 1800X und billiger als ein 7700K.
 
Warten kann man unterschiedlich auffassen.Es ist was anderes,wenn man wartet,das alte System aber noch weiterhin läuft,oder man wartet,weil man was neues braucht,da sich das alte system verabschiedet hat.
 
@Paddy92 ... das Beispiel mit Ghost Recon ist zwar richtig, aber ein Weilchen her - und zeigte nur die Richtung vor, in die die Engine (oder deren Weiterentwicklung) einmal gehen würde.

In "Assassins Creed Origins" ist das Multithreading deutlich sichtbar:



Wie man sehr schön erkennen kann, hängen die Ryzen mit ihrem niedrigen AllCoreBoost im Taktlimit fest. Das CPU-Limit ist also sehr früh erreicht.

Der Threadripper hingegen, der ähnliche Taktstufen nutzen "muss", aber vermutlich aufgrund seiner -12- Kerne eine bessere Lastverteilung hinbekommt, darf vermutlich auf ein~zwei Kernen höher takten als die Ryzen. Und landet damit nahe des 8700K, der auf allen Kernen 4,3GHz zünden darf.

Leider finde ich nirgends einen Test, in dem ein auf 3.9GHz allcore übertakteter 1600X gegen einen 7700K oder 8700K antritt, um den realen Taktvergleich zu haben.
 
Zuletzt bearbeitet:
Dann verwundert mich das Abschneiden des Threadrippers - und kann nur vermuten, dass das XFR, das mehrere Kerne auf 4.2GHz boosten darf, eine entscheidende Rolle spielt. Immerhin sind die 4.2Ghz sehr nah an den 4.3GHz des 8700 dran.
 
Zuletzt bearbeitet:
der 8700 lief laut diesem Test mit 3.2Ghz, nicht mit 4.3?

Edit:
Bullshit... hab mich auf die Info im Video verlassen :rolleyes:
 
Zuletzt bearbeitet:
Endlich mal ein Test bei dem reichlich CPUs verglichen werden. Allerdings finde ich den Part mit der Leistungsaufnahme seltsam - auch wenn die Ryzens effizient kann ich mir schwer vorstellen das ein 1600X in einem AVX Torture-loop weniger braucht als ein Pentium G4560 (der nicht mal AVX unterstützt)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh