vergleich 2600k vs 6700k

PoWeRs

Der mit dem Case tanzt
Thread Starter
Mitglied seit
31.05.2007
Beiträge
1.144
Ort
Hessen - Germany
hat vielleicht jemand nen link für mich wie sich meine cpu (2600k) gegen einen 6700er schlägt? bin mir nicht so sicher ob sich aufrüsten der cpu lohnt, denn der läuft seit ich ihn vor etlichen jahren gebaut hab auf 5ghz. will aufrüsten und werde neue gpus brauchen. aber erst möchte ich die cpu abhaken können.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dies kannst du mit OC skalieren. Der 6700K ist 30 % schneller, aber 5 GHz schafft der sicher nicht. Wenn du im CPU-Limit liegst dann kaufe mindestens einen 5820K (High FPS).
 

Bessere GPU kann hier Wunder bewirken. Wenn du selbst einfach "nur" ein neues System mit aktueller Hardware haben willst kann man dies durchaus tun. Geht es dir aber rein nur um die Spieleleistung, so kannst du deinen 2600K noch immer verwenden, in gewissen Spielen ist es durchaus möglich einen Unterschied von "bis zu" 20fps zu haben (ich nehme hier mal GTA 5 her).
Der 6700K skaliert in GTA 5 einfach besser als der 2600K. Das liest man in den meisten Tests.

In 5 Jahren hat sich an der Leistung wenig getan, bei der Energie Effizienz dafür mehr.
 
ich hab vor die beiden 580 gtx mit ner 1080 zu ersetzen, später evtl auch eine 2te. also muss wohl doch nen neues board + cpu her :d
 
Es ist immer weniger die CPU Performance die ein Motiv für ein Upgrade des System liefert, sondern zunehmend sind es die Features der Chipsätze und Mainboards. Wenn Du daran keinen Bedarf hast und die CPU Performance Dir noch genügt, dann gibt es keinen wirklichen Grund für ein Upgrade. Bzgl. der Performance schau Dir die Links in meiner Signatur an.
 
ich bin zocker und die beiden 580 kommen immer mehr an ihre grenzen. ist eigentlich für meine vorlieben mittlerweile kaum noch tragbar. ist halt die frage, ob nen 2600k 2x 1080 ziehen könnte, was ich nicht glaube ehrlich gesagt. eine davon könnte sein, weiß ich nicht aber 2 glaube ich nicht. es werden denke ich definitiv 2x die 1080 werden, damit ich einfach wieder lange ruhe habe vorm aufrüsten.
 
Kauf dir doch erstmal eine Grafikkarte und dann schaust du weiter...

Mfg.
 
Dies kannst du mit OC skalieren. Der 6700K ist 30 % schneller, aber 5 GHz schafft der sicher nicht. Wenn du im CPU-Limit liegst dann kaufe mindestens einen 5820K (High FPS).

Und was soll ihm der 5820K bringen? Solange die APP bzw. das Game nicht alle 6 Kerne des 5820K nutzt, raucht der 6700K den 5820K in der Pfeife. ^^
 
ist halt die frage, ob nen 2600k 2x 1080 ziehen könnte, was ich nicht glaube ehrlich gesagt.
Probiere es halt aus, aber wenn Du bereit bist mal eben mindestens 2x 660€, also 1320€ für Grakas auszugeben, dann sollte doch ein Systemupgrade mit einer CPU für 320€ das Budget auch nicht überfordern ;)
es werden denke ich definitiv 2x die 1080 werden
Warum gleich zwei? Die 1080 ist um einiges performanter als die 580, ich würde mich daher dem Rat von MewtoX nur anschließen:
Kauf dir doch erstmal eine Grafikkarte und dann schaust du weiter...
 
Jupp, besser 1x 1080 und bei der nächsten Gen wieder wechseln, wenn man unbedingt will. Die CPU wird aber in den meisten Fällen auch zwei 1080 antreiben können... Gerade mit OC...

Es gibt keinen Grund zu wechseln.
 
Würde auch sagen, System so lassen wie es ist, und einfach die 2 x GTX580 gegen eine GTX1080 Tauschen und bemerken das du genug leistung hast und wieder Ruhe im Kartong.

Die GTX 1080 wird auch auf keinen fall limitiert von deinem 5ghz 2600K.

Also bis du dann wieder ne neue Graka kaufst, bekommste schon 7nm CPU,s.
 
Dein OC'ter 2600k wird wunderbar mit der 1080 GTX laufen - hatte diese Konfiguration auch bevor ich aus Neugierde auf eine 5930 CPU umgestiegen bin. Du wirst keinen merkbaren Unterschied in Realität erkennen. Kann mich den Vorpostern nur anschliessen. Kaufe Dir erstmal ein 1080 GK. Später kannst Du immer noch eine zweite kaufen falls Du das für notwendig erachtest. CPU Upgrade würde ich mir vorerst sparen. Spiele übrigens auf einem 4K Monitor und mit einer 1080GTX. Die GK ist in so gut wie allen Spielen für mich (besser meine Kinder - schaue eigentlich beim Spielen nur zu) ausreichend. Anstelle von 2*1080 GTX würde ich mir eine neue Titan X mit GP102 überlegen. Persönlich sind für mich aber beide Optionen rausgeschmissenens Geld, ausgenommen Du bist ein voller HW Freak der immer das beste haben muss.

l. G.
Karl
 
Zuletzt bearbeitet:
@kumberg12
Kannst Du mir kindgeeignete Spiele (für meine Tochter) empfehlen um eine 1070 auszulasten? Aber bitte ohne Gemetzel ;)
 
Zuletzt bearbeitet:
Der Unterschied dürfte bei rund 30%, bei gleichen Takt.
Davon bleibt in den meisten Spielen nur leider oft nicht so viel übrig, weil fast immer die GPU limitiert.
 
nein
der unterschied sind etwa 10 % bei gleichen takt und ddr3 2133 ram
Minus ram sind es gerade mal 5% mehr also etwa 15%

Der Vorteil des skylake ist der hohe @stock Takt mehr nicht
oder der ci7 2600k müsste mit 4,6ghz laufen um den ci7 6700k gleichzuziehen
Und nein der ci7 6700k kann man höchsten auf 4,4ghz bringen die sind schon am limit.
skylake profitiert am meisten vom chipsatz und vom ddr4 2133 ram
ein wechsel dann nur zum ci7 5820k der ist oc auf 4ghz bis zu 50% schneller. (in alten und schlechten engine gams gibt es nur 10% plus)
 
Zuletzt bearbeitet:
@kumberg12
Kannst Du mir kindgeeignete Spiele (für meine Tochter) empfehlen um eine 1070 auszulasten? Aber bitte ohne Gemetzel ;)

@Kullberg (wohnst auch auf einem Berg?)

Gemetzel spare ich mir - kann Deinen Post aber auch nicht so stehen lassen. Meine Kinder sind zwischen 16 und 19 Jahre alt.. Das war jetzt ein kleines Outing. Deine Frage war aber durchaus berechtigt da man bei "Kindern" oft an Kleinkinder denkt. Keine Sorge, meine hier nicht Spiele wie z. B. Lego. Lass Deine Tochter z. B. nicht die SIMS spielen - da habe ich bei meiner Tochter negative Erfahrungen gemacht - war von diesem Spiel psychisch komplett überfordert und hat freiwillig aufgehört zu spielen.

BTT: Extrem überrascht war ich heute von der BF1 Beta und wie gut die unter 4k läuft - aktuell aber keine Ahnung wie stark dieses Spiel die GK/ CPU auslastet bzw. inwieweit da mein 5930 mitspielt und die Kerne auslastet werden - habe mich damit noch nicht befasst. Hatte da eher befürchtet, dass mein System unter 4k komplett in die Knie geht. War definitiv nicht der Fall.

l. G.
Karl

- - - Updated - - -


nein
der unterschied sind etwa 10 % bei gleichen takt und ddr3 2133 ram
Minus ram sind es gerade mal 5% mehr also etwa 15%

Der Vorteil des skylake ist der hohe @stock Takt mehr nicht
oder der ci7 2600k müsste mit 4,6ghz laufen um den ci7 6700k gleichzuziehen
Und nein der ci7 6700k kann man höchsten auf 4,4ghz bringen die sind schon am limit.
skylake profitiert am meisten vom chipsatz und vom ddr4 2133 ram
ein wechsel dann nur zum ci7 5820k der ist oc auf 4ghz bis zu 50% schneller. (in alten und schlechten engine gams gibt es nur 10% plus)

Deinem Post ist wenig hinzu zufügen. Ausser, dass ich zus. der Meinung bin, dass man unter 30% (in diversen Benchmarks bestimmtem) Performance Zuwachs in der Realität absolut nichts bemerkt. 30% sind daher für mich der Grenzwert ab wo ich mir eine HW Neuanschaffung überlege. Ein Wechsel auf einen 6700k macht vielleicht aus anderen Gründen Sinn - in Bezug auf Performance meiner Meinung nach nicht.

l. G.
Karl
 
Zuletzt bearbeitet:
der unterschied sind etwa 10 % bei gleichen takt und ddr3 2133 ram
Belege? Anhand welcher Benchmarks (nicht Spiele!!) ermittelt?

- - - Updated - - -

Anhand desReview von Skylake bei CB kann man für Cinebench 15 doch mal genau nachrechnen:

Singlethread:
2600K: 119 / 3,8GHz = 31,32 Pkt/GHz
3770K: 139 / 3,9GHz = 35,64 Pkt/GHz 11,8% mehr als der 2600k
4790K: 173 / 4,4GHz = 39,32 Pkt/GHz 25,6% mehr als der 2600K
6700K: 181 / 4,2GHz = 43,1 Pkt/GHz 37,6% mehr als der 2600K, 9.6% mehr als der 4790K

Multithread:
2600K: 614 / 3,4GHz = 180,59 Pkt/GHz
3770K: 667 / 3,5GHz = 190,57 Pkt/GHz 5,5% mehr als 2600K
4790K: 873 / 4,0GHz = 218,25 Pkt/GHz 20,9% mehr als 2600k
6700K: 886 / 4,0GHz = 221,5 Pkt/GHz 22,6% mehr als 2600K, 1,5% mehr als 4790k

Das ist bei gleichem Takt und da sind es 22,6% mehr bei Multithread und sogar 37,6% bei Singlethread, bei der Effizienz (in Multithread) sieht es noch besser aus:
2600K: 614 / 119W = 5,16 Pkt/W
3770K: 667 / 104W = 6,41 Pkt/W 24,3% mehr als 2600K
4790K: 873 / 129W = 6,77 Pkt/W 31,2% mehr als 2600k
6700K: 886 / 108W = 8,2 Pkt/W 59% mehr als 2600K, 21,2% mehr als 4790k
 
Jetzt muss ich mich auch kurz mal einbringen. Es stimmt schon, die reine Rechenleistung ist beim Skylake einiges höher, das kann man nicht wegdiskutieren. Auf der anderen Seite bringt ein versteifen auf Benchmarks nix, weil der TE _Games_ zocken will und nicht Benches. Und da ist es nunmal so, dass der Skylake-Vorsprung nur selten so viel bringt wie einen die Benches das glauben lassen mögen.

Edit: Ich hab selber den 2600K (OC) und eine 1070er und ich hab bei meinem Monitor (21:9) eher das Problem, dass ich mir die 1080Ti herbei wünsche statt einem Zen oder Kaby Lake.
 
Zuletzt bearbeitet:
@Kullberg (wohnst auch auf einem Berg?)

Gemetzel spare ich mir - kann Deinen Post aber auch nicht so stehen lassen. Meine Kinder sind zwischen 16 und 19 Jahre alt.. Das war jetzt ein kleines Outing. Deine Frage war aber durchaus berechtigt da man bei "Kindern" oft an Kleinkinder denkt. Keine Sorge, meine hier nicht Spiele wie z. B. Lego. Lass Deine Tochter z. B. nicht die SIMS spielen - da habe ich bei meiner Tochter negative Erfahrungen gemacht - war von diesem Spiel psychisch komplett überfordert und hat freiwillig aufgehört zu spielen.

Meine Frage war durchaus ernst gemeint. Meine Töchter sind 18 und 19 und ich suche ernsthaft Spiele, die nicht brutal sind. Danke für Tips.
 
Du musst dich fragen was sie mögen, Frauen ticken da anders.
gute gewaltfreie spiele sind, kurzweil etwa peggle oder portal
the maw (richtet siich an kinder) auf 32bit os the book of unwritten tales
da muss man allerdings gamer für sein um viele der witze zu verstehen
dann noch trine, civ 5, anno ab 1701, sims 3 (kostenfalle), die üblichen mmorpg obwohl da viel gewalt vertreten ist
Simulationen wie citi skylines oder sim city ältere versionen wie sim city 4000
tycon rollercoaster usw
es gibt gewaltlose spiele sind aber oft eine frage wobei man spass dran hat. also freunde fragen auf was deine Töchter stehen.
 
weil der TE _Games_ zocken will und nicht Benches. Und da ist es nunmal so, dass der Skylake-Vorsprung nur selten so viel bringt wie einen die Benches das glauben lassen mögen.
Ein möchte nichts Benchmark nichts glauben lassen, der ermittelt die Leistungsfähig eines bestimmten Teils eines Systems für die Lasten die er zum Testen verwendet, nicht mehr und nicht weniger. Wie sehr sich dies nun auf andere Nutzungen übertragbar lässt, ist immer eine ganz andere Frage und hängt vor allem davon ab, wie sehr diese andere Nutzung die gleichen Lasten erzeugt. Man könnte auch hingehen und sagen, ein P4 ist genauso schnell, denn man lädt ja den ganzen Tag nur Dateien auf dem Internet runter und das geht mit dem schnellsten i7 auch nicht schneller. Da würden aber jeder sofort die Hände vor den Kopf schlagen und erkennen, dass dies eben nicht von der CPU Performance, sondern nur von der Geschwndigkeit der Internetabindung und der Server auf der Gegenseite abhängt und kein halbwegs vernünftiger Mensch würde erwarten mit einer 10mal so schnellen CPU seine Downloads auch entsprechend schnelle zu erhalten.

Nur bei Games erwarten immer viele die Verbesserung der CPU Leistung auch in fps umgemüntz zu bekommen, schon Deine Formulierung zeigt dies doch auch, vergessen werden dabei aber eben die vielen anderen Faktoren die da eine Rolle spielen. Allen voran die Performance der Graka und das eben nur wenige Games die CPU überhaupt voll auslasten, geschweigen denn dies auch noch ständig tun wie es eben ein CPU-Benchmark wie Cinebench macht. Es ist daher eben genauso schwachsinnig aus der Steigerung der Leistung der CPUs auf die Steigeurng der fps in Games zu schließen wie umgekehrt aus den fps auf die Steigerung der Leistung (oder deren ausbleiben) der CPU zu folgern. Games sind eben keine Benchmarks für die Leistung einer CPU, sondern allenfalls Benchmarks für die Gamingleistung und CPU Benchmarks sind keine Games und kümmern sich nicht um die Performance der Graka oder des HDD/SSD und sollten auch möglichst nicht so sehr von der RAM Performance abhängen.
 
nein
der unterschied sind etwa 10 % bei gleichen takt und ddr3 2133 ram
Minus ram sind es gerade mal 5% mehr also etwa 15%

Der Vorteil des skylake ist der hohe @stock Takt mehr nicht
oder der ci7 2600k müsste mit 4,6ghz laufen um den ci7 6700k gleichzuziehen
Und nein der ci7 6700k kann man höchsten auf 4,4ghz bringen die sind schon am limit.
skylake profitiert am meisten vom chipsatz und vom ddr4 2133 ram
ein wechsel dann nur zum ci7 5820k der ist oc auf 4ghz bis zu 50% schneller. (in alten und schlechten engine gams gibt es nur 10% plus)

Lange nicht mehr solchen Mist gelesen. Erstens Schafft Skylake nicht nur 4,4Ghz und zweitens liegt die IPC bei Skylake ein ganzes Stück höher.

Skylake kann sich auch bei gleicher Taktrate oft 25-40% von Sandy Bridge abheben. Noch deutlicher wird das wenn man DDR_3600er Speicher nimmt, denn der bringt bei Skylake auch eine Menge,
siehe: Was bringen höhere Speichertaktungen bis DDR4/4000 an Mehrperformance? | 3DCenter.org

Das die fps nicht im gleichen Maße steigen liegt einfach daran das die wenigsten Spiele so viel CPU Leistung benötigen und meistens durch die Grafikkarte ausgebremst wird.

Sinnvolle CPU Tests müsste man jetzt mit einer Titan X (Pascal) @ 1,5 Ghz machen um aufzeigen zu können, wie groß die Leistung von Skylake tatsächlich ist.

In manchen Games dürfte Skylake mit DDR-4000er Speicher 50-60% schneller sein. Das schneller Speicher viel bringt hat man schon an Broadwell mit eDRAM gesehen.
In manchen Games brachte der L4 Cache teilweise bis zu 25% mehr Leistung.

Ich habe übrigens auch noch einen 2600K und werde mir wahrscheinlich im Januar einen Kaby Lake 7700K kaufen, die sich scheinbar gut auf 5Ghz übertakten lassen dürften, wenn selbst der Takt ab Werk schon 4,5Ghz beträgt.
Der neue 200er Chipsatz bringt dann wieder die neusten Anschlüsse mit incl. Support für Intels Xpoint Speicher (Optane SSDs).
 
Zuletzt bearbeitet:
Skylake kann sich auch bei gleicher Taktrate oft 25-40% von Sandy Bridge abheben. Noch deutlicher wird das wenn man DDR_3600er Speicher nimmt, denn der bringt bei Skylake auch eine Menge,
siehe: Was bringen höhere Speichertaktungen bis DDR4/4000 an Mehrperformance? | 3DCenter.org

Das die fps nicht im gleichen Maße steigen liegt einfach daran das die wenigsten Spiele so viel CPU Leistung benötigen und meistens durch die Grafikkarte ausgebremst wird.

Interessant, die meisten Reviews bescheinigen ja, dass RAM-OC seit Sandy Bridge bei Games eher homöopathische Leistungsgewinne bewirkt, wie z.B. hier Review: Corsair Vengeance LPX 16GB DDR4-3200 - RAM - HEXUS.net - Page 6 . Offensichtlich limitierte da wohl massiv die GPU.
 
Interessant, die meisten Reviews bescheinigen ja, dass RAM-OC seit Sandy Bridge bei Games eher homöopathische Leistungsgewinne bewirkt, wie z.B. hier Review: Corsair Vengeance LPX 16GB DDR4-3200 - RAM - HEXUS.net - Page 6 . Offensichtlich limitierte da wohl massiv die GPU.

Das ist auch heute noch so... Das Problem ist, dieser "Test" da oben ist einfach ein Stück weit für den Hintern... Natürlich kann man sich ne Hand voll Szenarien rauspicken, die massivst von der Bandbreite profitieren. Allerdings sollte man sich dann eben auch nicht hinstellen und behaupten, das wäre der Leistungszuwachs im Schnitt oder ähnliches. Komisch das gerade die Leute aus dem 3dc in letzter Zeit vermehrt solchen Unsinn zusammen bringen :(

Wenn man sich mal ernsthaft die Frage stellt, wie das funktionieren soll, wird man ziemlich schnell feststellen, dass der Performancegewinn durch diese Speichertaktraten eher bescheiden ist. -> man nutzt dort den 7zip Bench -> der wenig mit normalem Workload zu tun hat. Primär limitiert doch bei 7zip eher das Storage bei niedrigem Kompressionslevel. Denn da gehts um Durchsatz... Schneller RAM (ggf. auch durch RAM Caching) bringt da natürlich überdurchschnittlich viel "Performance" -> der Prozessor wird damit aber NICHT! schneller.
Bei Photoshop ist das ähnlich... Je nach Workload geht es um große Datenmengen. Diese Mengen müssen bewegt werden... Um so höher der zeitliche Anteil der zu bewegenden Datenmengen ggü. der reinen Rechenzeit, desto mehr bringt natürlich die reine Speicherbandbreite.
Die Handbrake Werte reihen sich da exakt analog dazu ein -> ich erreiche beim Umwandeln einer beliebigen Quelle mit FHD in Lossless mit einem 4,2GHz Oktacore keine 25 FPS... -> und dort werden 50x+ so viele FPS rausgespuckt. Jeder dürfte sich wohl denken können, wie wenig die CPU da wirklich das Limit ist und wie viel das eher von Latenzen und Bandbreiten abhängig ist...
Der einzige halbwegs sinnvolle Anwendungsworkload aus dem Test dürfte der Excel Test sein... Allerdings ohne jegliche Angaben, was man da genau geprüft hat!?


Die Spielebenches sind auch ein Stück weit für den Hintern... Mit 8GB bencht man keine derartigen Szenarien, eben aus dem seit jahrzenten bekannten Umstand, dass im Speicherlimit (oder nahe diesem) auch Bandbreite für klare, messbare Besserung sorgen kann. Möglicherweise kommen diese Unterschiede aber eben gerade durch die Speicherknappheit! Und nicht durch den reinen Performancezuwachs der Bandbreite.


Und was noch dazu kommt... Theoretisch müsste man bspw. für sinnvolle Tests das komplette Verfahren nochmal mit anderen Modellen wiederholen. Bspw. würde sich ein Haswell/Broadwell-E System anbieten. Und jeweils mit 1, 2, 3 und vier Riegeln einen Quertest machen. Dem Haswell/Broadwell-E ist es weitestgehend wurscht, ob da nun zwei oder vier Riegel drin sind. Selbst mit 4GHz+... Es gibt hier und dort Abhängigkeiten in der Bandbreite... Der S2011-3 Prozessor hat aber deutlich mehr L3 Cache und damit gibt es tendenziell weniger Abhängigkeit zur Speicherbandbreite. -> komischerweise sind aber exakt die selben Szenarien eben jene, die beim S2011-3 wie auch S115x Prozessor für augenscheinliche Mehrleistung durch mehr Bandbreite sorgen -> was eben klar darauf schließen lässt, dass nicht die CPU Leistung steigt (wie fälschlicherweise behauptet), sondern die Benches für den Hintern sein (weil im Bandbreitenlimit) :wink:
 
Zuletzt bearbeitet:
Die haben doch da nicht ernsthaft 2x4GB@2133 gegen 4x4GB@3200 gemessen? Wie lächerlich ist denn so ein Test mit 8GB gegenüber 16GB? Zumal Windows wie jedes moderne OS sonst unbelegtes RAM als Diskcache nutzt und sogar versucht Dateien von denen es erwartet das diese benötig werden, vorab dort einzulagern. Also wenn so ein Test irgendwie einen Sinn haben sollte, dann wäre es wenn er umgekehrt mit 8GB schnellen und damit teurem RAM gegen 16GB des billigeren, langsamen RAM ausgeführt worden wären, weil die Konfigurationen dann wenigstens preislich näher beieinander liegen würden und man damit die Frage beantworten könnte, ob es sich lohnt schnellere RAM zu kaufen auch wenn man dann weniger nehmen muss um im Budget zu bleiben.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh