vergleich 2600k vs 6700k

Und was soll ihm der 5820K bringen? Solange die APP bzw. das Game nicht alle 6 Kerne des 5820K nutzt, raucht der 6700K den 5820K in der Pfeife. ^^


:lol:

Solange alte spiele (dx11) nur auf wenige Kerne setzen hat er auch mit einem 6700k kaum Vorteile. Besonders bei 5GHz OC vom 2600k. Um 30% mehr Leistung zu haben muss auch der 6700k 5ghz schaffen. Nicht vergessen sollte man auch die 5 Jahre die vergangen sind und den Aufpreis den er jetzt zahlen muss. Entweder mehr Kerne oder sein lassen.

Der 6700k hat sogar eine höhere UVP als der 2600k. Ich glaube die Boards waren auch günstiger. Da zahlt er die mehrperformance als exakten Aufpreis. Ich bezweifele aber, dass er sein Setup zum neupreis von damals loswird. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Die Anwendungsbenchmarks interessieren ja auch nicht. Und das war in letzter Zeit nicht der einzige Benchmark, welcher Leistungszuwächse durch schnelleren DDR4-Speicher aufgezeigt hat.

Deine Argumente funktionieren auch nicht wenn es um den L4 eDRAM geht bei Broadwell, welcher auch in etlichen Spielen einen teils sehr starken Vorteil brachte.

Das es nur an 8GB liegt? Glaube ich kaum aber sicherlich könnte es Effekte verstärken. Bisher gibt es nur extrem wenige Spiele die überhaupt von mehr als 8GB RAM profitieren.

Ich stimme dir aber zu das in dieser Hinsicht noch viel mehr Tests von nöten sind. Allerdings gibt es kaum eine Website oder ein Magazin welche sich dem Thema mal genauer annimmt und mit vielen Messungen genauer nachprüft.
 
Im Sinne von Fps, bringen mehr als 8GB selten etwas, aber die Frametimes werden oft drastisch reduziert, beim Wechsel, von 8 auf 16GB.
Das es meistens laut vielen Benchs nichts bringt schnellen Ram einzubauen, kommt daher, das die meistens Benchs für den Popo sind und nicht der schnelle Speicher. Klar hängt es auch an dem Spiel, aber in einem richtigen CPU Limit gewann das System mit schnellem Speicher deutlich. Diese CPU Limits sind aber auch sehr selten.
Wie viele Spiele gibt es denn, die wirklich durch die CPU limitiert werden? ;)
Dann werden viele Benchs auch noch in unterschiedlichen Szenen gemacht und nicht Umfangreich genug.

Zu einem optimierten System gehört schneller Speicher.

- - - Updated - - -

Im Sinne von Fps, bringen mehr als 8GB selten etwas, aber die Frametimes werden oft drastisch reduziert, beim Wechsel, von 8 auf 16GB.
Das es meistens laut vielen Benchs nichts bringt schnellen Ram einzubauen, kommt daher, das die meistens Benchs für den Popo sind und nicht der schnelle Speicher. Klar hängt es auch an dem Spiel, aber in einem richtigen CPU Limit gewann das System mit schnellem Speicher deutlich. Diese CPU Limits sind aber auch sehr selten.
Wie viele Spiele gibt es denn, die wirklich durch die CPU limitiert werden? ;)
Dann werden viele Benchs auch noch in unterschiedlichen Szenen gemacht und nicht Umfangreich genug.

Zu einem optimierten System gehört schneller Speicher.

Ich behaupte nicht, das die CPU dadurch schneller wird!
 
Die Anwendungsbenchmarks interessieren ja auch nicht. Und das war in letzter Zeit nicht der einzige Benchmark, welcher Leistungszuwächse durch schnelleren DDR4-Speicher aufgezeigt hat.

Die entscheidende Frage ist dabei aber, an was liegt es?
Benches im Bandbreitenlimit sind sinnfrei... Eben weil sie starke Leistungszuwächse bei Erhöhung der Bandbreite zeigen... -> das trifft aber auf ALLE Systeme zu. Nen Sandy kannste auch mit 3000+ DDR3 RAM OC betreiben.

Deine Argumente funktionieren auch nicht wenn es um den L4 eDRAM geht bei Broadwell, welcher auch in etlichen Spielen einen teils sehr starken Vorteil brachte.

Doch natürlich... Warum sollte das nicht funktionieren?
Schneller Cache bringt teils massiv was bei den min FPS... Damit steigt auch die avg. FPS Rate. Der L4 Cache beim Broadwell ist da gut geeignet für, da er recht schnell ist und damit ganz klar hilft... Aber auch das ist ein Bandbreitenlimit und kein CPU Limit.

Das es meistens laut vielen Benchs nichts bringt schnellen Ram einzubauen, kommt daher, das die meistens Benchs für den Popo sind und nicht der schnelle Speicher. Klar hängt es auch an dem Spiel, aber in einem richtigen CPU Limit gewann das System mit schnellem Speicher deutlich. Diese CPU Limits sind aber auch sehr selten.

Nur ist das eben quatsch... Es ist dann kein "richtiges" CPU Limit, sondern es ist eben ein Bandbreitenlimit.
Stell es dir einfach wie AMDs aktuelle APUs vor... Die GPU Einheit ist massiv Bandbreitenlimitiert durch die schmale Speicheranbindung. Mit deutlich mehr Bandbreite würde deutlich mehr Leistung bei rum kommen (was die dGPUs mit GDDR5 und gleichem Ausbau bestätigen)
Da kommt doch auch keiner auf die Idee und meint, es wäre ein GPU Limit, sondern alle wissen, es ist ein Bandbreitenlimit. :wink:
Genau so verhält es sich hier eben auch...
 
Das ist jetzt aber Unsinn was du erzählst. ;)
Wenn die CPU durch zu langsamen Speicher ausgebremst wird kann sie nicht so schnell rechnen wie sie könnte, sie wird behindert. Dadurch sinkt die IPC Leistung. Und wie stark der RAM die CPU ausbremst kann man eben nur im CPU-Limit testen, sonst würde die GPU Leistung das Bild verfälschen.
Deswegen muss man solche Tests im CPU-Limit durchführen. Deshalb sind dort die Unterschiede zwischen langsamem und schnellem RAM dann auch am größten.

Es wäre auch verwunderlich wenn der winzige eDRAM bei CPUs so viel bringen würde, wenn es nur daran liegt das 8GB zu wenig RAM sind. Dann würden mickrige 128MB nicht teilweise 25% mehr Leistung bringen meiner Meinung nach.

Ich habe übrigens auch noch einen Test gefunden mit 32GB RAM und Battlefield 4. Dort sind es bei durchschnittlichen fps 22% mehr durch 50% höher getakteten Speicher. Dort kann es definitiv nicht daran liegen das der schnellere RAM eine zu geringe Menge an RAM kompensiert.
http://www.corsair.com/en-us/blog/2013/october/battlefield-4-loves-high-speed-memory
 
Nein, du hast mich falsch verstanden... Diese Tests sagen natürlich eine Menge aus. Nur eben nicht das um was es hier doch geht. Du bekommst durch schnelleren Speicher nicht mehr CPU Leistung, sondern du bekommst eher durch zu langsamen Speicher nicht die volle Performance der CPU auf die Straße. Das ist ein himmelweiter Unterschied auf der technischen Seite.

Der nächste Punkt, Benches im Bandbreitenlimit sagen eben primär was über die Abhängigkeit zur Bandbreite aus. Aber eben NICHT über die Abhängigkeit der CPU.
Die selben Anwendungen würden auch mit langsameren CPUs deutlich an der Bandbreite gewinnen. -> eben WEIL die CPU Leistung nicht der Hauptfaktor ist, der die Messung limitiert, sondern eben die Bandbreite.
Spiele eignen sich dazu auch nicht sonderlich gut. Denn man misst Spiele idR mit FPS... Und um die Frames zu erzeugen ist/sind eine ganze Menge Komponenten involviert... Du wirst warscheinlich mit nur halber GPU Leistung ähnliche Skalierungen sehen über die Bandbreite wie auch mit nur halber CPU Leistung, wenn man exakt die selben Stellen/Szenen bencht. Und das ist eben das Problem.

Bandbreite kann tendenziell nur dort etwas bringen, wo es eine Abhängigkeit an diese Bandbreite gibt. Und das ist mal mehr, mal weniger stark der Fall.


Was den Broadwell angeht, wie gesagt, der zusätzliche Cache ist eben ein Cache... Er bringt dort was, wo Bandbreitenlastige Szenen vermessen werden. Warscheinlich wird ein Broadwell mit aktivem L4 Cache nicht annähernd so stark mit Speicherbandbreite skalieren wie ein Skylake oder Haswell. Einfach weil diese zusätzliche Cachestufe schlicht und ergreifend dort abfedernd einwirkt.

Der Kritikpunkt bei solchen Tests geht klar in die Aussagekraft dieser Tests.
Cherry Picking mit Bandbreitenlastigen Szenen ist unsinn. In den gezeigten Anwendungen und Spielen finden sich zu 100% genau so Szenen/Szenarien, wo die Bandbreite weitestgehend wurscht ist... Wie passt das also zusammen?
 
Zuletzt bearbeitet:
Das ist im Grunde auch was ich geschrieben habe, da gehen wir vom Inhalt konform.
Man kann das Ganze jetzt alles noch ein wenig drehen und wenden, je nachdem wie man das betrachtet.

Im Grunde ergibt sich die Leistung eines Parts aus vielen Einzelkomponenten. Die CPU Leistung ist von der Pipeline, den Taktgebern, den ALUs, der Sprungvorhersage, den Speicherbandbreiten und zig anderen Dingen abhängig. Da kann man jetzt alles auf die Einzelteile runterbrechen und von Bandbreitenlimit, Frondend-Limit, ALU-Limit usw. sprechen aber im Grunde ergeben alle diese Teile die Leistung der CPU. Das Gleiche trifft auch auf Grafikkarten zu. Ohne Frondend kommt die Leistung nicht an. Ohne Bandbreite werden die CUs ausgebremst usw usw.

Ich würde jetzt einfach nicht so sehr auf dem Begriff Speicherbandbreitenlimit rumhacken. Aber ja, diese Limitierung tritt je nach Anwendung und Spiel unterschiedlich stark auf.
Es gibt Spiele die kaum und es gibt Spiele die extrem stark davon abhängen wie hoch die RAM-Geschwindigkeit ist.
Jetzt aber genug zu Definitionen und Co und back to topic. :)
 
Nur ist das eben quatsch... Es ist dann kein "richtiges" CPU Limit, sondern es ist eben ein Bandbreitenlimit.
Stell es dir einfach wie AMDs aktuelle APUs vor... Die GPU Einheit ist massiv Bandbreitenlimitiert durch die schmale Speicheranbindung. Mit deutlich mehr Bandbreite würde deutlich mehr Leistung bei rum kommen (was die dGPUs mit GDDR5 und gleichem Ausbau bestätigen)
Da kommt doch auch keiner auf die Idee und meint, es wäre ein GPU Limit, sondern alle wissen, es ist ein Bandbreitenlimit. :wink:
Genau so verhält es sich hier eben auch...

Dem Endkunden ist es aber egal, ob es ein "echtes CPU Limit ist, oder eben ein Bandbreitenlimit. An dieser stelle würde ich auch schreiben, ist die GPU zu lahm, hast du ein GPU Limit.

- - - Updated - - -

Der Kritikpunkt bei solchen Tests geht klar in die Aussagekraft dieser Tests.
Cherry Picking mit Bandbreitenlastigen Szenen ist unsinn. In den gezeigten Anwendungen und Spielen finden sich zu 100% genau so Szenen/Szenarien, wo die Bandbreite weitestgehend wurscht ist... Wie passt das also zusammen?

Das ist kein Cherrypicking meiner Meinung nach, weil gerade die wenigen Szenen für mich und sicher auch andere wichtig sind. Was nützt einem ein Spiel, das zu 90% der Szenen gut läuft und dann 10% aber mies...

Und 22% mehr minFps in einem Onlineshooter (BF4), ist bei weitem nicht unwichtig.

Ich habe nirgends direkt behauptet, das die CPU durch schnellen Speicher schneller wird, lediglich das System, in entsprechenden Situationen, die bei Spielen schon oft vorkommen, aber von meisten Benchmarks nicht abgebildet werden.
 
Dennoch ist unbestritten das du einen 2600K besser takten kannst als eine 6700K. Und das relativiert das Ganze schon gewaltig. Ein 2600K mit max OC ist recht nahe an einen 6700K mit max OC.
 
Ja, hat doch hier auch keiner bestritten, das kleine bisschen mehr Leistung ist nicht der Rede wert. Auch ein Intel 6 Kerner ist, solange er nicht bis an die Brechgrenze getaktet wird, dann aber auch nicht weit entfernt, in Mehrkernoptimierten Spielen, oder den meisten Anwendungen.
 
6 und mehr Kerne machen aber erst Sinn wenn die Anwendungen welche man einsetzt auf MultiThread optimiert sind. Ich habe hier Systeme mit 2x 24 Kerner also 88 Threads (2x E5-2699V4) und dennoch wird jeder 6700K dieses System in Anwendungen auseinander nehmen wenn eine App oder Game zu Einsatz kommt welche nur 1 Thread nutzt.
 
3,6GHz vs 4,2GHz, dazu hat der Xeon bei weitem mehr Cache und Speicherbandbreite, Auseinandernehmen sieht anders aus...

Übrigens solltest du auf 96Threads kommen

Gesendet von meinem A0001 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Ich habe hier Systeme mit 2x 24 Kerner also 88 Threads (2x E5-2699V4) und dennoch wird jeder 6700K dieses System in Anwendungen auseinander nehmen wenn eine App oder Game zu Einsatz kommt welche nur 1 Thread nutzt.

2x 22 Kerne ;) Den Broadwell habe ich hier ebenfalls laufen 4x 22 Kerne im Numaknoten als Testumgebung.

Zum Spaß in der Vmware Cinebench R15 laufen lassen auf 4 Kernen und Windows 10. Mit 2.8 Ghz war die virtuelle Maschine in etwa so schnell wie ein Core i5 2500 @3.4 Ghz. Die IPC ist aufjedenfall über 20% gestiegen.
 
Zuletzt bearbeitet:
Vier Kerne interessieren doch gar nicht. Es geht um Anwendungen mit lediglich einen Thread. Und genau da schlägt dann die Stunde des zum Beispiel 6700k. Sobald mehr als ein thread zur Anwendung kommt sind die Xeons natürlich im Vorteil. Das ist aber leider heutzutage nicht bei jeder Anwendung der Fall.

Gruß Romsky
 
3,6GHz vs 4,2GHz, dazu hat der Xeon bei weitem mehr Cache und Speicherbandbreite, Auseinandernehmen sieht anders aus...
Du machst es Dir zu einfach, denn die Anbindung der Kerne an die PCIe oder Speichercontroller erfolgt über Ringe und dort geht es pro Takt immer nur eine Station weiter, die Latenz ist damit höher als bei einer S.115x CPU, für Singlethread Performance ist das nicht optimal, ermöglicht dafür aber bei Multithread viel mehr Durchsatz. Diese dicken Xeons sind eben nicht auf Singlethread sondern klar auf Durchsatz bei Multithread optimiert und daher ist auch der große L3 Cache, der ja auch noch in zwei Teile aufgeteilt ist, für eine Kerne alleine nicht so viel wert. Schau Dir mal diesem Thread an.
 
6 und mehr Kerne machen aber erst Sinn wenn die Anwendungen welche man einsetzt auf MultiThread optimiert sind. Ich habe hier Systeme mit 2x 24 Kerner also 88 Threads (2x E5-2699V4) und dennoch wird jeder 6700K dieses System in Anwendungen auseinander nehmen wenn eine App oder Game zu Einsatz kommt welche nur 1 Thread nutzt.

Selbst im Gorßteil der Anwendungen, die Mehrkernoptimiert sind, lässt ein Stock 6 Kerner, den 6700K nicht wirklich hinter sich, gerade wenn der noch übertaktet ist. Es sind einfach auch nicht so viele Anwendungen, die sauber hoch skalieren, mit mehr Kernen.
 
Naja, da wo man die Kerne braucht lässt man jeden 6700K hinter sich. (Videoencoding, Simulationen, Rendering oder Crunchen)
 
Also sehr selten, gemessen an der Gesamtheit der Anwendungen. Sonderfälle gibt es immer.
Für Ottonormal verbraucher ist selbst mit gehobenen Ansprüchen ein 6 Kerner noch überflüssig. Leider.
 
Zuletzt bearbeitet:
Gegen die X99-Plattform spricht zudem der Stromverbrauch. Während ein 6700K bei 91W anfängt und durch massives OC locker über die 140W marschiert, fängt ein 6800K da gerade erst an, hochzufahren. Da sind die Taktsteigerungen noch gar nicht einberechnet, die ein 6800K braucht, um bei Games, die kaum von -2- Extrakernen profitieren, mitzuhalten.
 
TDPs und der tatsächliche Verbrauch, das sind zwar immer so zwei unterschiedliche Dinge, aber das ist auch etwas was gegen X99 spricht und vor allem, das der X99 nicht die Leading Platform ist... Meiner Meinung nach müsste, die neuste Architektur immer gerade auf der teuersten Plattform, verfügbar sein.
 
Intel testet die neuen Architekturen immer zuerst im Mainstream und wenn sie dort gereift sind, dann kommt sie für die Serverplattformen und genau davon stammen auch der Enthusiasten i7 ab. Wobei es aber durchaus so ist, dass die eine halben Schritt weiter sind, als der Name es nahelegt.
 
Tja, mich stört es zum höchsten Preis nicht die neuste und schnellste Technik zu bekommen. Ab nächstem Jahr will Intel ja auch wieder, die große Plattform zur Leading Plattform machen, zwar mit dem Nachteil, das man nur dort übertakten kann. Aber das ist ein anderes Thema...
 
6 und mehr Kerne machen aber erst Sinn wenn die Anwendungen welche man einsetzt auf MultiThread optimiert sind. Ich habe hier Systeme mit 2x 24 Kerner also 88 Threads (2x E5-2699V4) und dennoch wird jeder 6700K dieses System in Anwendungen auseinander nehmen wenn eine App oder Game zu Einsatz kommt welche nur 1 Thread nutzt.
Ich hab eben einen (ja, zugegeben primitiven) Benchmark - den von CPUZ 1.77 - laufen lassen. Auf meinem Xeon E3-1245 v5 (1 Thread - 3,9 GHz) kriege ich 1922 Punkte, ein 6700K schafft 2031 Punkte und mein gestern neu gebauter 2x Xeon E5-2696v4 (1 Thread - 3,7 GHz) schafft 1766 Punkte. Auseinander nehmen ist was anderes. Tatsächlich ist der Unterschied nicht wahrnehmbar.
 
Zuletzt bearbeitet:
Bin jetzt stolzer Besitzer eines I7 6700k der so aus der Hüfte geschossen schon mal die 4,5GHz bei 1,3V schafft... 4,6 sind bei 1,33V abgeschmiert, nach 30Minuten Prime95 28.9 fft 1344 Size
Speicher läuft mit 3466MHz bis jetzt, Feintuning kommt noch...

PS: Ich erwähne das nur wegen der OC Fähigkeiten von Skylake und wenn man sich etwas einliest das schafft praktisch jeder I7 4,5GHz und die guten 4,7-4,8 was nicht wirklich so schlecht ist...
 
Zuletzt bearbeitet:
Dennoch ist unbestritten das du einen 2600K besser takten kannst als eine 6700K. Und das relativiert das Ganze schon gewaltig. Ein 2600K mit max OC ist recht nahe an einen 6700K mit max OC.

So ein Unsinn. Was ist denn bei dir "recht nahe"? Teils 30-40%?

Der 2600K schafft vielleicht im Durchschnitt 100-200 Mhz mehr. Das sind gerade mal ~2,2 bis 4,5% mehr.
Mal davon abgesehen das es in knapp 3 Monaten schon wieder den 7700K gibt der sich besser übertakten lassen soll.

PS: Ich erwähne das nur wegen der OC Fähigkeiten von Skylake und wenn man sich etwas einliest das schafft praktisch jeder I7 4,5GHz und die guten 4,7-4,8 was nicht wirklich so schlecht ist...

So ist es.
Hier tun einige so als hätte sich jeder 2600K auf 5Ghz übertakten lassen....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh