CPU Leistung seit 2600k stagnierend?

Wenn du keine Sandy hast, hast du keine Sandy... :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ausgerechnet im Multiplayer wo man am Servertropf hängt und wo Arma ja so gut über die Kerne samt HT skaliert. Ich glaub ich habe den :xmas: gesehen.
Besser im GPU Limit rum eiern, als mit dem CPU Limit zu leben! :)

Sandy vielleicht, Ivy eher nicht.
 
Besser im GPU Limit rum eiern, als mit dem CPU Limit zu leben! :)

Sandy vielleicht, Ivy eher nicht.

kommt immer drauf an.

Bei BF4 komm ich ab und zu ins CPU Limit , aber dann an stellen wo ich 140FPS habe.

Also finde es daher nicht schlimm im Limit zu sein.

Oder bei Source games bei 300FPS bin ich klar im CPU Limit , aber die FPS reichen ja also was daran so schlimm ?
Wenn du ein Frame Limiter oder vsync nutzt bist doch eh meistens im CPU Limit .
Zumindest bei 60 HZ.

Hab das mal ne Zeit beobachtet bei mir. 2600K @ 4,4GHZ + GTX 980 FHD ist noch sehr brauchbar.

Spiele brauchen anscheinend nicht so viel CPU Power mehr .
Naja und games wie Day Z oder Arma 3 ist ne schande , weil diese eigentlich mehr als zwei Kerne gut gebrauchen könnten, aber
die Entwickler es nicht drauf haben ;)


Für Anwender die mit Multicore Software arbeiten macht Skylake oder Haswell E definitiv sinn , weil da schon spürbar mehr Leistung drinne ist bzw. dort eine
CPU auch vollständig gefordert wird um paar sek. schneller zu sein.

Damit will ich nur sagen die neuen CPU´s haben mehr Leistung , aber nicht alle Anwendungen benötigen diese mehrleistung.
Deswegen sollten alle die mit ihrem 2600K glücklich sind froh sein und wenn lust besteht zum aufrüsten ,
dann verkaufe die Sandy und kaufen skylake oder Haswell E und last paar benches laufen :d
 
Zuletzt bearbeitet:
Sicher dass es nicht die alten Schiffe sind, auf denen man segeln lernt?

Nur um noch was zum Thema beizutragen:
Was die Gamer angeht, warum wird sich da nur auf die ganzen shooter/RPG spiele bezogen? Ich z.B und viele die ich kenne spielen in erster Linie (echtzeit)Strategiespiele (CiV ftw.) und diese sind gerade bei mehreren Gegnern extrem CPU limitiert. Die dürften tendentiell auch den besten Multicore support von allen genres bieten.
 
Also, bevor ich für mein Geld (< 300 Euro) keine spürbare Mehrleistung @ Stock bekomme, bleib ich meiner Sandy treu. Da ich weder die neuen Features brauche, noch Multi GPU geplant ist ;)

Da ballert man einfach über 1,4V drauf mit 4,8 GHz + und dennoch sind die Temperaturen absolut im Rahmen. Das sind einfach dankbare CPUs. Da brauchts weder ne Wasserkühlung noch Köpfen.
 
Also, bevor ich für mein Geld (> 300 Euro) keine spürbare Mehrleistung @ Stock bekomme, bleib ich meiner Sandy treu. Da ich weder die neuen Features brauche, noch Multi GPU geplant ist ;)
Mir gehts genauso, ich hatte mir auch überlegt von meinem i5-2500k auf Skylake zu wechseln. Da ich den PC aber (was Lastzustände angeht) nur fürs Spielen nutze kann ich mir das wohl schenken, Computerbase hat da eine sehr anschauliche Tabelle in Ihrem Test gehabt: Core i5‑6600K und i7‑6700K sind auf Effizienz getrimmt

In einer alltäglichen Auflösung (FullHD) liegt der i5-6600k also 17% vor einem i5-2500k (im getesteten Spieledurchschnitt). Selbst zum i7-6700k sind es nur 21% Differenz. Da kann ich mir für meine Bedürfnisse ein Upgrade wirklich schenken, wäre eigentlich nur "der Neugier" willen. Mal schauen was 2016 bringt, wobei da von Intel ja wohl sowieso wieder nur so ein 5% Refresh kommen wird. (In der Preisklasse).
 
Zuletzt bearbeitet:
Die Sicht der Gamer und "Otto-Normal". Und das ist nun'mal die Mehrheit.
Die große Massen an PCs wird ersetzt, wenn die Rechner zu alt werden. In Firmen meisten nach 5 Jahren und dann werden dann aktuelle Rechner genommen. Im privaten Umfeld kann dies mittlerweile auch in deutlich längeren Zyklen stattfinden. Wenn man ehrlich ist, ist der Sprung von Core2 zu SandyBridge schon recht groß gewesen. Daher lohnt es sich auf alle Fälle einen alten Core2 durch einen aktuellen Prozessor zu ersetzen. Da momentan Skylake noch nicht komplett verfügbar ist, liefe das daher meistens auf einen Haswell oder Broadwell Chip hinaus.

Im typischen Workstationumfeld sieht die Sache ohnehin komplett anders aus, aber da gab es die letzten Generationen sehr deutliche Leistungsanstiege über die Steigerung der Cores. Die Zahl der Cores stiegt vom Xeon 3500/5500 von 4 -> 6 -> 8 -> 12 -> 18 Cores zum aktuellen Xeon E5v3 an. Da lohnt sich schon deutlich früher Workstations zu ersetzen.
 
Das Lustige: damals hat man immer noch mehr IPC fürs Geld bekommen als jetzt, und zwar als Neupreis. Abgesehen vom bastelwahn könnte ich so ein Upgrade einfach nicht rechtfertigen. Damals war das einfach was anderes, da bin ich vom X2 6000+ auf den 2500k gegangen und innerhalb dieser 3 Jahres Differenz vom Athlon zu sandy waren einfach Welten. (wer damals mit nem Athlon dual core battlefield gespielt hat, kennt das. Da ging es dann von 25-30 fps auf über 100 fps av. Im CPU Limit. Im etwa gleichen Maße steigt Spielspaß und k/d ;) ).

Der Vergleich von heutigen cpus ist dagegen obsolet ;)
 
Der Vergleich von heutigen cpus ist dagegen obsolet ;)
Es ist seit vielen Jahren absehbar, daß sich die CPU Leistung nicht mehr groß durch Steigerung der Taktrate erzielen läßt. Irgend wann ist auch mit den besten Tricks keine IPC Steigerung mehr möglich, und dann bleibt es nicht aus die Software anpassen zu müssen, damit es eine weitere Steigerung der Leistung geben kann. Es ist ja nicht so, daß man mit der Parallelisierung von Software keine Erfahrung hätte. Es gibt Regalmeter an Literatur dazu, weil man im HPC Bereich das seit ungefähr 20 Jahren aktiv anwendet. Ebenfalls gibt es aus dem HPC Bereich Erfahrungen mit Vektorcomputern -> SIMD, d.h. man weiß auch schon recht lange wie viel SIMD bringt und ab wann es zu einem Problem wird. Intel wird also nicht beliebig lange AVX immer mehr aufblähen können. Was fehlt ist ein Umdenken in der normalen Anwendungsentwicklung.
 
Genau so schauts aus!
 
In einer alltäglichen Auflösung (FullHD) liegt der i5-6600k also 17% vor einem i5-2500k (im getesteten Spieledurchschnitt). Selbst zum i7-6700k sind es nur 21% Differenz. Da kann ich mir für meine Bedürfnisse ein Upgrade wirklich schenken, wäre eigentlich nur "der Neugier" willen. Mal schauen was 2016 bringt, wobei da von Intel ja wohl sowieso wieder nur so ein 5% Refresh kommen wird. (In der Preisklasse).

Mit solchen Ratings wäre ich ehrlich gesagt etwas vorsichtig... Denn diese hängen einfach viel zu sehr von unterschiedlichen Parametern ab.
Gutes Beispiel ist da Watch Dogs, getestet mit ner AMD GPU und SMT bei Intel CPUs skaliert gar nicht. Selbes Spiel mit selben Rest PC und nur der Wechsel der GPU auf NV und SMT skaliert mit >20%... -> sowas verfälscht Ratings um ganz paar Prozent.
Leider testen die Wenigsten Redaktionen beide GPU Hersteller in vergleichbaren Leistungsklassen bei solchen Skalierungstests von CPUs.

PS: ich würde persönlich auch eher auf die Ausreißer schauen, denn das sind die Games, die an der Stelle wirklich ein Upgrade der Plattform rechtfertigen könn(t)en, wenn man sie eben spielt.
Fast 50% Leistungssteigerung vom 2500K auf den 6700er Skylake ist schon ne Hausnummer... Da guckst dann nämlich auch bisschen blöd aus der Wäsche, wenn die GPU mehr kann aber die CPU bei um die 30-40 FPS deckelt.

Was fehlt ist ein Umdenken in der normalen Anwendungsentwicklung.

Ist doch alles eine Frage von Aufwand und Nutzen...
Wenn ich mir das ansehe, dass die heutige Software zu einem relativ großen Teil noch nichtmal halbwegs anständig Fehlerfrei bei Release ist, will ich an eine "Optimierung" von Programmcode auf Leistung ehrlich gesagt gar nicht denken. Gerade auch Alltagsanwendungen und Games sind da häufig eher schnell schnell geschrieben als sinnvoll optimiert. Auf der anderen Seite stellt sich halt auch die Frage, wie viel bringt es im Endeffekt effektiv? Ne Anwendung, die sagen wir 10sec ST Last erzeugt, lass die optimiert auf 2-3 Sekunden kommen. Reißt es das wirklich raus?
Auf keinen Fall ist das direkt mit dem HPC Geschäft zu vergleichen, wo es doch um relativ lange Zeiten geht und jedes Stückchen mehr optimierung auch wirklich am Ende durchschlägt.

Bei Games im speziellen bedient man sich dazu auch häufig eher dem "Trick", anstatt zu optimieren einfach mehr zu berechnen. Nebenbeiberechnungen, die einfach zusätzlich ins Spiel einfließen, steigern die CPU Last. (auch auf mehrere Threads) Und im Umkehrschluss heist es dann, wenn die Threads nicht ausreichend von der CPU bereitgestellt werden können, bricht die FPS Rate ein... -> deswegen ist das Spiel aber nicht MT optimiert. Ein Grundproblem bei den Games bleibt häufig bei DX9-11. Was so ohne weiteres nicht über die Breite wirklich gut skalieren wird. Abhilfe bringt Mantle/Vulcan oder DX12 in Zukunft.
Allerdings steht die maue Konsolen CPU Performance dem wieder im Weg... -> Haswell/Broadwell/Skylake als Topmodell dürfte gut und gerne Faktor 3-4 mehr MT Power haben als die Jaguar APUs der Konsolen. Von den Hexa/Oktacore Haswell-E bzw. kommenden Broadwell-E mal ganz zu schweigen. AMD gibt für Mantle ca. Faktor 9 in Sachen DrawCall Skalierung zu DX11 aus (ihrer eigenen Umsetzung, NV ist schon fast Faktor 2 schneller in den damaligen Vergleichen)

Damals war das einfach was anderes, da bin ich vom X2 6000+ auf den 2500k gegangen und innerhalb dieser 3 Jahres Differenz vom Athlon zu sandy waren einfach Welten.

Das war aber auch ein eher ungewöhnlicher Sprung... Core2 kam im Jahr 2006, als Quad bezahlbar in 2007. Sandy kam Anfang 2011. -> das sind mal schlappe 4-5 Jahre, die du da ausgelassen hast. Hattest du den X2 6000+ dann nicht erst 2006/2007 gekauft, sondern schon eher, ists noch länger her. Entsprechend hoch der Leistungszuwachs natürlich auch.
Heute Minus 5 vielleicht auch 6 Jahre wäre der Vergleich Haswell/Broadwell/Skylake vs. Nehalem/Lynnfield. Ggf. sogar nur Core2. Da ist gut und gerne Faktor 2 in Sachen ST drin... Im MT sogar deutlich mehr...
 
Der 6000+ kam doch erst 2007 raus? Mitte 07 dann auch für einen guten Preis zu haben und fürs reine Spielen ein gutes P/L. Der Wechsel zu Sandy kam, als mir 25 FPS av. in Bad Company 2 zu wenig waren ;) Ungewöhnlich finde ich das nicht wirklich, meine CPUs habe ich eben immer nach P/L ausgewählt, passend zur Situation, und zwar immer < 200 Euro. So ist es eben bei mir ums Aufrüsten bestellt, natürlich nicht vergleichbar mit so manch anderem Luxxer ;) Und wenn ich heutzutage in der < 200 Euro Klasse suche, finde ich nur Downgrades. (Selbiges gilt leider auch fast für GPUs)
 
Suchst halt zur falschen Zeit. Hier wurden doch schon 3770k zu 130€ und 4790k zu 190€ verkauft. Beides Downgrades?
 
Ich komme von einem OCed 2600K und bin num beim OCed 5960X. Beide CPUs bringen mir bspw. beim Rendern fast annähernd perfekte Skalierung mit dem Takt.
Fast annähernd ist eben nicht 1:1 und wie nahe man dem kommt, hängt eben immer von der Anwendung ab, genau das sage ich doch.

Komplexe Berechnungen gibts doch wie Sand am Meer. Spiele gehören halt einfach nicht dazu...
Auch sage ich ja, die meisten Games können die Leistungssteigerungen der letzten Generationen schon gar nicht mehr nutzen, daher entsteht eben bei den Gamern der Eindruck Intel würde die Leistung der CPUs nicht steigern und genau das ist eben falsch. Bei Anandtechs Linux Benchmarks sowie bei den Windows Professional Performance Benchmarks Skylake 6700k Vorteile von bis zu 20% gegenüber dem Haswell 4790k zeigt, dann ist die Leistungssteigerung ja wohl vorhanden. Im Gaming Benchmark mit High-End Grakas liegen die i5 und i7 seid SandyBridge dagegen meist eng beienander, bei Total War Attila auf der R9 290X alle bei 27,x fps, die Unterschiede der CPUs spielen da also keine Rolle, was man auch daran sieht, dass bei dem Spiel mit der GTX980 dann plötzlich ein i5 4690 mit einem in jeder Hinsicht schnelleren i7 4790k gleichzieht. Deswegen kann man nicht beiden CPUs die gleiche Leistung unterstellen und behaupten der 4690 wäre generell so schnell wie der 4790k, das ist nur in dem Fall mal so und bei anderen Games vielleicht auch, aber eben nicht generell.

Wenn es zwischen dem i5-4690 zum i7-4790k also nicht sagen kann, warum wird es dann aber beim Vergleich von Haswell zu Skylake und teils auch dessen Vorgängern doch so oft behauptet?

Die Games sind die Ausnahme, auch wenn hier viele im Forum die Rechner hauptsächlich dafür nutzen und viele Reviewer ihre Fazits danach schreiben wie die CPUs in Games abschneiden, aber es gibt noch viele andere Anwendungen und da ist Skylake fast immer Haswell überlegen. Wenn man diese Anwendungen nicht nutzt sondern nur solche (Games) bei denen dies eben nicht der Fall ist, dann braucht man sicher kein Upgrade zu machen und kann auch sagen: "Für meine Nutzung bringt Skylake keinen Leistungsschub", aber sollte den eben nicht generell verneinen, das ist kindisch und einseitig aus der eigenen Nutzung auf alle anderen geschlossen, also ebenso falsch wie lächerlich.

Schaut man sich nur mal diesen Vergleich von fast 10Jahren Intel Mainstream CPUs an, vom Core2Duo E6600 bis zum i7 4790k. Bei den Anwendungen sind die Unterschiede teils gewaltig, bei den Games meist bescheiden bei Tomb Raider fällt eigentlich nur der E6600 mit 84,2fps etwas zurück, schon der Core2 Duo E8600 kann auf der GTX980 bei 1920x1080 mit 92,4fps gut mit dem 4790k mit 97,8fps mithalten. Will da jemand ernsthaft den Schluss ziehen, die Leistung hätte sich von einem C2D E6600 auf einen i7-4790k gerade um 16 Prozent gesteigert? Und das die Anwendungen dagegen alle so um den Faktor 6 bis 12 schneller laufen als Ausnahme abtun, die für "Normalos" (was immer man damit nur meint ist mir ein Rästel) irrelevant ist?

Richtig ist, dass die meisten Games von hoher CPU Performance einfach nicht profitieren und für die Gamer ein CPU-Upgrade daher oft nicht lohnt, aber mit welche alten CPU man noch gut mit den aktuellen Modellen mithalten kann, hängt eben neben dem Game selbst auch sehr von der Graka ab. Wer also behauptet eine alte CPU könnte generell mit den heutigen mithalten, dann kann das nur als falsch bezeichnet werden, aber im Einzelfall und auf das bezogen was derjenige damit macht, kann es eben auch stimmen.


lässt dabei eher durchklingen, dass von 45% mehr Takt keineswegs auch nur annähernd 45% Mehrleistung bei rum kommen
Die Quantifizierung mit "keineswegs auch nur annähernd" hast Du da rein interpretiert, ich sprach nur davon, dass die Leistung nie linear mit dem Takt mitsteigt, was Du in der oben von mir zitierten Aussage auch bestätigt hat. Interpretiere bitte nicht etwas in Aussagen was dort nicht steht um dann die eigene Interpretation zu widerlegen, das ist keiner Diskussion förderlich.

Die einzigen, die eindeutig von einer Skylake-Neuanschaffung profitieren, sind Professionals. Die nutzen die neuen und verbesserten Featuren von Skylake und der Plattform.
Es wird sich auch noch mehr Leute als nur Professionals geben die die neuen Features wie die breite Unterstützung von PCIe SSDs oder USB 3.1 (hat bisher fast jedes Z170 Board verbaut, auch wenn es nicht nativ ist) nutzen wollen.

Ob es sich als Gamer lohnt, kann man in den wenigsten Fällen "bejahen". Wenn man keine K-CPU besitzt und daher weniger als 4GHz unter der Haube hat, lohnt sich der Wechsel.
Auch das stimmt so pauschal nicht, es gibt genau Games die selbst mit einem SandyBridge i5 schon am CPU Limit hängen.

dann werden, aufgrund der einsetzenden Skalierbarkeit der neuen Gaming-Generationen, die Karten neu gemischt.
Abwarten! So langsam wie die Games bisher von den Kernen Gebrauch gemacht haben, wäre ich da vorsichtig mit den Vorhersagen.

Für "Otto-Normal" hingegen spielt das alles keine Rolle. Für die ist selbst ein Core2Duo vollkommen ausreichend.
Da ich noch niemanden getroffen habe der sich mit Otto Normal vorgestellt hat, weiß ich nicht was der am Rechner macht. Für Surfen und Office reicht auch eine recht schwache, ggf. alte CPU meist aus, zumindest für die gedulidigeren Menschen und wenn man nicht viele Fenster und Tabs auf einmal geöffnet hat. Für die Games: S.o.!

Wenn da ein PC explodiert, tut man gut daran, aufgrund des überzogenen Preises eben KEINEN Skylake zu kaufen - sondern zu einer sparsamen S-Bridge-, I-Bridge- oder Haswell-Celeron/Pentium-Plattform zu greifen.
Das die Skylakes im Moment sehr teuer sind, liegt einmal daran, dass diese gerade erst ein paar Tage auf dem Markt sind, Frühbucher aber bei attraktiver neuer HW immer schon Aufpreise zahlen musste und dann auch bisher nur die Topmodelle von CPU und Chipsatz erschienen sind. Dazu kommt der schwache Euro, damit ist klar, dass Skylake im Momet kein Sonderangebot sein kann, aber wenn erst die ganzen Modelle auf dem Markt sind, wird es neben billigen CPUs auch günstigere Boards mit einfacheren Chipsätzen geben. Spätestens dann wird es sich auch bald nicht mehr lohnen beim Neukauf etwas anderes als Skylake zu nehmen, so wie es heute nicht lohnt etwas anderes als Haswell neu zu kaufen, den ein S. 1155 Ivy Bridge i5 kommt mit einem günstigen S.1155 Board nicht billiger sondern teurer als ein Haswell i5 mit mehr Takt und ein günstiges S. 1150 Board, dessen H81 dann im Gegensatz zum H61 auch je zwei native USB3 und SATA 6Gb/s Ports bietet.

Der Neukauf alter Plattformen lohnt sich immer nur bis sich die Preise der neuen eingependelt haben, danach nicht mehr!
Ob man die gebraucht oder neu bekommt, spielt dabei keine Rolle - Leistung kommt da mehr als genug raus.
Was aber eben wieder nur stimmt, wenn man keine Anwendungen nutzt, die wirklich intensive Leistung fordern. Außerdem ist Gebrauchtkauf zwar immer günstiger, aber auch mit mehr Risiko verbunden und man hat eben meist auch keine Garantie mehr auf die Sachen.
 
Zuletzt bearbeitet:
Warum wird denn hier soviel darüber geheult, dass cpus kaum mehr stärker werden? Wozu ist das denn vonnöten? Ich hab nen i5 2500k, und der wird auch spiele in 3-4 jahren noch ohne probleme prozessieren können.
 
Intel ist sich ja auch selbst Konkurrenz.
Das einmal, aber auch ARM sollte man nicht vergessen, die greifen Intel ja auch zunehmend in Bereichen an, wo der x86er bisher recht alleine stand, bzw. versuchen es zumindest. Bisher zwar recht erfolglos, wie dieser Vergleich mit dem X-Gene 1 zeigt, aber es arbeiten ja mehrere Firmen daran das zu ändern. Dazu kommt das Mobile Geräte mit ARM CPUs die x86er PCs und Notebooks in immer mehr Haushalten verdängen und wenn dann statt des PCs nur noch zwei Tablets und ein NAS genutzt werden, ist die Chance hoch das da keine x86er CPU mehr im Haus ist, arbeiten doch auch in den meisten Consumer NAS ARM CPUs. Und in meinem PCs stecken im i7 4790k zwar 4 x86er Kerne, aber alleine die 830er und die 850 haben zusammen 5 ARM Kerne in ihren Controllern und wenn man den Rest noch dürchtzählen würde, wären die 4 x86er schon fast nicht mehr der Rede wert.
Ich würde eher sagen, wir sind Ende der Fahnenstange "klassischer" CPU Physik angelangt.
So ist es und wenn sie die doppelte Leistung mal eben so auf dem Hut zaubern könnten, dann würden sie das auch machen, alleine schon weil dann viele eben doch aufrüsten würden, denen die Leistungssteigerungen jetzt dafür nicht ausreichen.
 
Wird man dann mit Zen sehen...

Sollte der halbwegs was reißen, wird Intel vermutlich relativ schnell ne Generation veröffentlichen die auf einen Schlag mal 20% mehr IPC hat statt den aktuellen Messtoleranzen :d

Genauso könnten sie mal eben native 6 oder 8 Kerner für den Mainstream rausbringen, aktuell müssen sie das schlichtweg nicht.

Würden sie das jetzt tun, würde garkeiner mehr AMD kaufen, und sie gingen Pleite, dann hätte Intel ein Monopol und vermutlich ein größeres Problem als jetzt mit der schwachen Konkurrenz.
 
Zuletzt bearbeitet:
Suchst halt zur falschen Zeit. Hier wurden doch schon 3770k zu 130€ und 4790k zu 190€ verkauft. Beides Downgrades?

Ich spreche von Neuware unter 200 Euro... Und ja, es hängt ganz vom Taktpotential ab. @ Stock sind beide CPUs Downgrades. (Den 4790k für 190 würd ich gerne sehen ;) )

PS: Auf der Suche bin ich übrigens nicht, bisher ist noch nicht der Moment gekommen, wie damals, wo ich auf einmal mit 25 Fps rumgedümpelt bin (auch wenn jetzt die persönliche FPS Grenze deutlich höher liegt ;) ).
 
Zuletzt bearbeitet:
Es wird sich auch noch mehr Leute als nur Professionals geben die die neuen Features wie die breite Unterstützung von PCIe SSDs oder USB 3.1 (hat bisher fast jedes Z170 Board verbaut, auch wenn es nicht nativ ist) nutzen wollen.
"Nutzen wollen" - ja. "Davon profitieren" - fraglich. Beim "Hausgebrauch" (Office, Internet, Gaming & Co.) profitiert man seltenst von der Datenübertragung einer M.2- oder NVMe-Schnittstelle. Natürlich liest sich der Datendurchsatz anfangs euphorisch - aber das Öffnen von Firefox oder Word lässt keinen Unterschied spüren, ob für das Öffnen nun 0,9 Sekunden oder 1,3 Sekunden vergehen. Und dafür in so teure Technik investieren? Bei Gamern ist es da ähnlich. Da steckt man das gesparte Geld lieber in eine deutlich bessere GPU und Kühlung.

Auch das stimmt so pauschal nicht, es gibt genau Games die selbst mit einem SandyBridge i5 schon am CPU Limit hängen.
Ich habe noch kein Spiel gesehen, dass einen i5-2500K @ 4GHz in's CPU-Limit getrieben hat und dadurch unspielbar wurde. ;) Wenn der 2500K mit seinen 4GHz bei 120fps im CPU-Limit hängt - who cares? :fresse:

Abwarten! So langsam wie die Games bisher von den Kernen Gebrauch gemacht haben, wäre ich da vorsichtig mit den Vorhersagen.
Nix abwarten, das ist Fakt.

Stand 2010: Volle Zustimmung für deine Aussage - Multi-Core in Spielen - Das bringen 2,4 oder 6 Rechenkerne - Seite 2 - GameStar - ob 4,6 oder 6+HT, kein Unterschied.
Stand 2015: Grafikkarten- & CPU-Benchmarks - GTA 5 im Technik-Test: So sieht eine famose PC-Umsetzung aus - Golem.de - der Trend ist deutlich absehbar. Wir befinden uns im gleichen Umbruch wie 2008~2011, als die Spiele mehr und mehr auf volle DualCore-Auslastung umstiegen und so die QuadCores an Aufwind gewannen. Und da GTA V (und Star Citizen) sowie viele Multiplayer-Games bereits jetzt von vielen Kernen profitieren, wird der Pozess schneller ablaufen als noch 2008.

Da ich noch niemanden getroffen habe der sich mit Otto Normal vorgestellt hat, weiß ich nicht was der am Rechner macht. Für Surfen und Office reicht auch eine recht schwache, ggf. alte CPU meist aus, zumindest für die gedulidigeren Menschen und wenn man nicht viele Fenster und Tabs auf einmal geöffnet hat. Für die Games: S.o.!
"Geduldige Menschen" sitzen noch an P4-Maschinen. Zwischen dem Öffnen von Firefox oder Word 2013 gibt es keinen Unterschied, egal ob i5-2500K oder E6600. Den Unterschied macht die HDD oder SSD. Bei HDDs braucht man dann Geduld, wenn man SSDs kennt.

Zum "Rest":
Skylake wird sich für die breite Masse in der Neuanschaffung erst lohnen, wenn Pentium- und Celeron-CPUs auf breiter Front verfügbar und bezahlbar sind. Bis dahin werde ich jedem weiterhin Haswell empfehlen. Wenn der Geldbeutel nicht ganz so dicke ist, gibt es gebrauchte S-Bridge- oder I-Bridge-Systeme - je nachdem, was die Anschlussvielfalt hergeben muss.
 
Ich spreche von Neuware unter 200 Euro... Und ja, es hängt ganz vom Taktpotential ab. @ Stock sind beide CPUs Downgrades. (Den 4790k für 190 würd ich gerne sehen ;) )...

Mir doch sowas von egal wovon Du redest ;) Ich sagte hier gab es die Prozessoren für den genannten Preis, suchen kannst ja wohl selbst im MP.
 
Ändert dennoch nichts daran, dass die Mehrleistung @ stock ausbleibt.
 
Ist doch nicht so als würdest die anderen CPU´s nicht übertakten Können. Solange Du keinen 2500K hast der 5.2GHz 24/7 läuft dürften die i7 schon Vorteile bringen. 4.4-4.5GHz gehen damit doch auch fast immer.
 
Eine 5 Ghz Sandy, 4,6 Ghz Ivy oder 4,4 Ghz Haswell sollten etwa ähnlich gut (und wahrscheinlich) zu stabilisieren sein unter Luft. Man muss schon Glück haben und eine gute CPU bekommen, um hier (vielleicht auch spürbare) Mehrleistung zu bekommen. Die guten (evtl. geköpften) Haswells gehen ab 300 Euro los (... und ja, dass hab ich im MP nachgeschaut...). Für einen sehr guten 3770k wird auch noch gerne oberhalb von 200 Euro verlangt.

So oder so, da es mir mit meinem 2600k bisher nicht an Leistung mangelt (auch wenn ich ihn momentan nicht mehr mit 5 Ghz brate), stört mich das nicht wirklich. Ist zwar Schade, dass man in dem Bereich dann nichts zu Basteln hat, aber als Student kann ich die Euros immer gut gebrauchen. Jetzt kann ich die restlichen klausurfreien Monate der vorlesungsfreien Zeit ausgiebig nutzen, und muss im Urlaub nicht ganz so sparsam sein :bigok:
 
Zuletzt bearbeitet:
Fast annähernd ist eben nicht 1:1 und wie nahe man dem kommt, hängt eben immer von der Anwendung ab, genau das sage ich doch.
Das "fast annähernd" schrieb ich aus dem Grund, weil es immer Ungenauigkeiten im Rahmen der Messtoleranz gibt. Die Wahrscheinlichkeit, dass die OC Leistung 1:1 skaliert, geht gegen NULL. Entweder knapp drüber oder knapp drunter. -> deswegen schrieb ich von fast annähernd.

Die Quantifizierung mit "keineswegs auch nur annähernd" hast Du da rein interpretiert, ich sprach nur davon, dass die Leistung nie linear mit dem Takt mitsteigt, was Du in der oben von mir zitierten Aussage auch bestätigt hat. Interpretiere bitte nicht etwas in Aussagen was dort nicht steht um dann die eigene Interpretation zu widerlegen, das ist keiner Diskussion förderlich.
Ja na klar war das Interpretation. Die, Sorry, Krümelkackerei, das fast annähernd eben nicht 1:1 entspricht, lässt genau das durchklingen und bestätigt diese Annahme.

PS: schau dir doch selbst OC Ergebnisse mal in diversen Review an. Der Luxxtest bspw. zum i7-5960X bestätigt meine Aussage. 3,3 auf 4,4Ghz sind 33,3%, in den Messungen kommen abseits von Games 34 bis sogar über 40% messbare Mehrleistung bei rum. Dass es dabei sogar mehr ist, als der reine Mehrtakt vermuten lässt, liegt wohl zu 99% an gefixten Werten und Abstellen vom lahmen Turbo.
Da findet man von so einigen Modellen entsprechende Werte...
Also nein, das OC schlägt idR voll durch... Außer es limitiert was, was nichts mit der CPU zutun hat.
Was eben einfach nicht deiner Aussage entspricht. -> genau darauf zielte die Kritik ab. Deine Aussage war/ist zu pauschal um richtig zu sein.

Aber sei es drum, den Meisten geht's hier sowieso um Games...
 
"Nutzen wollen" - ja. "Davon profitieren" - fraglich.
Als ob die Leute immer nur Dinge haben wollen, wovon die wirklich profitieren :cool: Wäre dem so, würde schon seid Jahren niemand KLV, Riesterrenten oder Bausparverträge mehr abschliessen. :haha:

Da steckt man das gesparte Geld lieber in eine deutlich bessere GPU und Kühlung.
Und die schon die besten GPU, CPU und Kühlung haben, wollen eben zur Krünung des Rechners auch eine richtig schnelle SSD, auch wenn der Unterschied kaum spürbar sein wird.

Ich habe noch kein Spiel gesehen, dass einen i5-2500K @ 4GHz in's CPU-Limit getrieben hat und dadurch unspielbar wurde.
Nun wirfst Du zwei unterschiedliche Dinge zusammen, nämlich ob das Spiel die CPU ans Limit bringt, was bei jedem Spiel der Fall sein dürfte welches auf einer deutlich schnelleren CPU bei gleiche Graka auch deutlich mehr fps hat und ob es dadurch unspielbar wird. Das hängt natürlich von den absoluten fps der jeweiligen Konfiguration ab.

Dass es dabei sogar mehr ist, als der reine Mehrtakt vermuten lässt, liegt wohl zu 99% an gefixten Werten und Abstellen vom lahmen Turbo.
Das kann man aber auch ohne OC machen, das ist selbst für sich noch kein OC, davon kann man erst reden, wenn man dann auch die Takte anhebt. Das Energiesparen immer auch auf die Leistung geht, sollte klar sein, die Wechsel von Taktraten und Energiesparzuständen kosten eben immer Zeit, auch wenn es nur wenig ist.

Wenn man das rausnimmt, wirst man aber nie exakt auf eine 1:1 Steigerung der Leistung kommen, schon gar nicht auf eine mehr als 100%ig Skalierung der Leistung mit der Taktsteigerung, das geht einfach nicht.
Aber sei es drum, den Meisten geht's hier sowieso um Games...
Leider, man könnte wir wären nicht bei Hardwareluxx sonder bei Gamerluxx. :wall:
 
Zuletzt bearbeitet:
Nun wirfst Du zwei unterschiedliche Dinge zusammen, nämlich ob das Spiel die CPU ans Limit bringt, was bei jedem Spiel der Fall sein dürfte welches auf einer deutlich schnelleren CPU bei gleiche Graka auch deutlich mehr fps hat und ob es dadurch unspielbar wird. Das hängt natürlich von den absoluten fps der jeweiligen Konfiguration ab.
Ich werfe nicht "zwei unterschiedliche Dinge zusammen" sondern sehe die Dinge so, wie sie sind:

Spiele, in denen ein 2500K @ 4GHz in's CPU-Limit läuft, sind mit über 70fps unterwegs. Wenn ein 6600K dann 80fps schafft, spielt das keine Rolle mehr.

Spiele, in denen ein 2500K nur 30fps schafft, laufen auch auf einem 6600K nur mit 35fps. Das macht's nicht besser und zeigt, dass die GPU wichtiger als die CPU ist.

Als Beispiel: Ich habe einen 2500K mit einer GTX680. Und ich brauche meeeeeehr Spielepower. Aber ich habe "nur" 700€.

Was glaubst du, mit welcher Kombination hat man mehr Gaming-Power:
a) 2500K @ 4GHz + 8GB DDR3 + GTX980Ti = 700€ für die GTX980Ti

b) 6600K (@ 4GHz) + 8GB DDR4 + GTX970 = 730€ inkl. GTX970

Wer also von einem 2500K auf einen 6600K umsteigt, dann aber eine kleine GTX970 befeuert, hat am Ende auf das falsche Pferd gesetzt. Selbst wenn man die 1155-Plattform noch für ~200€ verkauft bekommt, muss man für eine normale GTX980 drauflegen - und ist noch immer langsamer als mit dem 2500K + GTX980Ti.

Und wer bereits einen 2500K unter seiner GTX980Ti werkeln hat, kann natürlich aus "Spaß" eine 6600K-Plattform kaufen. Aber für die mindestens 400€ würde ich lieber in den Urlaub fliegen und mir eine schöne Woche Sonnenschein auf dem Pelz gönnen. Denn der Gegenwert der 400€ ist derart gering - das kann man selbst als "Luxxer" nicht schönreden.
 
Zuletzt bearbeitet:
Schön was man hier so liest als 2600k Nutzer. Habe die CPU jetzt ca. 3,5 Jahre und immer wieder aus Interesse dieses Thema in ähnlicher Form beobachtet:wink:

Für mich lohnt sich ein Skylake System eigentlich nicht da ich kaum Anwendungen habe die dadurch profitieren. Trotzdem werde ich vermutlich umsteigen sobald sich die Preise gelegt haben. Warum? Weil ich einfach mal wieder was neues haben möchte:)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh