[Sammelthread] Intel Skylake Core i7-6700k und i5-6600k Prozessoren #News #Infos und #Gerüchte

Also erst argumentierst du aus Gründen der Realitätsnähe mit 1080p und jetzt willst du uns erzählen, dass man CPUs sogar mit 4k benchen muss? Aus Realitätsnähe? Mit 4k?

Lol.

Das kommt etwas verzweifelt rüber.
Verzweifelt? Wenn man keine Gegenargumente hat, wird man persönlich, hm? :lol:

Es ging mir darum, aufzuzeigen, dass das GPU-Limit viel stärker ausgeprägt in Erscheinung tritt, als es Nighteye wahrhaben möchte. Wenn mir jemand erzählen möchte, dass eine Intel-Quad-CPU ab S-Bridge in 1080p oder 4K im Limit läuft, muss ich nur herzlich lachen. Aber du kannst gerne ebenso in den Benchmark schauen und die 1080p-Werte vergleichen. Ich bin mir aber sicher, dass du das schon getan hast. Sonst hättest du argumentiert, statt zu versuchen, mich zu diskreditieren. :rolleyes:

Selbst in 1080p trennen den 3570K und den 4790K (3,4GHz vs. 4,0GHz :hmm: ) nur 3fps. Wenn man, wie zig Gamer, keine TitanX sondern eher eine R270X im Rechner hat, trifft man sogar nur auf 1fps Unterschied.

Die GPU-Limit-Problematik ist viel schlimmer als das CPU-Limit - Nighteye, und du scheinbar auch, scheinen diese Problematik gerne miteinander zu verwechseln.



Aber es ist lächerlich zu sagen, dass die Haswell CPUs nur 7% schneller als die alten S-Bridge CPUs sind.
Und du kannst ebenso wie Nighteye nicht lesen. Ich habe nie das Plus an IPC von S-Bridge über I-Bridge hin zu Haswell und Broadwell in Frage gestellt. Aber ich stelle den Sinn und Nutzen, der am Ende dabei rauskommt für Otto-Normal & Gamer massiv in Frage - denn der liegt im Bereich von "Peanuts". Aber ich wiederhole mich gerne: die, die von der IPC-Steigerung profitieren, sind einzig Professionals und jene, die die Ausstattung der neuen Chipsätze brauchen.

Nächstes Jahr kommt mit Pascal eine neue Graka Generation. Wer weiss, was die an Leistung bringen. Vielleicht verschiebt sich dann das GPU Limit? Vielleicht liegen die Werte im 1080p Benchmark dann dort, wo sie heute im 720p Benchmark liegen? Oder werden die GPUs in Zukunft langsamer werden?
Werden sie zum Glück nicht. Aber du weißt, was AMDs Mantle bewirkt hat? Und du weißt, was uns in diesem Sinne mit DirectX12 auf breiter Front bevorsteht??

Mitdenken mein Lieber, mitdenken. ;)

Ich würde jedenfalls niemandem empfehlen, heute noch eine Sandy Bridge CPU zu kaufen, wenn er für ein paar Euro mehr eine Haswell oder Skylake CPU kriegt.
:rofl:

Einen gebrauchten 2500K bekommt man zwischen 90~130€, je nach Taktfreudigkeit, eine passende P68/Z68/Z77-Plattform gebraucht für ca. 50€. DDR3-RAM haben die meisten noch da, falls nicht, gehen die 8GB hier gebraucht für ca. 40~50€, je nach Takt, raus.

Und du willst mir erzählen, dass ein Aufpreis auf einen 6600K, der jetzt schon auf Höhe von Broadwell (270€) gehandelt wird, neben einer neuen Z170-Platine (ca. 100€) und neuem DDR4-RAM, weil die allerwenigsten DDR3L-RAM im PC haben (50€ exkl. für 8GB DDR4) unter "wenige Euros" fällt?? Etwa 150€ (200€ inkl. RAM) für eine gebrauchte 2500K-Plattform vs. 420€ für eine neue Skylake-Plattform!?

Na, du hast in Mathe aber auch ganz schön gepennt. :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nun ja, die Gebrauchtpreise einer jahrealten Plattform mit den Neupreisen der gerade erscheinenden Generation zu vergleichen ist aber auch nicht wirklich sinnvoll. Natürlich kommt man auf dem Gebrauchtmarkt immer gut weg, da das P/L-Verhältnis massiv besser ist - das ist jetzt keine neue Erkenntnis. Gebrauchtkauf ist aber trotzdem nicht DAS Ding.
 
Bei den zu erwartenden Skylake-Preisen würde ich erstmal niemandem einen Kauf dieser Plattform empfehlen, zumal man die Symptome der "Early Adopter" abwarten muss. Bspw. "Haswell C1 und C2".

Wenn jemand bspw. von einem Athlon X4 wechseln möchte, würde ich ihm jederzeit zu S-Bridge, I-Bridge oder Haswell raten - je nachdem, welche Plattform er zu welchen Preisen ergattern kann und welche Ausstattung der Plattform ihm wichtig ist.

Wenn jemand absichtlich auf die Ausstattung der Skylake-Plattform abzielt - nur zu. Aber die Preise sind am Anfang kräftig gesalzen und um von der Plattform tatsächlich zu profitieren, muss man eben auch deren "Features" nutzen, die, aufgrund ihrer "Jugend", eben auch erstmal kräftig an den Geldbeutel gehen. Bspw. "Ultra M.2", DDR4, USB3.1-C usw.

Wer aber einfach nur Gaming-Power und gesteigerte Leistungsfähigkeit im Alltag braucht - für den reicht eine jede Plattform ab S-Bridge - dann entscheiden lediglich Ausstattungswunsch und größe des Geldbeutels.
 
Bei den zu erwartenden Skylake-Preisen würde ich erstmal niemandem einen Kauf dieser Plattform empfehlen

Das stimmt. Das P/L von Haswell ist noch deutlich besser.

Natürlich argumentiere ich mit GPU-Limits. Weil das heutige Problem in Gaming-Kisten die GPU ist - nicht die CPU.
Was soll ich mit einem 4GHz Skylake, wenn jeder 4GHz-Multicore mit einer TitanX in 4K in's GPU-Limit läuft!? :rolleyes:

Das ist der größte Schwachsinn, den ich je gelesen habe.

GTA V CPU Bottleneck Benchmark - 4790K vs. 3570K, FX-9590, 8370, 8320, & More | Gamers Nexus - Gaming PC Builds & Hardware Benchmarks

@4K liegen zwischen einem Athlon 760K und einem 4790K im Schnitt 3fps (!!!) - und du willst uns was von CPU-Limit erzählen!!?? Bevor die CPUs in's Limit laufen, landet die TitanX im Limit.

Wie kann man nur so einen Stuss wie den deinen schreiben. Das ist so realitätsfern. Als ob die Menschen in 720p stehen bleiben und spielen würden. :wall:

1. Bleib mal bitte bei einem Kontext. Erst 1080P und jetzt ganz neu 4k ??
2. Es gibt Spiele wie dein Beispiel, wo die GPU zuerst Limitiert.
3. Es gibt Spiele wie in meinem Beispiel, wo die CPU zuerst Limitiert.
4. Daher ist eine Paschalisierung Unsinn da es jeh nach Game ein CPU oder GPU Limit bei Identischer Hardware gibt.
5. Du hast erst gesagt 720p Bench ist Schwachsinn und wolltest 1080p.
6. Jetzt Argumentierst du mit 4k.
7. 4k ist das Realitätsfernste was es gibt, und das nimmst du jetzt als Argument.
8. Du hast mit Realitätsnähe Argumentiert.
9. Die meisten nutzen 720p, dann kommt 1080p und die wenigsten nutzen 4k.
10. 720p ist Realitätsnäher als 1080p.
11. 720p ist Realitätsnäher als 4k.
12. Da du zuerst mit 1080p argumentiert hast, bin ich nicht vom 0815 User mit 270X ausgegangen.
13. Jetzt wo du mit 4k Argumentierst ist es eine ganz andere Story.
14. Ich habe nie behauptet das bei 4K die GPU,s nicht der Flaschenhals seien.
15. Meine Argumente auf meine Beispiel Spiele bezogen sind auf 720p und 1080p nach wie vor Korrekt.

Fazit:
Es gibt Szenarien da ist ein Sandy ausreichend und man merkt keinen Wirklichen Unterschied zu Haswell.
Es gibt Szenarien da ist ein Haswell beim gleichen Takt schon 19% schneller als ein Sandy.

Überträgt man dieses Fazit auf Skylake, so vergrößert sich einfach der Potentielle Nutzen.

Ergo: Skylake kann bei Taktgleichheit jeh nach Game Definitiv mehr als 20% mehr FPS Generieren, als ein Sandy Bridge.

PS: Ich weiß mein Ton war selber auch manchmal nicht besser.
Aber ich finde wir sollten aufhören mit Beleidigenden Worten wie "Stuss" "Schwachsinn" etc.
 
Zuletzt bearbeitet:
1. Bleib mal bitte bei einem Kontext. Erst 1080P und jetzt ganz neu 4k ??
Bleibe ich - es ging mir darum, dir zu erklären, dass in den Auflösungen von heute, sprich 1080p und höher, das CPU-Limit ein Randproblem ist, so lange man einen Intel-QuadCore oder vergleichbar nutzt.

Wenn du die Beiträge weiterliest, was ich an deinem unteren Quote erkennen kann, hättest du bereits diese Argumentation lesen können. Aber auch für dich: gehe nochmals auf die Website mit den Bench-Vergleichen und sieh' dir die 1080p-Vergleiche an. Dann sind wir wieder an dem gleichen Punkt.

3. Es gibt Spiele wie in meinem Beispiel, wo die CPU zuerst Limitiert.
Zeige mir diese in 1080p - aber bitte auf Intel Quads ab S-Bridge. Ach, und bitte ein Limit, das man auch spüren kann. Du brauchst jetzt nicht mit Games ankommen, die in 1080p 150fps und mehr generieren. :rolleyes: Für die wäre sogar ein Celeron ausreichend.

9. Die meisten nutzen 720p,
Was? :lol:
Heutige Monitore nutzen 1080p als Standard. Lediglich in Laptops hält sich 720p wacker. Und da nutzen die meisten 720p? Ich glaube nicht. Aber du kannst deine Aussage gerne belegen. Ich warte.

10. 720p ist Realitätsnäher als 1080p.
Eben nicht.

15. Meine Argumente auf meine Beispiel Spiele bezogen sind auf 720p und 1080p nach wie vor Korrekt.
Wie gesagt - ich warte auf die 1080p-Games, die das CPU-Limit offenbaren. Und zwar so, dass man es auch spürt.

Es gibt Szenarien da ist ein Haswell beim gleichen Takt schon 19% schneller als ein Sandy.
Zeig' mir diese bitte. Aber wie oben schon angemerkt - keine Games, die auf den Quads mit 150fps rumgurken. Dann ist die Diskussion sinnlos, weil ein Celeron ausreichend wäre.
 
Die Benchs dazu wurden schon gezeigt. zb bei Anno 10 fps unterschied zwischen Sandy Bridge und Haswell bei einer Uralt Geforce Titan welche auf der GPU Rangliste nur noch auf Rang 13 ist.
Und diese 10 FPS sind nicht im über 100 FPS berreich, sondern 42 fps mit Sandy vs 52 fps durch Haswell. Zwischen 42 fps und 52 fps ist ein Spürbarer unterschied.
Und bei einer Modernen Grafikkarte wie GTX970 oder GTX980 oder R9 390X oder Fury ist dies nicht nur in 720p so, sondern auch Locker Flockig in 1080p.

Achja und zu dem Beweis zu meiner behauptung das die Masse keine 1080p nutzt.
Laut Steam nutzt nur 1/3 der Spieler 1080p. Der Größte Teil der Steam Spielerschaft nutzt niedrigere Auflösungen.

Mir Reicht diese Steam Statistik als Beweiskraft. Wenn das für dich nicht Beweis genug ist, kann ich dir auch nicht mehr weiter helfen.

- - - Updated - - -

Achja und Starcraft 2 liegen zwischen einem i5 Sandy und einem i5 Haswell auch Spürbarer fps unterschied. Diesmal von 22fps auf 31fps.

- - - Updated - - -

Edit: Die Titan ist sogar mittlerweile noch weiter hinten. GTX970 ist auf Platz 10.
Andere Karten wurden im laufe der Jahre durch bessere Treiber auch schneller als die Titan.
Und die normale Fury ohne X ist noch garnicht in der Rangliste vorhanden.

Die Titan aus dem Bench ist nur noch auf Platz 15.

- - - Updated - - -

edit da fällt mir noch was ein.

Die Titan aus dem Bench ermöglicht in Starcraft und Anno schon Extreme FPS zuwächse bei 720p zwischen Sandy und Haswell.

Du sagst dann einfach, das es bei 1080p nicht so wäre.
Dazu muss man das aber erstmal Beweisen das die Titan in dem Bench am Limit war.
Denn ob die Titan durch Haswell schom am Limit ist, lässt sich aus dem Bench nicht entnehmen.
Aber selbst wenn sie durch Haswell auf 1080p am Limit wäre, wäre das nicht so Wichtig da die Titan ja eh schon sehr Low ist. Wie gesagt GTX970 ist viel schneller.
 
Die Benchs dazu wurden schon gezeigt. zb bei Anno 10 fps unterschied zwischen Sandy Bridge und Haswell bei einer Uralt Geforce Titan welche auf der GPU Rangliste nur noch auf Rang 13 ist.
Und diese 10 FPS sind nicht im über 100 FPS berreich, sondern 42 fps mit Sandy vs 52 fps durch Haswell. Zwischen 42 fps und 52 fps ist ein Spürbarer unterschied.
Und bei einer Modernen Grafikkarte wie GTX970 oder GTX980 oder R9 390X oder Fury ist dies nicht nur in 720p so, sondern auch Locker Flockig in 1080p.
Könntest du mir diesen Vergleich bitte zeigen?

Achja und zu dem Beweis zu meiner behauptung das die Masse keine 1080p nutzt.
Laut Steam nutzt nur 1/3 der Spieler 1080p. Der Größte Teil der Steam Spielerschaft nutzt niedrigere Auflösungen.
Diesen Zahn muss ich dir leider ziehen - denn du hast die Statistik entweder nicht gelesen oder nicht verstanden.
Steam Hardware & Software Survey
34,33% nutzen 1920x1080 - 28,58% nutzen Multi-Monitor-Setups mit 3840x1080 - das sind zusammen schon 62,91%. Lediglich 26,89% dümpeln bei 1366x768 rum. Der Rest verteilt sich dann größtenteils, je nach Auflösung, auf die entsprechenden (alten) TFT-Klassen (17" mit 1280x1024, 19" Widescreen mit 1440x900 und 21"/22" mit 1680x1050).

Also, welche Auflösung nutzt der größte Teil der Steam-Spielerschaft? Weniger als 1080p oder mindestens 1080p? :rolleyes:

Mir Reicht diese Steam Statistik als Beweiskraft. Wenn das für dich nicht Beweis genug ist, kann ich dir auch nicht mehr weiter helfen.
Mir auch. :d *hust*Eigentor*hust*

Achja und Starcraft 2 liegen zwischen einem i5 Sandy und einem i5 Haswell auch Spürbarer fps unterschied. Diesmal von 22fps auf 31fps.
Zu SC2-HOTS solltest du nicht nur -1- Benchmark lesen. Denn wie ein weiterer Test von PC Games bereits selbst bemerkt hat, gibt es bei dem Spiel eine Besonderheit. Ich zitiere gerne:

Haswell Extreme: Intel Core i7-5960X und i7-5820K (ES) im Test
PCGamesHardware schrieb:
"Die enorme Skalierung in Starcraft 2, welche die Taktanhebung deutlich übertrifft, tritt auf AMD wie Intel reproduzierbar auf und wirkt besonders stark im Bereich ab 3,5 GHz - wir untersuchen derzeit das Phänomen, können aktuell aber noch keine belastbare Erklärung zur Ursache anbieten. Eine Theorie ist, dass die hohe Anzahl der im Spiel dargestellten und sowohl mit Physikberechnungen als auch Ragdoll-Animationen verfeinerten Einheiten eine Art selbstverstärkenden Pipeline-Stall auslösen könnte."
Das ist bei diesem Spiel ein Novum und NullKommaNull representativ.

Die Titan aus dem Bench ermöglicht in Starcraft und Anno schon Extreme FPS zuwächse bei 720p zwischen Sandy und Haswell.
720p ist gestern - Gamer von heute, also der Großteil, nutzt 1080p oder mehr. Was zu beweisen war. ;)

Du sagst dann einfach, das es bei 1080p nicht so wäre.
Dazu muss man das aber erstmal Beweisen das die Titan in dem Bench am Limit war.
Denn ob die Titan durch Haswell schom am Limit ist, lässt sich aus dem Bench nicht entnehmen.
Aber selbst wenn sie durch Haswell auf 1080p am Limit wäre, wäre das nicht so Wichtig da die Titan ja eh schon sehr Low ist. Wie gesagt GTX970 ist viel schneller.
Beweise? Wenn in einem Benchmark die CPUs mit steigender Auflösung und hinzugeschalteten Detailverbesserungen mehr und mehr zusammenrücken, sich also von S-Bridge bis Haswell kaum noch fps-Unterschiede ergeben, dann spricht man von einem GPU-Limit. Du möchtest einen Beleg dafür? Gerne:

PCGamesHardware schrieb:
"Wir haben uns für die vier mit OC getesteten Spiele bewusst gegen Battlefield 4 und Crysis 3 entschieden, da dies die grafisch aufwendigsten Spiele unseres Parcours sind und hier trotz der Geforce GTX 780 Ti, die in BF4 und C3 mit 1 GHz läuft, die Gefahr bestand, ins Grafiklimit zu laufen."
Wenn Spiele zu grafikaufwendig werden, sei es die Natur des Spiels selbst bzw. die Grafikeinstellungen, dann läuft die Karte in's Limit. Das ergeht einer TitanX so, das ergeht einer AMD Fury so, das ergeht jeder Karte so. Und wie du an dem aktuellen Top-Titel "GTA V" erkennen kannst, passiert das durch die Bank weg.

Gegenargumente?

- - - Updated - - -

Ach, und noch ein paar Beispiele, wieso man "Starcraft 2 - Heart of the Swarm" eher nicht als Benchmark-Argument anführen sollte:
Disappointing Realization: Starcraft 2 HotS vs CPU progress the last few years
CPU Auslastung seit HotS - Foren - StarCraft II
QuadCores and 6sixCores and 8Cores on HOTS - Forums - StarCraft II
When will we get Multicore-Support? - Forums - StarCraft II

SC2 ist derart schlecht programmiert, dass man selbst mit einem hochgezüchteten 12-Kerner einem 4-Kerner unterliegt, wenn dieser mehr Takt aufbietet. Noch mehr "Schlampigkeit" in der Programmierung findet man, wenn man bei Google nach "starcraft 2 hots multicore" sucht. Viel Spaß. ;)
 
"!Könntest du mir diesen Vergleich bitte zeigen?"

Auf Seite 12 des Themas.
Hier der Direktlink zum Post.

http://www.hardwareluxx.de/communit...os-und-geruechte-1075647-12.html#post23692786

Stimmt die Multimonitor geschichte bei Steam hab ich überlesen. Habe garnicht mit so viel Multimonitor einsatz gerechnet.
Kann mir kaum vorstellen das jeder 4rte Steam Spieler Multimonitoring benutzt, krasse sache.
Ich habe in meinem Bekanntenkreis viele Zocker, und alle nutzen Steam. Das sind locker über 12 Personen. Und keiner von denen nutzt Multi Monitoring. Schon Komisch diese Statistik.
Aber ich nehme das mal hin. Auf jedenfall ist die Anzahl der 720p Nutzer auf ähnlichem Niveau von 1080p wie man sieht.
ALso 720p ist definitiv noch mehr Common als 4k. Wird wohl auch noch mindestens paar Jahre so bleiben schätze ich.

Da SC2 für dich nicht sehr Representativ ist. Schau dir mal Supreme Commander Forged Alliance Benchs im Multiplayer bei 81km x 81km Karten an.
Bei dem Game war schon eine HD6970 total Unterfordert, aber eine Sandy @ 5ghz viel zu Schwach für Flüssiges Spielen.
Bei Supreme Commander 2 verhällt es sich auch so. Bei 4 vs 4 auf Dicken Maps mit mehreren Tausend Units bricht ein Sandy so krass ein das es eine Dia Show gibt.
Ich hab über 700h Spielstunden bei Supreme Commander 2 daher weiß ich das. Man kann ingame auch anzeigen lassen ob die CPU noch Echtzeit Darstellen kann oder halt schon Time Dialation gemacht werden muss (passiert automatisch wenn die CPU nicht mehr mitkommt). Und da ich Freunde mit nem OC Sandy hab, konnten wir das schon beobachten.
Nichtmal ein Haswell auf 4,5 ghz war da genug. Aber nur Knapp. Ein 4,8 ghz Haswell wäre schnell genug damit es zu keiner Time Dialation kommt.
Von Daher wird wohl Skylake die erste CPU sein die Supreme Commander 2 Flüssig unter Luftkühler Darstellen können wird sofern Skylake mit Luft auf 4,6 ghz kommt.

World of Tanks ist auch so ein Beispiel da das Spiel quasi keinen Multi Core Support hat, der seines Namens würdig wäre :d
Bei dem Spiel Zählt echt nur Fette Leistung von 1-2 Kernen. Wot ist zwar auch Immens GPU Lastig, aber eine 270X zb bekommt man mit nem AMD zb schon garnicht mehr ausgelastet.
Um eine 270X bei Wot auszulasten bedarf es schon mindestens nen Nehalem oder Sandy.
Und um eine 280X auszulasten, bedarf es Sandy mit OC.
Bei Modernen Grafikkarten wie GTX980ti oder Fury X bewegt man sich mit einem Haswell @ 4,5ghz auch schon am CPU Limit.
Das merkt man vorallem im Tier 2-3 wenn viele kleine Autoguns abgefeuert werden und viele Objekte auf einmal berechnet werden müssen.

Ich könnte jetzt noch mehr Beispiel Spiele raussuchen, und für dich mögen diese Beispiele alle nicht aussagekräftig sein, aber für mich sind sie es.
Es ist halt wie immer alles eine frage des persönlichen Anspruchs und der Spiele und der Resthardware.

Ich für meinen Teil, rüste Grafikkarten auch in häufigeren Intervallen nach, als CPU,s.
Von daher würde ich sogar eher eine zu Starke CPU mit einer noch etwas schwächeren GPU kaufen da die GPU,s eh im schnitt alle 2-3 Jahre gewechselt haben in der Vergangenheit. (zumindest vor der 28nm Eiszeit)

DX12 ist eine interessante geschichte und kann bei nutzung definitiv wieder dazu führen das wir eher wieder häufiger ein GPU limit haben als ein CPU Limit, aber selbst Star Citizen mit Moderner Engine und Fantastischem Multi Core Support und DX12 beweißt das selbst trotz dieser Technik ein Quad Core zu Langsam für das Spiel ist, und eine GTX970 genau so wenig fps wie eine GTX980ti mit einem Haswell i7 Quad Core @4,5 ghz bringt.
Die 4 Kerne sind da einfach der Flaschenhals weil das Spiel so viel für die CPU zu berechnen hat.

Von daher sehe ich DX12 nicht als Problemlöser.
Erst wenn 6 oder mehr Kerne Standard sind (Durch Zen), wird Dirext X12 Stark abgehen, sofern genutzt. Viele Tolle Spiele wie World of Tanks werden die nächsten Jahre wohl leider noch kein DX12 bekommen.

"720p ist gestern - Gamer von heute, also der Großteil, nutzt 1080p oder mehr."

Dem stimme ich zu. Also, Moderne Gamer die auch was Flotteres im Rechner haben als der Steamdurchschnitt, nutzen wohl Definitiv 1080p.
Fazit: Bei Spielen die wenig zu berechnen haben im vergleich zu Star Citizen, und Multi Core oder gar Mantle/DX12 Support haben wie zb BF4, kommt man wirklich nicht in ein CPU Limit mit einem Sandy.
Doch ein AMD 2 Moduler kommt bei BF4 auch ins CPU Limit bei 1080p und 64er Maps im Multiplayer soviel ich gehört habe.
Und ein Haswell 4 kerner ist wie gesagt bei Star Citizen der Flaschenhals. Von daher ändert sich eigentlich nichts an meinem Fazit von meinem alten Post.

Daher nochmal zum Fazit:
Es gibt Szenarien da ist ein Sandy ausreichend und man merkt keinen Wirklichen Unterschied zu Skylake.
Es gibt Szenarien da ist ein Skylake beim gleichen Takt Spürbar schneller als ein Sandy.
 
Was hier so alles empfohlen wird - tsss - als wenn ich mir hier sagen lasse, was ich mir wann zu kaufen habe, was für eine im Grunde belanglose Diskussionen hier statt findet. So viel Geschreibe bzw. persönliche Meinungen, die aber im Grunde total irrelevant sind. Wer gerne umsteigen möchte, egal aus welchen persönlichen Gründen, von dieser Unterhaltung hier lässt er sich davon auf jeden Fall nicht abhalten, ist aber auf jeden Fall lustig - eine Ego jagt das Andere! ;)
 
Nighteye, deinem letzten Post Stimme ich überwiegend zu. Bei gleichem Takt wird ein skylake in ein paar Fällen auch spürbar vor sandy liegen. Deswegen entscheidet für mich einzig und alleine die oc Qualität unter Luft, ob dieser Unterschied für uns übertakter auch im gleichen Maße ins Gewicht fällt.
 
Na, dann bringen wir es doch auf den Punkt:

Heute ist noch immer die GPU wichtiger als die CPU.

Wer noch immer einen i5-2500K @ 4GHz sein Eigen nennt und mehr Gaming-Power haben möchte, sollte die Finger von Skylake lassen, und stattdessen in eine fette GPU (nebst Kraftwerk) investieren. Denn auch ein Skylake ist in GTA V, Crysis3 und BF4 nicht schneller als ein S-Bridge bei gleichem Takt und gleicher Grafikkarte, so lange man mind. FullHD als seinen Anspruch setzt. Dann bringt eine GTX980, die in etwa so viel kostet wie eine Skylake-Neuanschaffung, deutlich bessere Ergebnisse.

Falls jemand aber gezielt auf die Ausstattung und Features von Skylake und die kommende Z170-Plattform wartet, dann sollte er zugreifen - diese dann aber auch nutzen. Andernfalls wurden hunderte Euros sinnlos verblasen.
 
Ich hab zwar einen i7 2600 mit ner 780TI, werde aber vermutlich auf Skylake umsteigen da eines meiner Lieblingsspiele nur auf 2 Cores läuft und mit dem höheren Takt ein Leistungsgewinn möglich ist.
 
Denn auch ein Skylake ist in GTA V, Crysis3 und BF4 nicht schneller als ein S-Bridge bei gleichem Takt und gleicher Grafikkarte, so lange man mind. FullHD als seinen Anspruch setzt. Dann bringt eine GTX980, die in etwa so viel kostet wie eine Skylake-Neuanschaffung, deutlich bessere Ergebnisse.

Gibts evlt Tests mit einer GTX980ti bei 1080p bei GTA V auf einer AMD Kaveri CPU ?
Würde mal Gern Tests dazu sehen um zu sehen wie viel Takt ein Sandy benötigt damit die CPU nicht mehr der Flaschenhals ist.

Bevor so etwas nicht getestet wurde, kann man die aussagen die du triffst nicht überprüfen.

- - - Updated - - -

N
Wer noch immer einen i5-2500K @ 4GHz sein Eigen nennt und mehr Gaming-Power haben möchte, sollte die Finger von Skylake lassen,
Denn auch ein Skylake ist in GTA V, Crysis3 und BF4 nicht schneller als ein S-Bridge bei gleichem Takt und gleicher Grafikkarte, so lange man mind. FullHD als seinen Anspruch setzt.

Ich hab grad n GTA V Bench gefunden. Titan X bei 2560x1600.
da bringt ein 2500k (3,3 ghz) 10 fps weniger als ein Haswell i5 mit 3,5ghz.
Ergo, die FPS Steigen durch Haswell. CPU Limit ist also sogar noch bei 2560x1600 möglich.

- - - Updated - - -

Und laut einer anderen seite soll die Titan X bei 1080P High Details mit nem i7 Haswell bei Max Details 108ßp average 109 fps packen.

Der Sandy Test von dem ich anfangs sprach, war weit unter dieser FPS.
Das heißt, wir sind im CPU Limit mein Freund.

Sie Schreiben:
at 1440p at max detail, Tweaktown reports that the R9 290X 8GB flavor hits 77 FPS


Ergo haben die sogar schon mit ner 290X mehr fps erreicht als ein 2500k ohne OC jeh zulassen würde.

Das heißt man muss den 2500k Ocen, und selbst dann ist er am Limit mit einer zb 290X und noch mehr am Limit mit einer schnelleren Graka wie zb GTX980 oder 390X oder Fury oder GTX980ti oder Furx X oder Titan X.

Sie schreiben weiter. "GTX 980 at 1080p with normal textures (88 FPS) and the R9 290X following at 80 FPS."

Das ist alles viel mehr fps als ein Sandy + Titan X in deinen Benches Packt und auch laut allen seiten die ich finden konnte.
Ein Sandy + Titan X hat nie 80 oder 88 fps erreicht. Daher war immer Sandy der Flaschenhals !

Hier noch was von noch ner anderen seite was den CPU Bottleneck verdeutlich.

http--www.gamegpu.ru-images-stories-Test_GPU-Action-Grand_Theft_Auto_V_-test-2-GTA5_proz.jpg


Achja und hier sieht man auch schön wie ein 3 ghz Haswell Quad Core schon bei einer GTX970 gegenüber einem 4 ghz Haswell Quad Core Limitiert.
15 fps unterschied.
Das heißt ein 3ghz Haswell ist viel zu schwach für eine GTX970 @ 1080p
ein 3ghz Haswell i5 entspricht einem 2500K ohne OC nur zur info.

9E8eL8.png


Daher, ein Sandy auf 3,5 oder gar 4 ghz würde 100% noch die GTX970 Limitieren, und somit auch jede Schnellere Karte wie zb 390X, GTX980 etc.
Ein Sandy auf 4,5 ghz würde wohl gerade so zu einer 290X passen um sie auszulasten.
Für schnellere GPU,s muss man dann schon auf Haswell + OC zugreifen um mehr FPS zu sehen.
 
Zuletzt bearbeitet:
Ich sehe immer noch keinen Sandy im Bench, der mit um die 40% Mehrtakt läuft, wie es eben bei den meisten Luxxern der Fall ist. Dieser ist nämlich locker auf Niveau eines 4790k, der immerhin mit über 4 Ghz Grundtakt kommt. Es macht keinen Sinn, sich solche Benchmarks anzusehen um auf eine CPU Limitierung zu schließen. Ich habe selbst schon GTA V/ BF3,4/ Crysis 3 mit einer 290 @ 1,2 Ghz gespielt, die eine 970 @ Stock alt aussehen lässt. Sowohl in 1200p als auch 1440p war die GPU Auslastung immer immer im oberen 90er Bereich. Und ja, ich kann dir versichern, dass ich in Spielen DEUTLICH mehr von einer 980 Ti/ Furry X profitieren würde, als von einem ähnlich teuren Upgrade auf Skylake ;) Und bis die GPUs in der Leistungsklasse mal für vernünftige 200 Euro zu erwerben sind, wird noch sehr viel Zeit vergehen. Das ist nämlich immer die Preisklasse, in der ich nach einem Upgrade suche.

Irgendwas wird immer limitieren, wichtig ist nur, dass ausreichend FPS generiert werden. Und für 60 Hz ist man mit Sandy eben schon gut aufgestellt, in fast allen Spielen oberhalb davon zu liegen (im CPU Limit). 144 Hz + MultiGPU ist hier aber wieder ein ganz Anderes Thema, da ist Sandy alleine durch PCIe 2.0 und die 16 Lanes limitiert.
 
Zuletzt bearbeitet:
Ich sehe immer noch keinen Sandy im Bench, der mit um die 40% Mehrtakt läuft, wie es eben bei den meisten Luxxern der Fall ist.

Das entspräche 4,6 ghz für den Sandy. 3,3 ghz + 40% = 4,6 ghz. Ok nehmen wir mal an jemand hat diese 4,6 ghz.
Dann hat er wie ich schon sagte genug Power um eine R9 290X auszulasten.

Ergo wiedersprichst du mir garnicht.
Für mehr hat der Sandy dann aber keine Power.
Wer ergo eine GTX980 oder Fury oder GTX980ti oder Fury X oder Titan X sein eigen nennt, wird mit nem 4,5ghz Sandy zu wenig CPU Power haben.

Aber für einen User mit GTX970 oder R290X wie in deinem Fall, reicht ein OC Sandy aus, wie ich schon schrieb. Ich Zitiere mich mal selber um zu Beweisen das ich das schon sagte und du quasi nur meine Worte in anderer Formulierung wiederholt hast.

Daher, ein Sandy auf 3,5 oder gar 4 ghz würde 100% noch die GTX970 Limitieren, und somit auch jede Schnellere Karte wie zb 390X, GTX980 etc.
Ein Sandy auf 4,5 ghz würde wohl gerade so zu einer 290X passen um sie auszulasten.
Für schnellere GPU,s muss man dann schon auf Haswell + OC zugreifen um mehr FPS zu sehen.

Natürlich muss man dabei bedenken, das nicht viel CPU Power fehlt.
Ein Sandy @ 5ghz würde wohl sehr gut zu einer GTX980ti passen was GTA V betrifft, aber 5ghz mit nem Sandy ist schon schwer zu kühlen.

Wenn man jetzt bedenkt das ein Skylake @ 4ghz so schnell ist wie ein Sandy auf 4,6 ghz, und dann noch Geoced werden kann und nur 1/3 des Stroms verbraucht, wirkt der Skylake für Leute mit zu viel Geld natürlich mehr als Verlockend, was ich auch gut nachvollziehen kann.
 
Zuletzt bearbeitet:
Wenn Skylake draußen ist, würde es mich sehr freuen, wenn es mal einen ausführlichen und technisch einwandfreien Test gibt, der ab Sandy mal IPC und Effizienz (möglichst bei verschiedenen Taktraten und Spannungen evtl. sogar Kühlung) alle folgenden Generationen vergleicht. (Zum Beispiel braucht ein 4770k mehr Strom als ein 3770k, trotz gleichem Takt. Dennoch hat er eine höhere Effizienz dank mehr IPC). Wichtig für die letztendliche Stromrechnung am Ende des Monats ist im übrigen nicht der CPU Verbrauch, sondern, wenn überhaupt, der des Gesamtsystems. Und hier nimmt sich Skylake/Sandy inklusive sehr starker GPU einfach nicht sonderlich viel.

Was auch noch ein Faktor ist: Wie du schon sagst, ein Sandy mit 40 % OC wird leistungsmäßig etwa bei Skylake @ 4 Ghz liegen. Allerdings wird nur ein Bruchteil der Endkunden übertakten. Weshalb auch Skylake @ Stock für die meisten genügen muss um hochkarätige GPUs zu befeuern. Um CPU Limiterung in Spielen mache ich mir zu mindest keine Sorgen mit meiner Sandy ;)

Wichtigere Punkte sind eben der neue Sockel und Features, Effizienz und der natürlich hier im Forum vertretene Basteltrieb, weil Lust auf was Neues ;) Hätte ich sonst keine Verwendung für mein Geld, würde ich auch mit jeder Generation upgraden, und soviel rumschrauben/ optimieren wie möglich. Hier Entscheide ich aber rational nach Kosten/Nutzen. Auch Zeit ist eben nicht mehr so leicht zu erübrigen, wie es früher mal der Fall war.

PS: Wo findest du eigentlich immer deine Benchmarks, hier im Luxx sehe ich keine großen Sprüngen zwischen den Generationen in Anno:
http://www.hardwareluxx.de/images/stories/galleries/reviews/IvyBridge/bmanno2.png
http://www.hardwareluxx.de/images/stories/galleries/reviews/IvyBridge/bmanno1.png

Bzw. siehe den Test aus dem Luxx:
http://www.hardwareluxx.de/index.ph...1518-intel-core-i7-4790k-im-test.html?start=9
 
Zuletzt bearbeitet:
Wenn Skylake draußen ist, würde es mich sehr freuen, wenn es mal einen ausführlichen und technisch einwandfreien Test gibt, der ab Sandy mal IPC und Effizienz (möglichst bei verschiedenen Taktraten und Spannungen evtl. sogar Kühlung) alle folgenden Generationen vergleicht.

Das ist doch mal eine Idee die wir den Luxx Testern mitteilen sollten.
@ Fdsonne oder sonstige Moderation die das hier mitließt.

Wer im Luxx ist für die Tests Verantwortlich ? Könnt ihr dieser Person bzw diesen Personen bitte Mitteilen was wir uns Wünschen ?

Am besten halt auch Einzelspiele Tests mit den unterschiedlichsten Titeln wie zb. World of Tanks. Das Spiel ist Mega beliebt und sehr Hardwarelastig, und dennoch kaum in Tests zu finden.
Und bitte auch mal so tests mit einer GTX980ti oder so machen um GPU Limitierung bei Tests in 1080p so gut es geht zu vermeiden.

Auch wünsche würde ich mir einen Test im vergleich mit den guten alten Visheras + Kaveri.
Wobei ein Excavator natürlich Spannender wäre, weil seine Leistungsfähigkeit obwohl es ihn schon für Notebooks gibt halt noch ein Mysterium ist.
Und ich weiß das man Kaveri und Vishera aus anderen Einzeltests quasi ableiten und berechnen kann.
Aber es wäre der Übersicht halber halt echt mal schön wenn ihr eine übersicht hättet.
Von mir aus mit Core 2 & Nehalem & Sandy & Ivy & Haswell & Broadwell & Skylake & Phenom II & Zambezi & Vishera & Kaveri & Excavator.
Und als Wunsch Software World of Tanks, World of Warships, BF4, Crysis 3, Star Citizen, Supreme Commander Forged Alliance oder Supreme Commander 2 :d
Vorallem in BF4/Crysis/Star Citizen Arena Commander wäre das mal Interessant weil die spiele so gut mit Skalieren.

Aber wie gesagt bitte mal World of Tanks mitbenchen. Das Spiel ist Free 2 Play und hat heftig viele Spieler und hat es mehr als viele andere Spiele verdient in CPU & GPU Tests vorzukommen.
Von mir aus könnt ihr auch mal World of Warships mit Testen in CPU & GPU Benches in Zukunft.
 
Zuletzt bearbeitet:
Das ganze hängt einfach von viel zu vielen Faktoren ab um eine generelle Aussage zu treffen. Somit muß jeder selbst heraus finden ob sich ein Update auf Skylake lohnt.

Für mich selbst stand eigentlich schon seit 2 Jahren fest, dass ich meinen Ivy gegen Skylake tauschen werde und ich bis zum erscheinen von Skylake die Finger still halte.
Heute bin ich mir nicht mehr so sicher ob ich Skylake überhaupt brauche und meine Tendenz geht eher dahin weiter abzuwarten. Auch kein schlechter Plan wie ich finde.
 
Ich hab grad n GTA V Bench gefunden. Titan X bei 2560x1600.
da bringt ein 2500k (3,3 ghz) 10 fps weniger als ein Haswell i5 mit 3,5ghz.
Ergo, die FPS Steigen durch Haswell. CPU Limit ist also sogar noch bei 2560x1600 möglich.
Ach herrje.

Suchst du eigentlich auch nur stupide nach Bilder-Benchmarks im Netz, um irgendwie Recht zu bekommen? Beschäftigst du dich überhaupt mal mit den Benchmarks, die du hier präsentierst?

Die Benches von GameGPU & pclabs gelten seit Jahren als "verbuggt" - die testen teilweise mit zugemüllten Systemen und ändern fortlaufend ihren Unterbau für die Tests, was eine Vergleichbarkeit in der Breite unmöglich und eine Objektivität fraglich macht.
Einer von zig Forenbeiträgen, in denen die Tests hinterfragt werden: [Gamegpu] GTA V PC Benchmark - AnandTech Forums
Nicht umsonst wird moniert, dass die Zahlen bei anderen Websites "anders" aussehen.

Ich weiß nicht, wieso du deine eigenen Argumente ständig selbst entkräftest, aber bitte. Du solltest, wenn du dir schon die Bilder von GameGPU & pclabs ansiehst, auch alle ansehen. Denn diese Benchmarks sollen für ein CPU-Limit sprechen?
Da spricht folgendes Bild eine andere Sprache:
http://gamegpu.ru/images/remote/htt...ion-Grand_Theft_Auto_V_-test-2-GTA5_intel.jpg

CPU-Limit bei einer Auslastung zwischen 60 bis 75% je Kern? Ergo stimmt im System von GameGPU etwas nicht. Wie bereits vielfach moniert.

Mal ein Beispiel, wo man ein beginnendes CPU-Limit vermuten kann:
Grand Theft Auto V Benchmarked: Graphics & CPU Performance > CPU Performance - TechSpot

Die Unterschiede sind (aufgrund herabgesetzter Qualitätseinstellungen) im Vergleich zu anderen Tests (mit deutlich höheren Qualitätseinstellungen) erkennbar.

Aber hier bewegen wir uns in einem Bereich von 73fps (2500K @ 3,3GHz) bis 81fps (4690K @ 3,5GHz) - wo ein CPU-Limit keine Rolle mehr spielt.

Was in dem Bench eher auffällt: GTA V skaliert recht gut mit der Kernanzahl - dennoch schicken die Intel-4-Kerner mit HT Seit'an'Seit' mit den 6-Kernern und sogar einem 8-Kerner die TitanX in's GPU-Limit. An dieser Stelle würde ich zustimmen, wenn man vermutet, dass die S-Bridge-Architektur allmählich an ihre Grenzen stößt.

Aber: Jammern auf hohem Niveau - Frameraten über 70fps geben keinen Grund zur Beunruhigung. Wenn man den 2500K auf 4GHz schiebt, hat man erst recht Ruhe.

So wie es aktuell aussieht, hält S-Bridge noch -5- weitere Jahre mit, wenn Intel immer nur kleckerweise Leistungsgewinne erzielt.
 
Zuletzt bearbeitet:
Dann nehmen wir schonmal den Lötkolben in die Hand :d

Mein Netzteil wurde noch immer nicht ausgeliefert und so is der PC schon seit 8 Tagen aus.
Wenn das so weiter geht bekomm ich vielleicht zum Release wieder an den PC um all die schönen Benches zu sehen.
Mir gehts auch so wie Azrael der Viedeo Codierleistung will.
Auf meiner suche bin ich dort über ein netten Vergleich gestolpert.
Das aber alles gescheit zu posten klappt beim Tablet nicht.
 
Doch, das sind Peanuts - denn den Unterschied spürt man nicht. Solche Steigerungen nimmt man mit, wenn man eh aufrüsten muß, mehr aber auch nicht.
Das mag und wenn man meint es ist so, dann lässt man es, wenn der alte Rechner es noch tut und man die neuen Features der Plattform/MoBos nicht benötigt. Das ist doch nicht schlimm, man spart sogar Geld dabei, darüber freuen sich die meisten Leute sonst doch eher.
 
Aber hier bewegen wir uns in einem Bereich von 73fps (2500K @ 3,3GHz) bis 81fps (4690K @ 3,5GHz) - wo ein CPU-Limit keine Rolle mehr spielt.

Ob es eine Rolle Spielt oder nicht, ist nicht der Punkt.
Ich wollte dich davon Überzeugen das SandyBridge ohne OC bei GTA V Limitiert, und das Ziel habe ich endlich erreicht.
Endlich hast du zugegeben das Sandy Bridge der Flaschenhals bei GTA V sein kann.

An dieser Stelle würde ich zustimmen, wenn man vermutet, dass die S-Bridge-Architektur allmählich an ihre Grenzen stößt.

Endlich bist du zur Vernunft gekommen junger Padawan.
Endlich hast du den Ultimativen Standpunkt des weisen Admiral Nighteye angenommen und wirst Fortan auf der Gewinnerstraße des Planeten Wandeln.

Aber: Jammern auf hohem Niveau - Frameraten über 70fps geben keinen Grund zur Beunruhigung.

So wie es aktuell aussieht, hält S-Bridge noch -5- weitere Jahre

Auf GTA V bezogen hält Sandy vielleicht 5 Jahre. 70fps schaft Sandy schließlich nur in GTA V.
In Star Citizen sieht die Geschichte viel Schlechter für Sandy Bridge aus.

Und auch Singlecore Lastige Spiele wie Supreme Commander, World of Tanks etc sind mit einem Sandy kein Kühler Spaß.

Wer es Leise und Sparsam und Kühl haben will, und dennoch mehr Leistung als Sandy haben will, greift zu Skylake.
 
Und auch Singlecore Lastige Spiele wie Supreme Commander, World of Tanks etc sind mit einem Sandy kein Kühler Spaß.

Wer es Leise und Sparsam und Kühl haben will, und dennoch mehr Leistung als Sandy haben will, greift zu Skylake.
Also wenn Supreme Commander nicht komplett umgepatched wurde ist es noch immer das erste Spiel wo ein Quadcore Sinn gemacht hat.
Soweit ich das damals gelesen habe brauchte es irrsinnig viel CPU Leistung und hatte auch Multikern Support.
Und ein Sandy ist nich schwerer zu kühlen als andere CPUs damals
 
Was stressen den alle grad so mit dem CPU Limit? Irgendwas limitiert immer... ;)
Und ja, es gibt mehr als genug Beispiele wo sowohl Haswell, als auch Skylake bereits der limitierende Faktor sind. Macht euch da mal nicht so einen Kopf...

Im übrigen ist meine Sandy sehr leicht und leise zu kühlen, selbst bei 40% OC und mehr. Das ist ja gerade das, was Sandy immer noch aus macht. Mit der höheren Verlustleistungsdichte bei Skylake wird das sicher nicht besser ;)

PS: Hab mal GTA V Online angeschmissen 10 Minuten Polizeiverfolgung (Stadt/Land) mit Fraps in 800x600 gebencht (GPU Auslastung im Schnitt 70-80%): avg. 122, min. 86, max. 173
Sowas erreicht man in 1440p auf Sehr Hoch/ Ultra erst im Crossfire/Sli...
 
Zuletzt bearbeitet:
Intel Skylake: Leistungssteigerungen von CPU bis GPU laut Hersteller - ComputerBase

Intel selbst verspricht:
Insgesamt nennt Intel eine moderate Verbesserung der CPU-Leistung verglichen mit dem jeweiligen Modell der letzten Generation, die im niedrigsten Fall bei der U-Serie bis zu 10 Prozent ausmachen wird und im Höchstfall bei der Y-Serie sogar auf bis zu 17 Prozent Leistungszuwachs kommt. Im Desktop sollen es elf Prozent sein, die im für den Alltag wenig aussagekräftigen SPECint-Benchmark ermittelt wurden.


Ich möchte endlich mal vorbestellen können damit ich eine gewissen Planungssicherheit habe, ich muss nämlich sogut wie alles was ich besitze zu Geld machen bevor ich genug Geld für das neue System zusammen habe.
 
Hey Leute,
bei mir wird es mit Skylake nach 7 Jahren einen neuen PC geben. Damals habe ich mich im Nachhinein riesig geärgert noch einen Sockel 775 PC zu kaufen mir DDR 2. Da war nichts mehr mit CPU upgrade nach 2 Jahren wei der Q9550 schon so ziemlich das maximum war was man aus dem Sockel rausholen konnte. Was meint ihr, wie lange wird der 1151 Sockel ca. aktuell sein?
 
Üblicherweise hält ein Sockel bei Intel für 2 Generationen, wobei sich ein Upgrade meist nicht lohnt (außer man würde mehr Kerne bekommen).
 
Ja ich weiß, aber wäre mein System (theoretisch) noch fähig die i7 2xxx-4xxx aufzunehmen, hätte man den q9550 günstig gegen einen 2500k tauschen können, den Übertakten und schon hätte man echt günstig den PC wieder auf fordermann gebracht, die Möglichkeit hatte ich nie, deswegen würde ich mich auch auf keinen Fall mehr jetzt ein 1150 System bauen.

Wenn Intel nochmal einen "Tock" (wenn ich das richtig verstanden habe) rausbringt, der PC in 5 Jahre noch gut läuft wird es sich vielleicht in ein paar jahren doch lohnen, günstig 2. neue Generationen nachzuholen und die CPU zu tauschen.
 
Eher nicht, wenn die Leistungssprünge zwischen den Generationen ähnlich bleiben stehen die Kosten in keinem Verhältnis zur Leistung, wir sprechen hier von ner Steigerung im einstelligen % bereich in 'real world scenarios', in benchmarks vielleicht 10-12%.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh