Intel "Skylake-S": Der Core i5-6600K und der Core i7-6700K machen den Anfang (Update)

Ich möchte mir kurz vor Weihnachten einen neuen PC zusammenstellen. Nun meine Frage sollte ich auf die Broadwell Modelle warten,damit die Haswell Modelle z.B.: I7-4790K günstiger werden oder sollte ich mein System mit Broadwell Modelle bestücken. Was meint Ihr?

Nichts machen und bis kurz vor Weihnachten warten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Nighteye ist ein sehr spezieller Kollege. Berichtet schonmal gerne über Halbwahrheiten und Gerüchte.
Sagt auch indirekt, er hat mit nem fx6600 @4,5ghz mehr FPS als ich mim 2500k@4,5Ghz in World of Tanks (Kein/Kaum Multicore support).

Ich glaube bei mir wird der Umstieg wirklich zum Großteil an den Featers des Chipsatzes ausgemacht.
so ne M2 PCIe SSD wäre net schlecht xD
 
Wie schon gesagt. Hier werden um Prozente gefeilscht und das nach Jahren und mehreren Generationen !
Ich warte auch auf den wirklichen Sprung, aber das wird noch dauern.

Wir haben in 4 Jahren mit Broadwell 15% mehr IPC single Threaded. Und mit Skylake dann jehnachdem ob Skylake 5 oder 10 oder 15% drauflegt, mal eben 20-30% mehr IPC.

Das ist im Anbetracht der Tatsache das bei der IPC auch grenzen gesetzt sind, schon Extrem Gut.

Man bedenke, Intel hat im Zeitraum 2006 bis 2010 einen geringeren Sprung hinter sich. (Core 2 -> Nehalem)

Ich frage mich echt wieso kein anderer hier Anspricht was für einen Unsinn du hier von dir gibst.


Eine GTX Titan kriegt man in 4K problemlos mit nem FX4100 ausgelastet. Das 4K für höhere CPU-Last sorgt ist völliger Unsinn.

Mit DX12 ists dann für Spieler aber vermutlich eh fast egal was für eine CPU im System steckt.

Ja ne ist Klar. Bei Low Details oder was ?

Ein FX4100 kann in Battlefield 4 eine Titan nicht mit genug Daten versorgen sobald du auf Ultra Details gehst. Da ists dann egal ob 800x600 oder 4K, die CPU bringt kein Flüssiges Bild, und genau das ist der Springende Punkt den ich meinte mit CPU Last.

Sind hier nur Anfänger unterwegs die 0 Ahnung von Hardware haben so das man hier seiten Lang ständig ohne Probleme Behauptungen wiederlegen kann ?

Nighteye ist ein sehr spezieller Kollege.

Sagt er weil er mich durch Vorgeschichten im World of Tanks Forum nicht sonderlich mag ;)

Berichtet schonmal gerne über Halbwahrheiten und Gerüchte.

Wenn ich jetzt doch so viel Falsches geschrieben hätte, wie konnte ich dann Seitenlang etliche aussagen wiederlegen ?

Jeder Mensch irrt sich mal, auch ich. Dennoch ist das kein Grund davon auszugehen das man "schonmal gerne" Unwahres schreibt.

Sagt auch indirekt, er hat mit nem fx6600 @4,5ghz mehr FPS als ich mim 2500k@4,5Ghz in World of Tanks (Kein/Kaum Multicore support).

1. Es gibt keinen FX6600.
2. Ich habe einen FX4100.
3. Kann ich mich nicht errinern jemals einen FX6300 oder ähnliches mit einem 2500K verglichen zu haben.
4. Kenne ich nichtmal jemanden mit einem FX6300 @ 4,5 ghz.
5. Wenn ich mal fps angaben geschrieben habe, muss das nicht unbedingt @ Max Details gewesen sein. ich spiele überwiegend auf Low Details weil meine CPU mehr kaum zulässt wenn man ein Cleanes Spielgefühl erreichen möchte.
 
Zuletzt bearbeitet:
Eine GTX Titan kriegt man in 4K problemlos mit nem FX4100 ausgelastet. Das 4K für höhere CPU-Last sorgt ist völliger Unsinn.

Mit DX12 ists dann für Spieler aber vermutlich eh fast egal was für eine CPU im System steckt.
Sehe ich den Sarkasmus in dem Post nicht ? :hmm:
 
Viel interessanter als die frage nach dem warum, finde ich die Erkenntnis welche wir noch aus den neuen Infos gewinnen.

i7-6700T 4 Kerne / 8 Threads 2.8 GHz Standardtakt / 3.6 GHz Turbotakt bei einer TDP von nur 35W !

Wirkt sehr effizient auf mich.

Das teil dürfte ja in etwa so schnell sein wie ein Sandy Bridge i7 2600K ohne OC, und dabei nur die hälfte oder nur ein Drittel der Energie benötigen.

Ich hatte eine Weile das selbe gedacht, aber leider stimmt das nicht (mehr).

TDP ist eine Grenze, keine Verbrauchsangabe. Erreicht die CPU diese Grenze, throttled sie. Also ist mehr TDP besser, denn der Verbrauch aller T/K/S/nix-Modelle ist der selbe bei gleichem Takt und gleicher Spannung.
Das einzige was beim Verbrauch etwas bringt ist "untervolten".
Bei einer T-CPU sollte man sogar untervolten, damit man mehr Leistung abrufen kann, wenn sie benötigt wird.

Also: Niedrigere TDP ist immer schlecht! Man kann auch mit K-CPUs 35W TDP einstellen. Mit T sind die 35W jedoch fix.
 
Zuletzt bearbeitet:
DU hast Broadwell verschlafen oder ? Broadwell hat schon 15% mehr IPC als Sandy Bridge.
Nicht wirklich, da habe ich noch keinerlei Desktop Benchmarks von gesehn.
Einfach davon auszugehen das es wieder 5% Mehrleistung sind halt ich für zu optimistisch.

Gerade weil Skylake in der Startlöchern steht.


Athlon-64 schrieb:
CPUs mit niedriger TDP und hoher Effizienz haben noch andere Vorteile: die Kühlung, die auch in kleinen Gehäusen kompakter und/oder leiser ausfallen kann. Und das bei trotzdem hoher Leistung.
Schon klar. Wer noch immer LuKü hat interessiert sowas vielleicht.
Bin schon 2003 oder so auf WaKü rüber. Denn damals waren die "Silent" LuKü Bauteile so teuer das man locker auch ne WaKü dafür bekommen hat.
Damit muss man auch keine Angst vor Hitzköpfen haben ;)
 
Sagt er weil er mich durch Vorgeschichten im World of Tanks Forum nicht sonderlich mag ;)

Wenn ich jetzt doch so viel Falsches geschrieben hätte, wie konnte ich dann Seitenlang etliche aussagen wiederlegen ?

Jeder Mensch irrt sich mal, auch ich. Dennoch ist das kein Grund davon auszugehen das man "schonmal gerne" Unwahres schreibt.



1. Es gibt keinen FX6600.
2. Ich habe einen FX4100.
3. Kann ich mich nicht errinern jemals einen FX6300 oder ähnliches mit einem 2500K verglichen zu haben.
4. Kenne ich nichtmal jemanden mit einem FX6300 @ 4,5 ghz.
5. Wenn ich mal fps angaben geschrieben habe, muss das nicht unbedingt @ Max Details gewesen sein. ich spiele überwiegend auf Low Details weil meine CPU mehr kaum zulässt wenn man ein Cleanes Spielgefühl erreichen möchte.

Ich kenne nicht alle Produktbezeichnungen im Low und Midtierbereich.
Aber bei WoT ist es bei mir zumindest so, dass meine GPU sich in 99% der Fälle soweit langweilt, dass nichtmal der Maximaltakt anliegt. Wenn dann 50Fps rauskommen -> Cpu bottleneck.

Außerdem gibt es einige Grafikeinstellungen die nur die GPU stärker belasten.
Größere Texturen z.B erfordern nur mehr GPU-Leistung und ne schnellere Anbindung, produzieren aber kaum mehr CPU-Last.
(Cpu-Last als Auslastung der ALu, die MMU muss mehr tun)

Du schreibst manchmal ziemlichen Bullshit.
Ich erwarte nämlich in der nächsten Zeit (1-2 Jahre) auch keinen großen Bedarf an 8 Kernern.
Otto Normalverbraucher gurkt so oder so mit nem Laptop und Dualcore rum.
 
Zuletzt bearbeitet:
Wir haben in 4 Jahren mit Broadwell 15% mehr IPC single Threaded. Und mit Skylake dann jehnachdem ob Skylake 5 oder 10 oder 15% drauflegt, mal eben 20-30% mehr IPC.

Das ist im Anbetracht der Tatsache das bei der IPC auch grenzen gesetzt sind, schon Extrem Gut.

Merkst du es denn nicht ? Intel veräppelt dich doch nur. Was sind 20% in 4-5 Jahren ?
Warum nicht mehr Kerne oder einen andern Aufbau der CPU vorantreiben ? Neue Wege gehen mit der engen Zusammenarbeit der Softwareindustrie ? NVIDIA z.B. arbeitet mit den Softwarefirmen eng zusammen um ihre Hardware optimal zu betreiben. Warum setzt sich Intel einfach nicht mehr für die Parallelisierung ein um CPUs mit 6-8-10 Kernen leistungsfähig zu machen ? Das würde einen Leistungsschub von 100-200% bringen !!!
Stattdessen verpacken sie ihre Sandy-Architektur wieder refresch mit neuen Namen und kleinen Verbesserungen und die Leute sollen ihre gesamte Hardware mal wieder aus dem Fenster schmeißen und sich ein neues Board, RAM und sogar ein Netzteil kaufen müssen, was den ATX 2.3 Standard erfüllt. Und das für 20% mehr IPC ?

AMD wiederum setzt Mantle durch um DX12 zu puschen. HBM und SFR setzten die weiteren Weichen. NVIDIA plant den NVLink um mehrere GPUs miteinander besser und schneller zu koordinieren. Dadurch kann man die Leistung signifikant erhöhen. Was macht Intel ? Sie betreiben Produktpflege mit Prozentsteigerungen der IPC. *Gähn*

Man bedenke, Intel hat im Zeitraum 2006 bis 2010 einen geringeren Sprung hinter sich. (Core 2 -> Nehalem)

Weil Intel nicht den Hintern hoch bekommt, so sind ihre bescheidenen Hüpfer dann schon als Rekordsprung anzusehen ? Ich für meinen Teil brauche kein neues Board und neuen RAM-Speicher wegen 20% mehr Leistung, die man kaum im Alttag bemerken wird.

Ich frage mich echt wieso kein anderer hier Anspricht was für einen Unsinn du hier von dir gibst.

Vielleicht liegt es daran, das ich keinen Unsinn schreibe. Könnte ja sein. ;)
 
Zuletzt bearbeitet:
Sehe ich den Sarkasmus in dem Post nicht ? :hmm:

Ja ne ist Klar. Bei Low Details oder was ?

Ein FX4100 kann in Battlefield 4 eine Titan nicht mit genug Daten versorgen sobald du auf Ultra Details gehst. Da ists dann egal ob 800x600 oder 4K, die CPU bringt kein Flüssiges Bild, und genau das ist der Springende Punkt den ich meinte mit CPU Last.

Sind hier nur Anfänger unterwegs die 0 Ahnung von Hardware haben so das man hier seiten Lang ständig ohne Probleme Behauptungen wiederlegen kann ?

versteht ihr es nicht das in 4k mal eben eine etwa 3 mal so hohe last an der gpu an liegt als in 1080p?

ist ja wohl klar das es da mit jeder mickeymaus cpu möglich ist jede graka an die kotzgrenze zu bringen?!

mache euch grade nen bf4 4k ultra video mit 4 deaktivieren kernen@3,6ghz und der r9 290@1100mhz (was etwas flinker als die 290x, und damit etwa so flink wie die titan ist),
und danach geh ich lieber grillen als mich mit leuten die gar keinen 4k monitor besitzen, über 4k zu unterhalten :fresse:

edit:
hier nun das video
http://youtu.be/i39PUIoGdH0
das performance overlay vom afterburner ist in 4k leider echt winzig, habe daher gegen ende des videos mal nur das overlay gefilmt.
kann man das in der größe skalieren?

schönes wochenende.
 
Zuletzt bearbeitet:
Nicht wirklich, da habe ich noch keinerlei Desktop Benchmarks von gesehn.
Einfach davon auszugehen das es wieder 5% Mehrleistung sind halt ich für zu optimistisch.

Gerade weil Skylake in der Startlöchern steht.

gibt aber schon benchs. 5% overall IPC sind gesichert.

Ich kenne nicht alle Produktbezeichnungen im Low und Midtierbereich.
Aber bei WoT ist es bei mir zumindest so, dass meine GPU sich in 99% der Fälle soweit langweilt, dass nichtmal der Maximaltakt anliegt. Wenn dann 50Fps rauskommen -> Cpu bottleneck.

Außerdem gibt es einige Grafikeinstellungen die nur die GPU stärker belasten.
Größere Texturen z.B erfordern nur mehr GPU-Leistung und ne schnellere Anbindung, produzieren aber kaum mehr CPU-Last.
(Cpu-Last als Auslastung der ALu, die MMU muss mehr tun)

Du schreibst manchmal ziemlichen Bullshit.
Ich erwarte nämlich in der nächsten Zeit (1-2 Jahre) auch keinen großen Bedarf an 8 Kernern.
Otto Normalverbraucher gurkt so oder so mit nem Laptop und Dualcore rum.

Du wiedersprichst mir doch garnicht. Das was du sagst ist ja alles Korrekt und nicht entgegen meiner meinung.

Was du mit "Bullshit" mund Bedarf an 8 Kernen meinst, hast du wohl falsch verstanden.

Ich sagte nie das man für allgemeine Games einen 8 Kerner benötigen wird in den nächsten 2 Jahren.

Vorallem für Wot ist selbst ein Dual Core noch aussreichend.

Ich sprach ledeglich von mehr als 4 Kernen für Enthusiasten bei Star Citizen in 2 Jahren.

Das Spiel als Kontext hab ich mindestens 4-5 x erwähnt, wenn auch nicht in jedem Post.


versteht ihr es nicht das in 4k mal eben eine etwa 3 mal so hohe last an der gpu an liegt als in 1080p?

Doch das wissen wir alle, nur war das garnicht der Kontext.

Der Kontext war, das man eine Starke GPU mit einer Starken CPU paaren muss, um Ultra Details Flüssig darstellen zu können.

Schau mal hier.

http://cdn.overclock.net/0/0b/0ba46a68_bf4_cpu_radeon2vrua.png
 
Super jetzt bringst du einen Mischmasch Bench wo der Durchschnittswert aller möglichen Titel vorhanden ist.

So ein Benchmark hat nun einmal mehr Aussagekraft als ein Cherrypicking Benchmark, der für 99,99% der anderen Spiele irrelevant ist.

Wenn du keinen Zusammenhang zwischen GPU last und CPU last findest, versuch doch mal eine Titan mit einem FX4100 auszulasten.

Der FX4 ist halt eine lahme 2-Kern Krücke, der würde die Titan auch schon bei FHD zurückhalten.

Oh was du nicht sagst Mr.Quad Core :rofl:

Bin mal gespannt ob du als Leistungsfan mit deinem Quad Core in Star Citizen bei 4K & Ultra Settings gute FPS erzielst in 2 Jahren ;)

Ich habe gar keinen Quadcore. Wozu auch, ein aktueller Intel i3 Dual-Core kann in Spielen ja selbst mit einem AMD Pseudoachtkerner FX9 locker mithalten.

Und das Spiel Star Citizen sieht für mich total uninterssant aus, ich glaube nicht, dass ich das überhaupt jemals spielen werde.
 
@ Tarids. Mein Kontext war aber Star Citizen, und nicht 99% der anderen spiele weltweit ;)

Na also, und deshalb wäre es schwachsinnig von Intel in der Skylake Generation, CPUs mit mehr als vier Kernen für den Mainstream Desktop-Bereich anzubieten.

Achja und zu deinem Tollen i3. Der FX6300 reicht doch schon bei BF4 um besser zu sein. Wenn man dann noch leicht Oced ist man schnell auf I5 Niveau.

http://cdn.overclock.net/0/0b/0ba46a68_bf4_cpu_radeon2vrua.png

Gähn. Cherry Picking Benchmark.

Abgesehen davon ist selbst der alte i3 4130 in deinem sorgfältig ausgesuchten Benchmark schneller als der FX-6350... lol.



Und sTOrM41 hat dich schon darauf hingewiesen, dass es da auch ganz andere BF4 Benchmarks gibt:


Deshalb mag ich Benchmarks, die einen Durchschnitt aus mehreren Spielen bilden, auch so gerne.
 
Zuletzt bearbeitet:
Stats laut deiner Tabelle:
Fx-6300[oc] @4700MHz: 38/42,9
i3-4130: 33/38,1
I5 2500K @ 3300MHz: 42/47,7
Fx-6300@3500Mhz[Stock]: 30/35,1

Meiner Meinung nach ist der I3 schneller als n 6300 Stock und auch mit oc noch was vom ersten i5 weg.
n 4150 ist glaub noch mal n ticken schneller als n 4130.

Auch sollte man da eher mal nen Cpu benchmark @800x600 suchen. da ist der bottleneck dann wirklich die cpu
 
Zuletzt bearbeitet:
AMD wiederum setzt Mantle durch um DX12 zu puschen.

Mantel geht in Vulkan auf und ist damit ein quasi Nachfolger von OpenGL und hat wenig bis gar nichts mit DX12 zu tun. Mantel direkt ist ja jetzt schon quasi wieder tot. Aber ja, es war endlich mal was Neues das einigen - auch den DX12 Machern - was vorgemacht hat. Eigentlich traurig, dass der größte Vorteil von Mantel eigentlich ist, das die Grafikkarte nun mehr als einen einzigen CPU Kern für sich nutzen darf. Das war nämlich bisher der Fall. :fresse:

NVIDIA plant den NVLink um mehrere GPUs miteinander besser und schneller zu koordinieren.

Interessiert Spieler aber überhaupt nicht, da NVLink rein für den profesionellen Markt gedacht ist und mit Spielen nicht funktionieren wird. Das ist eine völlig andere Baustelle.

Was macht Intel ? Sie betreiben Produktpflege mit Prozentsteigerungen der IPC. *Gähn*

Eine wesentliche IPC Steigerung wird es kaum noch geben, von niemanden. Der Trend geht doch eher in die Richtung mehr Features zu unterstützen, Stichwort AVX und Co. Das mag für Spieler wenig interessant sein, bei allgemeinen Anwengungen hat es sich aber leider auch erst als Randerscheinung plaziert. Ob sich das noch ändern wird, glaube ich leider auch nicht. Da fehlt es auch oft am Willen der Programmierer die oft nicht mal wissen was im System die CPU ist und was die Grafikkarte. Und warum die IPC erhöhen wenn man keinerlei Konkurenz hat? Und im profesionellem Bereich sieht die Welt so oder so völlig anders aus. Da interessiert sich niemand für die IPC sondern für Effizienz, gute Systemanbindung u.s.w.

Ich finde es auch sehr sehr engstirnig ständig auf einem Spiel das "vielleicht" mal in 2 Jahren kommt herum zu reiten und als einziges Spiel zu präsentieren welches viele Kerne und hohe IPC benötigen wird. Bisher habe ich in dem Spiel rein gar nichts gesehen, was die Hardwareanforderungen rechtfertigen würde. Bisher sieht man nur heiße Luft, viele Worte, eine menge Leute die ein haufen Geld rein gebuttert haben und ansonsten.... warten wir mal ab.

Allgemein hätte ich mir aber auch einen 6 Kerner gewünscht. Gerne auch ohne SMT, würde ich jedem 4 Kerner mit SMT vorziehen. Naja, bisher schafft meine CPU noch alles was mich interessiert, bis jetzt.
 
gibt aber schon benchs. 5% overall IPC sind gesichert.

Wie gesagt habe noch keine dort gesehn und auch Google liefert mir das keine Ergebnisse :(



Übrigens gab vor kurzer Zeit ein CPU Test vs. Graka
Intel Core i3 vs. Core i5 vs. Core i7: A Value and Performance Analysis - TechSpot

Im Prinzip reicht ein i3 für alles :d

Dieser seit Jahren anhaltener Quatsch das man eine HighEnd CPU braucht für eine High End Graka find ich schon seit Jahren ätzend.
Die CPU gehört noch immer zu den Komponenten die man als Letztes aufrüsten muss.
 
Die heutigen Grafikkarten haben schon ohne Massiv PVP ernsthafte probleme bei AUflösungen von 2500.
Wenn massiv PVP Probleme bei der Performance bereitet liegt das in der Regel am Netcode oder der Serverperformance.

Du hast evtl überlesen das die Hardwareanforderungen noch extrem ansteigen werden. zz fehlen in dem game ja noch die Sonnensysteme, Haufenweise Stationen & NPC,s & Routen die diese fliegen und Tausende von Spielern vor den Stationen.
Richtig, es mag noch jede Menge Krempel im Spiel fehlen, aber ebenso fehlt auch noch jegliche code Optimierung.

Alleine aus Eve Online weiß ich, wie krass 1000 spieler die anforderungen im vergleich zum normalen spielen in die höhe schießen lassen.
Ich war auch schon in Schlachten mit über 4000 Teilnehmern dabei, nur hat der massive Slowdown absolut nichts mit dem Clientrechner zu tun. Eve Online hat wahnsinnig ineffizienten Code der noch dazu kein Multicore unterstützt, das Game ist in seinem Kern bereits sehr alt und Multicoreunterstützung bzw grundlegende Performanceoptimierungen sind ohne einen weitgehenden Rewrite nicht möglich, also wird sich da auch nichts dran ändern. Was Eve Online helfen würde wäre eine Intel CPU mit einem Kern aber dafür 50% mehr IPC als der Vorgänger und 10Ghz ;)

Ich sag nur, eine GTX980 wird nichtmal für Low Details bei niedrigen auflösungen reichen.
Würde mich auch wundern wenn dann eine fast 3 Jahre alte Grafikkarte noch für Max Details ausreichen würde, zumal der Lead Designer dieses Spiels ja bereis einen gewissen Ruf als Hardwarefresser besitzt...
 
Zuletzt bearbeitet:
ich versteh Intel nicht.
Mom gibts kaum Konkurrenz ,warum bringen sie dann zuerst Broadwell nur um wenige Monate später skylake zu bringen ?
Entweder Browadwell nen Jahr dalassen um dann wieder zum alten Tick_Tock Muster zurückzukehren, oder Broadwell eben sein lassen..

So wies jetzt kommen soll ist das doch geldvernichtung pur..
 
Zuletzt bearbeitet:
ich versteh Intel nicht.
Mom gibts kaum Konkurrenz ,warum bringen sie dann zuerst Broadwell nur um wenige Monate später skylake zu bringen ?
Entweder Browadwell nen Jahr dalassen um dann wieder zum alten Tick_Tock Muster zurückzukehren, oder Broadwell eben sein lassen..

So wies jetzt kommen soll ist das doch geldvernichtung pur..

Das klingt nur Logisch wenn man die Verschwörungstheorie aufgibt.

Ich meine die Verschwörungstheorie das Intel sich wegen schwachen AMD CPU,s zurückhalten würde was die weiterentwicklung angeht.
 
Eigentlich haben die AMD CPUs nur ein gutes P/L Verhältnis, wenn man Software benutzt, die alle Kerne auslasten kann (und selbst dann ist eigentlich nur der FX8320 gut). Noch dazu ist der Stromverbrauch bei den FX9000er Modellen lächerlich. Das einzige Segment wo AMD Intel unter Kontrolle hat ist bei den APUs (also Intel Baytrail Celeron und AMD Athlon 5350). Die letzten guten CPUs die noch aktuell zu ihrer Zeit waren, waren die Phenoms von 2010.

Bei den Grafikkarten gehts ja eigentlich schon weiter. Hier werden einfach Modelle umgelabelt und als neu verkauft (HD7000 auf r9).
 
Zuletzt bearbeitet:
Dieser seit Jahren anhaltener Quatsch das man eine HighEnd CPU braucht für eine High End Graka find ich schon seit Jahren ätzend.
Die CPU gehört noch immer zu den Komponenten die man als Letztes aufrüsten muss.

Das wohl mit am besten auf Mutli Core Entwickelte Mainstream Spiel auf dem markt (Battlefield 4) ist natürlich Praktisch als Bestätigung für so eine aussage.

Doch nicht bei allen Spielen gibt es so tolle mehrkern optimierung.

Schau mal. Min FPS sollten defenetiv höher als 45 sein wenn man Vernünftig Zocken möchte.

20140425062303a0drp616dvj6ve54.jpg
 
ich versteh Intel nicht.
Mom gibts kaum Konkurrenz ,warum bringen sie dann zuerst Broadwell nur um wenige Monate später skylake zu bringen ?
Entweder Browadwell nen Jahr dalassen um dann wieder zum alten Tick_Tock Muster zurückzukehren, oder Broadwell eben sein lassen..

So wies jetzt kommen soll ist das doch geldvernichtung pur..

Nene, nicht auslassen. Ich will meinen Haswell schon noch einmal ersetzen können. Und den DDR4-Quatsch will ich nicht sinnlos bezahlen müssen. :)
 
Soweit ich weiss kann skylake sowohl DDR3 alsauch DDR4 und es wird wohl für beides mobos, oder gar DDR3/4 Dual Mobos geben. (Gabs ja schonmal beim Wechsel DDR2 zu DDR3)
 
Aber Skylake braucht nen neuen Sockel und damit auch ein neues Mainboard (was mit beim Laptop nicht getauscht werden kann). Broadwell passt in den 1150. ;)
 
Aber Skylake braucht nen neuen Sockel und damit auch ein neues Mainboard (was mit beim Laptop nicht getauscht werden kann). Broadwell passt in den 1150. ;)
Denke auch, Intel hat Broadwell gebracht, damit die Sockel 1150 Nutzer noch ne Option haben. Allerdings entspricht das ja eigentlich nicht Intels Vorgehensweise..^^'
 
edit:
hier nun das video
http://youtu.be/i39PUIoGdH0
das performance overlay vom afterburner ist in 4k leider echt winzig, habe daher gegen ende des videos mal nur das overlay gefilmt.
kann man das in der größe skalieren?

schönes wochenende.

Kannst du doch größer machen.

Statistik Server öffnen und vergrößern.

groeße.jpg

PS: Es gibt noch Leute ohne 4k Monitor? :stupid:
 
Denke auch, Intel hat Broadwell gebracht, damit die Sockel 1150 Nutzer noch ne Option haben. Allerdings entspricht das ja eigentlich nicht Intels Vorgehensweise..^^'

Das Problem ist, Intel hat die 97 Chipsatzserie explicit beworben mit für Broadwell entwickelt, released und kräftig verkauft.
Dann stellte sich heraus das Broadwell sich ewig verzögert und eigentlich sinvollerweise übersprungen werden müsste wenn man den skylake nicht verschieben will (was ich gemacht hätte, spart geld)

So kommen wohl ein paar wenige Alibi Broadwells und kurz danach Skylake..
 
Das wohl mit am besten auf Mutli Core Entwickelte Mainstream Spiel auf dem markt (Battlefield 4) ist natürlich Praktisch als Bestätigung für so eine aussage.

Doch nicht bei allen Spielen gibt es so tolle mehrkern optimierung.

Schau mal. Min FPS sollten defenetiv höher als 45 sein wenn man Vernünftig Zocken möchte.

Nun mich stört die Aussagen allgemein.
Ich habe im Januar ein Kumpel mit ein C2D 6X00 eine Geforce 660 TI eingesetzt.
Ist die CPU lahm? Klar, aber genauso boosted die GraKa sein System soweit nach vorne das er nun endlich volle Details aktivieren kann und es deutlich(!) flüssiger läuft.
Habe ihn auch gesagt mit ein schnelleren CPU kann er die Karte dann voll ausreizen.
Es reicht aber schon um Leute glücklich zu machen.

Das Problem an diesen Quatsch der dort verbreitet wird ist das soviele ahnungslose Leute Angst haben sich schnellere GraKas zu holen und/oder lieber CPU aufrüsten wollen anstatt ne schnelle GraKa zu holen.
Eine neue GraKa bringt noch immer mehr als eine neue CPU.
Ich glaube ja das dieser Quatsch so berichtet wird damit mehr CPUs verkauft werden.

Bei den minimun FPS scheiden sich eh die Geister. Solange die nich unter 30 abtauchen stört es mich nicht. Was mich da ehr stört sind Schlieren und deaktiviertes V-Sync

Das ganze sieht man auch an den 4K Gamern. 4K haben wollen, aber keine passende Hardware auf dem Markt dafür -> unglückliche Gamer
Da bleib ich lieber bei Full HD und stell die Details auf Ultra ;)

Noch "Schwachsinniger" gestalltet die Sache sich übrigens bei den TVs wo 4k ja schon einige Zeit länger auf dem Markt ist.
Dort besitzen gerade mal die neuen Geräte die passenden HDMI2.0 Anschlüße die gebraucht werden.
Effekt: Neuen TV kaufen um wirklich 4K ohne Bastellösungen zu haben.

Was ich mit diesen (Aus)Schwenker sagen will ist das zuviel neue Technik rausgeworfen wird die unbrauchbar/nicht ausgereift ist und den Kunden nur unglücklich macht.
Ich kann ehrlich sagen das ich noch nie solange eine CPU hatte wie den 2600K. Ich verschwende nicht die paar Euros die man einsparen kann für minimale Leistungssteigerungen.
Klar schmerzt es als Hardware Nerd nix neues zu bekommen, aber das Leben geht auch so weiter.
Irgendwann gibs mal wieder ein Aufrüstgrund ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh