I3 warum als Spiel CPU so verachtet?

Gut bei mir ist es schon ein extremer Rückschritt vom 6700K auf E3-1220V5 (zwischen i5-6400/6500), da allein der Basistakt schon ein 1Ghz Unterschied beträgt.
Aber Hyperthreading macht in diesem Spiel trotzdem verdammt viel aus. Für mich ist der seltene i7-5775C die beste CPU momentan für dieses Spiel, weil
sich der zusätzliche L4 Cache positiv auf die minFPS auswirkt. Hatte den auch eine Weile zum testen gehabt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man merkt es deutlich beim Start wenn alle Spieler versammelt sind und beim Flugzeugstart. Da gehen die FPS teils runter auf 35FPS mit dem i5, während man mit dem i7 deutlich über 60-70fps hat
 
Wie merkt man auf einem 60Hz Monitor den Unterschied zwischen 110 und 140FPS ? Du zockst doch angeblich mit V-Sync und Framelimiter auf 59FPS.
Das bedeutet gerade mal 50% CPU Auslastung und somit super Frametimes. Die optimale CPU für dich ist also in PUBG ein Intel Pentium G4560 :bigok:

Laber mich nicht mit deinem Hz Dünnschi** voll...

Ich spiele aktuell wieder ohne Framelimiter und Fastsync
Ich wechsle immer wieder mal um zu schauen wie ich am besten spielen kann.

@RobPayne
Ich habe mit meinem 1600x ja auch 12 Threads insgesamt, im Flugzeug dropt es anfangs aber dennoch auf 40fps. Manche Gegenden machen auch Probleme, aber das ist wohl dem unoptimierten Stands der Entwicklung geschuldet.
Dafür kann man schon fast getrost in UHD spielen damit die GPU voll ausgelastet ist und man trotzdem kaum weniger FPS hat.
Zumal eigentlich auch alle benchmarks von PUBG bissl für die Tonne sind. Wie wurden denn bitte die FPS gemessen? welche Stellen im Spiel, wieviele Spieler etc etc. Dazu noch der aktuelle unfertige Zustand.
Ich glaube nämlich kaum, dass eine 2-Kern CPU auch nur annähernd über 80FPS in dem Spiel schafft. Vor allem die Min FPS dürften deutlich darunter liegen. Die Frametimes dürften ebenfalls sehr mies ausfallen. Aber jemand der hier nur stumpf nach Balkenlänge geht ist für mich auch nicht ernstzunehmen. --> Galt nicht dir RobPayne ;)
Aber ich glaube das gehört auch eher in den Pubg Thread ^^
 
In welchem Spiel wird eine GTX1070 von einer 4 Kern CPU ausgebremst ? :hmm: Selbst ein G4560 liefert für Full HD 60Hz noch genug FPS. ;)

Das mittlerweile "finale" ARK Survival Evolved. Das ist so toll optimiert, dass man vor einer üppigen Basis mit ~100 Sauriern gerne mal auf 28fps bei gelangweilter GPU sinkt. Das Ding ist aber auch völlig unoptimiert und nutzt scheinbar weiterhin nur 2 oder 3 Threads.

:fresse:

Magicka 2 ist auch super optimiert. Egal wie viele Kerne du hast, sobald das Menü geladen wurde, hat man mit aktiviertem Vsync 50% CPU Last auf jedem Kern (auch bei 16 Threads).
 
Zuletzt bearbeitet:
Er meint, dass einem mehr als 60 FPS bei einem 60Hz Moni nichts bringen, daher...
 
Er meint, dass einem mehr als 60 FPS bei einem 60Hz Moni nichts bringen, daher...

Schmarn aber wir haben 2017 und da ist ja Tripple Buffering scheinbar noch in...

Ich spiele atm bei 40FPS mit meinem Pentium G4560 besser bei 144Hz DisplayRefresh als bei 90FPS bei 60Hz DisplayRefresh mit einem 6800K, aber das kommt wahrscheinlich nur aufgrund des Stockholm Syndroms bei mir, was sich damit bildet...
 
Zuletzt bearbeitet:
NEEEEEEIIIIINNNN!!! Nicht schon wieder der "60FPS-144Hz ist besser wie 60FPS-60Hz" Glaubenskrieg! Lasst uns lieber wieder auf den i3 eindreschen, dass wird nicht sooo zur Farce:fresse2:

- - - Updated - - -

Ich. 60Hz Monitor Panel und Streaming Software. Limitiere ich nicht auf 60fps, gibt's entweder Microstutter oder Tearing.

An was hängst es eigentlich, dass kein Streamer mit z.B. Full HD /144Hz oder 1440P /60Hz Streamt? Limitiert da die Hardware, die Streaming Plattform, die Internetleitung etc.? Kannst du mich mal bitte kurz aufklären(meine ich ernst)
 
NEEEEEEIIIIINNNN!!! Nicht schon wieder der "60FPS-144Hz ist besser wie 60FPS-60Hz" Glaubenskrieg! Lasst uns lieber wieder auf den i3 eindreschen, dass wird nicht sooo zur Farce:fresse2:

- - - Updated - - -



An was hängst es eigentlich, dass kein Streamer mit z.B. Full HD /144Hz oder 1440P /60Hz Streamt? Limitiert da die Hardware, die Streaming Plattform, die Internetleitung etc.? Kannst du mich mal bitte kurz aufklären(meine ich ernst)
Das hat mehrere Gründe.
Erst mal das einfachste:
-Bandbreite und Viewer
Ich könnte bis 20mbit streamen, damit bleiben von der potentiellen Zuschauerschaft noch 15% übrig, die mit ihrer Hardware (WLAN, Smartphone, DSL16.000er Leitung, die sich mit der Familie geteilt wird etc.) den Stream flüssig anschauen könnten.
Früher hat Twitch sogar als Limit 3500kbit/s Upload vorgegeben, das ist immerhin schon weggefallen und die Streamer können selbst entscheiden, ob sie einige Viewer zurücklassen und dafür mehr Bitrate nutzen.

Wenn man Twitch Partner ist, oder ständig über 100 Viewer hat, transcodieren die Twitch-Server den eigenen Stream, so dass die Viewer dann zwischen Source Qualität und niedrigeren Qualitätsstufen wählen können.

Man bedenke außerdem, dass die Viewer keinen großen Mehrwert aus einem 144fps Stream ziehen würde (selbst mit eigenem 144Hz Monitor). Der Viewer hat kein Input Lag, ergo sind sogar 30fps Streams ziemlich erträglich. Die 30fps Streams sind zudem wesentlich besser von der Verpixelung, als 60fps Streams bei gleicher Bitrate. Würde man also 144fps streamen wollen, müsste man die Bitrate massiv erhöhen, damit man nicht einen Haufen Matsche sieht, der zwar flüssig ist, aber keine Details mehr enthält.
Das ist mit ein Grund dafür, warum einige, kleine Streamer extrem schlechte Bildqualität haben. Diese haben sich nämlich gedacht "1080p und 60fps muss schon sein, weil das nice ist" und selbst bei ~6000kbit/s sieht das in detailreichen Spielen mit viel Bewegung einfach hässlich aus.

Dann kommt natürlich noch hinzu, dass eine effiziente Videokomprimierung immer noch über die CPU encoded wird und 720p 144fps auch ein 8c/16t System übelst auslastet.
Zu guter Letzt haben viele Streamer ja einen zweiten Monitor für Chat, Musik etc. und wenn man mit 144Hz auf einem Monitor zockt, aber mit 30 oder 60fps streamt und auf dem zweiten Monitor mit 60Hz arbeitet, gibt es meistens starke Mikroruckler (entweder für den Spieler, oder den Viewer).
 

Welcher Bemitleidenswerter Tropf hat sich damals den sowas gekauft? Das war damals ja schon richtiger crap

Das hat mehrere Gründe.
Erst mal das einfachste:
-Bandbreite und Viewer
Ich könnte bis 20mbit streamen, damit bleiben von der potentiellen Zuschauerschaft noch 15% übrig, die mit ihrer Hardware (WLAN, Smartphone, DSL16.000er Leitung, die sich mit der Familie geteilt wird etc.) den Stream flüssig anschauen könnten.
Früher hat Twitch sogar als Limit 3500kbit/s Upload vorgegeben, das ist immerhin schon weggefallen und die Streamer können selbst entscheiden, ob sie einige Viewer zurücklassen und dafür mehr Bitrate nutzen.

Wenn man Twitch Partner ist, oder ständig über 100 Viewer hat, transcodieren die Twitch-Server den eigenen Stream, so dass die Viewer dann zwischen Source Qualität und niedrigeren Qualitätsstufen wählen können.

Man bedenke außerdem, dass die Viewer keinen großen Mehrwert aus einem 144fps Stream ziehen würde (selbst mit eigenem 144Hz Monitor). Der Viewer hat kein Input Lag, ergo sind sogar 30fps Streams ziemlich erträglich. Die 30fps Streams sind zudem wesentlich besser von der Verpixelung, als 60fps Streams bei gleicher Bitrate. Würde man also 144fps streamen wollen, müsste man die Bitrate massiv erhöhen, damit man nicht einen Haufen Matsche sieht, der zwar flüssig ist, aber keine Details mehr enthält.
Das ist mit ein Grund dafür, warum einige, kleine Streamer extrem schlechte Bildqualität haben. Diese haben sich nämlich gedacht "1080p und 60fps muss schon sein, weil das nice ist" und selbst bei ~6000kbit/s sieht das in detailreichen Spielen mit viel Bewegung einfach hässlich aus.

Dann kommt natürlich noch hinzu, dass eine effiziente Videokomprimierung immer noch über die CPU encoded wird und 720p 144fps auch ein 8c/16t System übelst auslastet.
Zu guter Letzt haben viele Streamer ja einen zweiten Monitor für Chat, Musik etc. und wenn man mit 144Hz auf einem Monitor zockt, aber mit 30 oder 60fps streamt und auf dem zweiten Monitor mit 60Hz arbeitet, gibt es meistens starke Mikroruckler (entweder für den Spieler, oder den Viewer).

Klasse, vielen Dank! Sind ein paar Sachen dabei, an die ich überhaupt nicht gedacht hätte!!
 
Zuletzt bearbeitet:
Hardwarekenner alias*Piefke* schlägt wieder zu, wer kennt ihn noch als Piefke? :fresse:
 
Nope leider nein. Aber er macht seinem Namen als "Hardwarekenner" hier nicht gerade alle Ehre :fresse:
 
Nun der i3 ist nicht schlecht aber ich glaube nicht seine Grundlegende Performance stellt ihm ein Bein sondern seine Performance pro Euro. Kann mich auch irren aber das ist das was ich sagen würde warum der i3 nicht erste Wahl bei Gamern ist zu mal sein Zielfeld ja auch definitiv nicht im Gamebereich liegen.
 
Er meint, dass einem mehr als 60 FPS bei einem 60Hz Moni nichts bringen, daher...

Diese Meinung ist von seinerseits ein Irrtum.

Umso schneller die Bildbewegung ist desto mehr Bewegungsphasen sind zu berechnen. Das VSync reguliert die zu berechnende Anzahl an Bildern pro Sekunde gemäß nach der Modalität zur Bildausgabe - die Bildwechselfrequenz - in dem Framebuffer, wodurch sich die schnellen Bewegungen zu ihren Bewegungsphasen nicht angleichen, infolgedessen werden die vermeintlich als ausreichend empfundenen 60 BpS von dem Ruckeln und dem Screen Tearing begleitet, weil gegenüber dem Gehen das Laufen und das Fahren seitens dem Framebuffer mitunter mehr als diejenigen bereitgestellten 60 Bilder pro Sekunde erfordern. Dieser Nebeneffekt ist besonders in Far Cry 3 ersichtlich und vor allem in nahezu einem jeden Rennspiel, welches eine schnelle und somit realisitisch abgebildete Bewegungsphase suggeriert.

Schnelle Bildbewegungen sind der Indikator, um die Hardware an ihre Leistungsfähigkeit zu bringen, insbesondere den Hauptprozessor, ein Faktor, welcher von den sogenannten Testern unzureichend berücksichtigt wird, welche ständig die eine und dieselbe Szene rauf- und unterspielen, was insoweit vorgepuffert sowieso ordentlich Rechenleistung beansprucht *rolleyes*, und sie dabei im Schneckentempo umher watscheln, was den Prozessor während seiner Physikberechnung so richtig den Schwellenwert von seiner Leistungsfähigkeit erzielen lässt, geschweige denn ihn zu übertreten *rolleyes*.


Nebenbei ...
Ein proprietärer Gaming-Bechmarks von einem selbst ist für sich genommen aussagekräftiger als er scheint, weil er die eigene Spielweise wiederspiegelt, weil er in demjenigen Szenario offeriert, wo der Tester herumgestanden hatte, um sich die Berglandschaft zu geben, er ansonsten bloß spazieren gegangen ist, dass die eigens im Laufschritt hektische, an der Berglandschaft weniger von dem Interesse geprägte Spielweie, dem Prozessor instantan viele Bewegungsphasen (Physikberechnungen) abverlangen, infolgedessen die Bilder pro Sekunde auf Seiten der beiden Probanden ungleich ausfallen, mitunter erheblich, weil sich trotz desselben Raumes in einem anderen Bezugssystem befinden.
 
Zuletzt bearbeitet:
@RobPayne
Ich habe mit meinem 1600x ja auch 12 Threads insgesamt, im Flugzeug dropt es anfangs aber dennoch auf 40fps. Manche Gegenden machen auch Probleme, aber das ist wohl dem unoptimierten Stands der Entwicklung geschuldet.
Dafür kann man schon fast getrost in UHD spielen damit die GPU voll ausgelastet ist und man trotzdem kaum weniger FPS hat.
Zumal eigentlich auch alle benchmarks von PUBG bissl für die Tonne sind. Wie wurden denn bitte die FPS gemessen? welche Stellen im Spiel, wieviele Spieler etc etc. Dazu noch der aktuelle unfertige Zustand.

Ich denke mal PUBG profitiert sehr stark auch von der IPC Leistung. Da wird der AMD wohl nicht ganz rankommen (kein bashing ;) ) aber dieses Spiel zeigt trotz dem unfertigem Zustand wie wichtig die CPU mal sein kann und ich denke es wird nicht das letzte Spiel gewesen sein, welches von mehreren Kernen profitiert. Der Coffee Lake i3 ist auch OK, da richtige 4 Kerne aber jetzt auf einen Zweikerner zu setzen würde ich heute nicht mehr wenns ums Gaming geht. Ich würde lieber nen i5 oder i7 von den vorigen Generationen holen falls es mit dem Geld knapp sein sollte.
 
Es könnte auch sein, dass PUBG mit echten Kernen besser zurecht kommt als mit dem SMT von AMD. Müsste ich mal testen indem ich dem Prozess nur die echten Kerne zuweise.
Werde ich heute mal machen.
 
ich lese seit etwa 5 jahren das die Games immer mehr auf Multi Core CPUs ausgelegt werden in zukunft (die ja schon lange da ist !) und schon damals wurden i3er verteufelt, komisch nur das ein I3 heute noch 90% aller Games ausreichend rechnen kann, zwar ist er kein Bench sieger in allen Games, aber ob er in BF1 nun 160 oder 90fps bringt ist zum Spielen erstmal egal. Es ist jedenfalls das seit jahren hervorbeschworene versagen in zukunft (also seit 2012) der I3 CPUs nicht eingetroffen. Im gegenteil mit heute neu gekauften baugleichen Pentium HT CPUs lässt sich noch immer alles Spielen. Und ob in einem 7Zip bench ein I5 vorteile hat ist 99% aller Spieler sowas von egal! Und selbst ein I3 3250 von einem bekannten brennt heute mit seiner 960/4 alle Games in Full HD ab.
 
ich lese seit etwa 5 jahren das die Games immer mehr auf Multi Core CPUs ausgelegt werden in zukunft (die ja schon lange da ist !) und schon damals wurden i3er verteufelt, komisch nur das ein I3 heute noch 90% aller Games ausreichend rechnen kann, zwar ist er kein Bench sieger in allen Games, aber ob er in BF1 nun 160 oder 90fps bringt ist zum Spielen erstmal egal. Es ist jedenfalls das seit jahren hervorbeschworene versagen in zukunft (also seit 2012) der I3 CPUs nicht eingetroffen. Im gegenteil mit heute neu gekauften baugleichen Pentium HT CPUs lässt sich noch immer alles Spielen. Und ob in einem 7Zip bench ein I5 vorteile hat ist 99% aller Spieler sowas von egal! Und selbst ein I3 3250 von einem bekannten brennt heute mit seiner 960/4 alle Games in Full HD ab.

Das will man aber nicht wissen wenn man Tausend euro mehr ausgegeben hat oder eben ein Leistungsjunkie ist - ich hab hier noch ein Q6600 und eine GTX 460 da tucklen noch BF1 und Overwatch sehr wohl spielbar drauf , auch wenn ich das Gefühl habe, dass mein 7700 das alles flüssiger erledigt. :coolblue:
 
Vor ein paar Jahren hatte er bereits so eine Eingebung, dass eine 2-Kern-CPU ausreichen koennte. Damals war es vllt. noch nachvollziehbar, aber jetzt nicht mehr. Ganz besonders wenn AMD guenstige 4-Kerner bietet.
 
Das will man aber nicht wissen wenn man Tausend euro mehr ausgegeben hat oder eben ein Leistungsjunkie ist - ich hab hier noch ein Q6600 und eine GTX 460 da tucklen noch BF1 und Overwatch sehr wohl spielbar drauf , auch wenn ich das Gefühl habe, dass mein 7700 das alles flüssiger erledigt. :coolblue:

Viele hier im Forum sind ja der Ansicht bzw der Überzeugung, dass alles unter einem aktuellen i7 oder 1800x nicht mehr zum Zocken taugt (übertriebene Darstellung), und Plattformen ab einem Alter von 2 Jahren ja komplett tot sind, und letzteres lese ich leider tatsächlich sehr häufig.

Auch wird immer wieder gern gesagt oder mehr behauptet, dass ja keiner mehr in FullHD zockt (EOL) oder nutzt und WQHD und mehr mittlerweile Standard sein soll, naja^^

Dein Stichwort "Leistungsjunkie" ist vollkommen berechtigt, real sind die Standardkomponenten-User doch weit in der Überzahl und Enthusiasten-Hardware eher einer Minderheit zuzuordnen.
 
Um das zu erklären muss man wissen das der kaby lake hier mit 4,2ghz läuft und der ci7 2600k @stock 3,4
ipc zu dieser zeit auf 3,6ghz 1,4
ipc heute 3,6ghz 1,8
daraus ergibt sich allein durch mehr singlecoreleistung ein +von 15-20%
also muss der sandy min 5,2ghz haben um den kaby lake @stock zu schlagen
ipc @stock ci3 7350 2,0 @4,2ghz
ipc @stock ci7 2600k 1,3 @3,4ghz

das macht allein durch den takt schonmal 25% und an ipc ein Plus von 50%
Das egalisiert mal gern 2 Kerne

wenn man die cpu vergleiche will müssen beide denselben Takt haben und beide mit oc ram laufen
Sandy bridge ddr3 1866 auf 1,5v alles darüber ist ein plus. ramspanung nicht höher als 1,5v
kaby lake auf ddr4 2666 auf 1,2v ob der imc von kaby lake wirklich auf dauer 1,35v mitmacht ist noch nicht erwiesen.
und bei 4,4ghz beide ist die differenz genau 20%

Also exakt das was ich und viele im forum seit jahren sagen ein sandy bridge reicht fürs gaming
alles ab 1,3ipc reicht aus.nur ab einer fetten gpu wirds langsam eng mit der Auslastung

ein ci3 mit 2,0ipc wie dem kaby lake wird keine gtx1080ti auslasten können in 1080p
bei vielen neuen games kommt es zu stocken und hängen
Das liegt vor allen am Takt und die nebenbelastung durch os und hintergrundprogramme muss die ipc teils um faktor 2 erhöht sein
da hilft dir die 2,0ipc nicht mehr
Erst ab 4 kerne wirds besser und ab 6 ist ruhe
4+4 funktioniert auch
Darum sind die fx cpu von amd nicht wirklich langsamer gewesen die letzten jahre aber reichten nichta us um high end gpu auszulasten.ab ryzen ist das vergangenheit.
Das der ci3 schneller sein kann absolut in fps gegen den ci7 sandy stimmt aber das Spielgefühl ist es sicher nicht. Wenn alle paar Sekunden es leicht stottert

Endfazit ein ci7 2600k mit oc ist heute noch ausreichend für games ~60fps oc erst recht ab 4,6ghz was die norm war beim sandy mitn einfachen z68 z77 p67 p77
Das entspricht die leistung von haswel in 4.0ghz ipc 1,8
empfohlene gpu ist
1080p gtx1060 rx580
1440p gtx 1070 gtx 1080
4k gtx1080ti
@stock ist eine gtx1050ti das maximum bei 1080p der Rest folgt bis zur gtx1070 in 1440p

ramtakt macht eine menge aus bei games im cpu limit oft ist ein hoher ramtakt wichtger als cpu takt.- Das sah man besonders bei am4

ich halte vom glauben nichts Fakten und zahlen und seitdem ich herausgefunden habe das ipc = cinebnch 11,5 punkte sind single lässt sich alles berechnen. gilt nur für dx5-11 und opengl bis 4,6
dabei spielt die Anzahl an Kernen nur eine rolle je größer der Hintergrundlast ist. ab win 8,1 ist ein 4+4 Pflicht in win 7 reichen theoretisch 4 Cores aus.
hier limitiert nur oft der ram.
Für kaby lake ist eventuell win 10 Pflicht mainbboard abhängig
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh