Intel: Mehr als acht Kerne für Spiele nicht notwendig

Sowohl 23 als auch 30FPS finde ich kagge.................versuchs nochmal!:wink:

30 fix ist ok bei singleplayer(mehr aber auch nicht)... mehr gibt die RX580 auch nicht her mit max out auf dem schlafzimmerrechner... darum zocke ich auch lieber auf der grossen kiste, da hats immer 60fps und fühlt sich VIEL flüssiger an... und ne, mehr kann der monitor eh nicht, ist halt leider so, entweder man hat maximale BQ(alle farbräume abgedeckt) bei nem monitor oder ne höhere wiederholfrequenz... und da ich damit grafikbearbeitung mache, steht fest auf was ich setze ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
es zwingt dich schließlich niemand eine zu schwache karte zu kaufen oder die settings zu hoch zu stellen dass du im gpu limit landest. das ist ganz alleine DEIN Bier und eine subjektive Einstellung deinerseits

Richtig - mit ner dreckigen Programmierung bekommst du aber beide in die Knie - sowohl die Graka als auch die CPU. Hier muss ich leider einen Ast brechen und sagen: Es zwingt dich niemand schlecht optimierte Spiele zu kaufen, damit du dich darüber aufregen kannst, wie schlecht sie optimiert sind. :P

So funktioniert (in der Theorie) die Marktwirtschaft ja auch. Da gibts n Spiel, es ist doof programmiert, du kaufst es nicht und greifst statt dessen zu einem besser optimierten Titel. Nur: Borderlands rennt ja auf low-end Systemen. Es skaliert nur richtig schlecht auf high-end Hardware. Du kannst die Grafi-Settings soweit runter optimieren, dass du mit ner Krücke von PC noch deine 60 FPS schaffst.

Was du *eigentlich* willst, ist ein Spiel welches alle Ressourcen deines Rechners optimal nutzt. Und dann kommt erst die Sache mit dem Flaschenhals.
 
die CPU hat mit der auflösung nix zu tun. Bitte aufhören so ein schmarn in die welt zu setzen

borderlands 3. Release September 2019.

9900k limitiert bei richtung 60-70fps bei actionreichen szenen/gegenden.

und das in JEDER Auflösung. warum sollte ich bei einem cpu limit von 60-70fps die graka settings so anziehen dass ich sogar noch weniger fps habe?

egal in welcher auflösung, ich würde die settigns immer so setzten dass ich nicht noch tiefer falle von den FPS > ERGO hab ich in jeder auflösung, 720p > 4k ein spürbares cpu limit.

vorausgesetzt die graka schafft das. Und das ist sache des anwenders. wer sich ein zu schwache graka kauft und/oder die settings einfach zu hoch stellt landet halt im gpu limit. mit der CPU hat das aber nichts zu tun!

es zwingt dich schließlich niemand eine zu schwache karte zu kaufen oder die settings zu hoch zu stellen dass du im gpu limit landest. das ist ganz alleine DEIN Bier und eine subjektive Einstellung deinerseits


Es wird immer spiele geben wo die CPU limitiert. BL 3 ist aber auch nicht wirklich gut optimiert.
Wenn der Intel da schon ins stocken kommt wie sieht das dann erst bei mir aus mit dem 3900X :fresse2:
Dennoch ist es so das die CPUs heute schon so gut geworden sind das man eigentlich immer recht gut aufgestellt ist egal ob AMD oder Intel.
Ich schätze aber auch das mit der PS5 dann multicore mehr genutzt wird und dann in zukunft mehrkerner vorteile bekommen können ,viele NPC ,KI und Physik wobei Physik ja meist eh per GPU gemacht wird
 
ob gut optimiert oder nicht.

es kann niemand ändern. das spiele sind wie sie sind. :)

zudem war BL3 kein unbedingtes cherrypicking. es gibt ne menge games wo genau das zutrifft.

das problem ist das die leute sich einfach nur an den tests diverser portale, das luxx eingeschlossen, orientieren und wenn man da mit ultra settings testet, schließt man automatisch darauf dass ja jeder in ultra spielt und somit ein mögliches cpu limit eher nicht auffällt.

das ist super für alle die das so machen aber besitzt einfach keine objektivität.

aber wie gesagt, jedem steht es frei seine und games und deren settings selbst zu wählen. wenn man damit am ende im absoluten gpu limit landet, pech.

daraus zu schließen dass eine cpu dadurch irrelevanter wird, ist bullshit :d
 
Zuletzt bearbeitet:
Die benchmarks zeigen ja auch nicht immer alle situationen auf
kann mich noch errinern als ich BF 3 gezockt hatte und da gab es auch Situationen wo die CPU total zusammengebrochen ist.
glaube GTA 5 ist da in der Wildnis auch so..

Gibt da einige kandidaten da haste recht.

War bei BL3 nicht ein user der mit nem 3000er Ryzen nur die hälft deiner FPS erreicht hatte und selbst der 4770k seiner Freundin schneller war?
 
Zuletzt bearbeitet:
Ne, ich glaub das war ein Athlon 200GE der nur halb so schnell war...
 
Jedoch was bringt mir dieses technische "gesülze" ;) als anwender ? Gar nichts.

letzten endes ist es die aufgabe der entwickler die software auf der hardware zum laufen zu kriegen. und ich als anwender darf doch erwarten, dass das eben so gut es eben geht erfolgt.

ob das jetzt schwierig oder leicht ist, ist mir doch als anwender wurscht. ist ja auch nicht meine aufgabe software zu entwickeln. meine aufgabe ist es diese zu bezahlen

Zum ersten, Gegenfrage, was bringt es dir ohne technische Betrachtung der Zusammenhänge unrealistische Erwartungen zu formulieren? Wenn die Technik für dich Gesülze ist, kann ich freichlich nichts brauchbares dazu betragen, aber mir reicht es imho schon wenn nur ein einziger aufgrund der Erklärung bzw. Klarstellung nicht an der Stammtischdebatte festhällt. Diese unrealistische Laberei inkl. der damit geschürten Erwartungshaltung beim Thema Multithreading in Games ist ganz klar ein Resultat aus Handlungsweise wie du sie hier vorträgst... Ihr macht die Augen vor der Realität zu und hängt anstatt der technischen Basis lieber irgendwelchen reißerischen Behauptungen an. Muss natürlich jeder für sich selbst wissen - aber ich kann dir völlig ruhigen Gewissens sagen, dass es sich nur durch Behauptung und Hoffnung nicht ändern wird. Bringt dich zwar immernoch nicht deiner Erwartung näher, ABER vllt. hilft dir das Verstehen der Hintergründe ja den Umstand zu akzeptieren??

Zum zweiten, stimmt - daran ist nicht viel auszusetzten, fraglich ist aber wie es sein kann, dass über das "so gut es eben geht", geurteilt wird ohne zu wissen was technisch abläuft? Das hat eben was von Wunschvorstellung. Gepaart mit diversen Markenaffinitäten -> Bitte wertungsfrei verstehen, ich meine damit die Aussagen der Parteien bezogen auf die Vorzüge ihrer Lieblinge. Bspw. Coreskalierungsthemen der AMDler und Taktskalierung bei der Intel Fraktion.

Zum dritten, auch hier, mag dir egal sein, ich behaupte aber, dass nicht nur Leute ohne technisches Interesse in den Foren in 2019 unterwegs sind. Wenns dich nicht interessiert, ließ halt einfach nicht. Es zwingt keiner zum technischen Interesse. Gegendarstellungen oder Kritik bei Aussagen ohne technischen Bezug nur auf Basis von Wunschkonzertdebatten müsst ihr euch aber halt trotzdem gefallen lassen ;)
 
30 fix ist ok bei singleplayer(mehr aber auch nicht)... mehr gibt die RX580 auch nicht her mit max out auf dem schlafzimmerrechner... darum zocke ich auch lieber auf der grossen kiste, da hats immer 60fps und fühlt sich VIEL flüssiger an... und ne, mehr kann der monitor eh nicht, ist halt leider so, entweder man hat maximale BQ(alle farbräume abgedeckt) bei nem monitor oder ne höhere wiederholfrequenz... und da ich damit grafikbearbeitung mache, steht fest auf was ich setze ;)

Stream doch einfach die Games von dein Hauptrechner auf dein Bettrechner, mache ich schon die ganze Zeit so und bin zufrieden. Habe am Bett ein kleines schwachen PC mit mini Intel CPU und glaube Intel UHD 605/610. Darauf läuft alles super flüssig, egal ob GTA 5, oder andere Spiele. Brauchst halt nur ein gutes Home Netzwerk. :)
 
Zuletzt bearbeitet:
Oh ok. hätte ich nicht gedacht
 
Die Übersicht in der Quelle bei Computerbase zeigt ziemlich deutlich, was low level APIs alles aus einem System rausquetschen können. Dabei sieht man bei bei DX12, dass die Unterschiede zwischen AMD und Intel praktisch auf nicht-wahrnehmbare Differenzen zusammenfließen, was bedeutet, dass der CPU Flaschenhals aufgelöst und in einen anderen kracht - die GPU. Das ist auch Sinn und Zweck einer solchen API - mit so wenig Verlusten wie möglich zu arbeiten. FPS Boni von ~30% sind da schon ne deutliche Kampfansage gegen das "alte System".

Ergo ist die Diskussion über "welche CPU ist besser" ziemlich Banane, da wir hier von effektiven Unterschieden von 1-2% reden. Bei den Min-FPS ist AMD sogar in Vorteil - was ich einfach mal auf den größeren Cache schiebe - anders kann ich es mir nicht erklären, wieso ein 3600 bessere Perzentilwerte als der 9900k schafft.

Was die GPU angeht, scheint auch die bei AMD von DX12 ordentlich zu profitieren (auch hier, die min FPS sind deutlich glatter) - bis wir die Regionen der 2080 erreichen. Ansonsten:

es kann niemand ändern. das spiele sind wie sie sind. :)

Doch - kannst du. Mit deiner Kaufentscheidung.
 
...

Das war mal ein Fazit :)

War aber auch mal nötig.

...
 
Oh ok. hätte ich nicht gedacht
Ist auch eine Milchmädchen Rechnung, der 3900X hat bei dieser Ausnahme viel mehr Latenz, daher geringere Frametimes. Haben viele Titel, stellt du im Treiber Pre-Rendered Frames auf 1 bzw. jetzt Ultra Low-Latency fallen immer etwas die FPS und die Framtime steigt an, dafür sinkt die Latenz und Eingabeverzögerung.

Bei BF ist es einfach so das es schon lange dort einfach Spikes gibt wegen der Server und natürlich hin und wieder gewaltigen Drawcell Overkill bei Partikel Effekten, das führt zu Hickups die Intel meist etwas besser abfängt durch besseren Memory Controller und halt Frequenz, mittlerweile ist das allerdings fast komplett verpufft, müsstest du selbst ja festgestellt haben wenn du den 3900X noch hast.

Als Softwareentwickler muss ich leider bestätigen dass sich insbesondere Games nicht sehr gut parallelisieren lassen. Also linear skaliert das keinesfalls mit den Kernen.
Intel hat mit ihrer Aussage jetzt genau so recht wie vor 6-8 Jahren als es hies dass 4 Kerne ausreichen. Eine kleine Zahl von Games profitiert von mehr Kernen. Ob das für jemanden ein kaufentscheidendes Kriterium ist und man gleich ein halbes Jahrzehnt in die Zukunft denkt, muss jeder für sich selbst wissen.
Naja selbst CSGO unter DX9 weist ne deutliche Skalierung bis 12 Threads aus, das deckt sich nicht mit dem was Intel ausgegeben hat.

PS; Gibt es eigentlich jetzt schon was konkretes zum Intel Core i9-10900KF ? Der sollte ja auch "nur" 500 USD kosten und 5GHZ+ haben, da ist der KS doch etwas happig mit der Jahresgarantie.
 
...

Ultra low ist nicht 1, sondern 0.

Low Latency = On ist 1

...
 
Zuletzt bearbeitet:
Komisch mit meinen 3 jahre alten i7-7700 und ner 1060 GTX kann ich jedes Spiel spielen.Ohne Ruckler.
 
Komisch mit meinen 3 jahre alten i7-7700 und ner 1060 GTX kann ich jedes Spiel spielen.Ohne Ruckler.

Alles eine Frage der persönlichen Ansprüche...
Ich persönlich will nicht mit 60 fps rumgurcken.
 
Gribasu schrieb:
Komisch mit meinen 3 jahre alten i7-7700 und ner 1060 GTX kann ich jedes Spiel spielen.Ohne Ruckler.
1. Spielst du nicht jedes Spiel.
2. Keinerlei Angaben welches Spiel, welche Auflösung und welche Einstellungen.
 
2016 kam BF1, das im Multiplayer bereits den Hammer hochgehängt hat, was die CPU-Threads angeht. Da hatten 6-Kern und 8-Kern CPUs nochmal einen deutlichen Schub im Vergleich zu den "alten" 4C/8T-CPUs:
Battlefield 1 PC: Benchmarks im Single- und Multiplayer, Direct X 12 [Update 4]

Und dann kam AC:O im Jahr 2017, also mit Ryzen. Noch deutlicher konnte man gar nicht sehen, wie nun auch SinglePlayer-Games massiv von mehr Kernen profitierten:
Assassin's Creed Origins: Grafikkarten-Benchmarks, CPU-Leistung

Beide Spiele konnten Intel-CPUs damals mit 4C/8T weiterhin dominieren, weil AMDs Ryzen in Games zu schwach war, trotz hoher Kernanzahl.

Aber Dank Xbox One & PS4, die seit 2013 von AMD mit 8-Kern-Jaguar-CPUs ausgestattet werden, wurde aufgezeigt, wo es hingeht. Es gab genug, die behaupteten, dass die Konsolen und PCs sich da unterscheiden. Und nun ist es doch so, dass mehr und mehr Games auf den Markt kommen, die einen deutlichen Leistungssprung bei mehr als 4C/8T machen.

Es wird also nicht mehr lange dauern, bis auch mehr als 8C/16T deutlich sichtbar ausgenutzt werden können. Intel zeigt hier nur einen Status Quo - und lässt bewusst das HT/SMT in seinen Tests weg. Warum wohl... ;)
 
Wenn die Technik für dich Gesülze ist, kann ich freichlich nichts brauchbares dazu betragen, aber mir reicht es imho schon wenn nur ein einziger aufgrund der Erklärung bzw. Klarstellung nicht an der Stammtischdebatte festhält. Diese unrealistische Laberei inkl. der damit geschürten Erwartungshaltung beim Thema Multithreading in Games ist ganz klar ein Resultat aus Handlungsweise wie du sie hier vorträgst... Ihr macht die Augen vor der Realität zu und hängt anstatt der technischen Basis lieber irgendwelchen reißerischen Behauptungen an
Gut formuliert, sehe ich sehr ähnlich. Ich glaube zwar nicht, dass das groß zum Umdenken bewegen könnte, weil die, die Ihre Brille aufhaben und sich vor Realitäten verschließen, um sich weiterhin in Grüppchen gegenseitig auf die Schultern zu klopfen, der Wahrheit nicht sonderlich zuträglich sind.

Statt sich gegenseitig zu unterstützen, Unklarheiten aus dem Weg zu schaffen, dem selben 'Hobby' über technische Zusammenhänge zu fröhnen, schlägt man in jedem zweiten Thread in Kleinkind-Manier alles kurz und klein - was dazu führt, dass man gar keinen Anreiz / Motivation mehr sieht derartige Themen zu lesen, weil der Ausgang vorhersehbar bleibt.

Ein Zusammenspiel aus mangelnder Selbstreflektion und Einfühlungsvermögen in das Verständnis anderer Meinungen, gepaart mit einer passiv-aggressiven Art der überbordenden Selbstdarstellung - meiner Meinung nach.

Danke für deinen Beitrag! ;-)
 
Ach wie geil, dann hält ja mein 5 Jahre alter 5960X noch solange bis das Board aufgibt^^

Dabei sieht mein alter 8-Kerner in GRB schon so aus, als würde er kotzen, wenn ich die Auflösung der Graka entsprechend runtersetze^^

 
Zuletzt bearbeitet:
Wenn du die Auflösung runterdrehst ist das doch normal, da kotzt doch jede CPU wenn du sie ins CPU Limit rennen lässt. Deine 8 Kern schlägt sich doch gut mit über 100 FPS. Da du doch eh 4K zockst ? Gehe ich mal von aus das noch ne ganze weile reicht. :)
 
Zuletzt bearbeitet:
Nea brauchst du den immer 144 FPS ? Auch 100 FPS sind doch Top auf ein 144 Hz Monitor ? Für 144 FPS brauchst du denke ich auch ne viel stärkere Grafikkarte.
 
...

Ultra low ist nicht 1, sondern 0.

Low Latency = On ist 1

...
Hä, wo schrieb ich das ? Wenn man schon irrelevant schlaumeiert dann nicht halbgar servieren.

Die Einstellung Pre-Rendered Frames im Control Panel existiert nicht mehr, daher das "bzw." weil es den selben vielleicht noch extremeren Effekt hat.
Die "FRL Low Latency" so heißt diese Einstellung im Inspector bzw. Treiber jetzt,
"Ultra" ist allerdings nicht 0 sondern 1 (Boolesche Variable), sprich "Ultra" ist 1(0x1) und Aus ist 0(0x0). An ist ebenfalls 0(0x0), hier fällt der Treiber wahrscheinlich auf Anwendungsgesteuert zurück, sprich das alte Verfahren mit RenderQ.

Change my Mind.
 
Das Thema hatten wir vor ein paar Jahren schonmal. Da hieß es, vier Kerne reichen locker. Damals kaufte ich mir trotzdem einen i7-5820K, der bereits 2015 6C/12T zum selben Preis wie 4C/8T (4790K) bot. Heute ist der 4790K an der Grenze der Benutzbarkeit, der 5820K steht sogar noch relativ gut da, wenn man mal vom enormen Energieverbrauch absieht. Was auch immer gerne vergessen wird, wenn man Spiele spielt laufen die auf einem Betriebssystem mit vielen Hintergrundprogrammen, heute hat jeder noch ein Dutzend Programme im Hintergrund laufen, auch die fordern Leistung und das merkt man gerade auf Quadcores und i5 (ohne Threads) sehr stark. Selbst wenn der 6C-i5 mehr Maximal-FPS liefert, so liefert der 3600 häufig bessere Frametimes und Minimum-FPS.

Beim 9900K kommt aber noch dazu dass er 500 € kostet, das Konkurrenzprodukt kostet das gleiche und bietet eine ähnlich gute Spieleleistung bei einer deutlich erhöhten Anwendungsleistung. Es wird langsam eng für Intel, in der nächsten Zen-Interation wird AMD auch in Sachen Einzelkernleistung aufgeholt haben. Das Einzige was ich mir jetzt noch wünsche wäre eine ordentliche Konter gegen NVIDIA. Wo jahrelange Stagnation und Preisinflation hingeführt haben sahen wir ja bei Intel, nun erleben wir das aber bei den Grafikkarten extrem.
 
...

Ultra low ist 0. Es werden keine Frames auf der CPU vorausberechnet und on ist wie früher prerendered Frames 1.


"With the default settings of “Off,” the game’s engine will queue one to three frames at a time. The “On” setting will force the game to only queue a single frame, which is the same as setting Max_Prerendered_Frames to 1 in older NVIDIA drivers. The Ultra setting submits the frame “just in time” for the GPU to pick it up—there will be no frame sitting in the queue and waiting.

...

Intel: Mehr als acht Kerne für Spiele nicht notwendig - Seite 3

Zitat: "Haben viele Titel, stellt du im Treiber Pre-Rendered Frames auf 1 bzw. jetzt Ultra Low-Latency fallen immer etwas die FPS und die Framtime steigt an, dafür sinkt die Latenz und Eingabeverzögerung".


...
 
Zuletzt bearbeitet:
Nein. Die Einstellungsvariable ist 1, wie viele vorbereitete Frames war keine Rede.

Es gibt kein Ultra "on" oder "off", nur Ultra, Low und Off.
Steht auch im Text von Intel und wird auch im Kontext von meinem klar. Im Detail;

Die Einstellung Pre-Rendered Frames im Control Panel existiert nicht mehr, daher das "bzw." weil es den selben vielleicht noch extremeren Effekt hat.
Die "FRL Low Latency" so heißt diese Einstellung im Inspector bzw. Treiber jetzt,
"Ultra" ist allerdings nicht 0 sondern 1 (Boolesche Variable), sprich "Ultra" ist 1(0x1) und Aus ist 0(0x0). An ist ebenfalls 0(0x0), hier fällt der Treiber wahrscheinlich auf Anwendungsgesteuert zurück, sprich das alte Verfahren mit RenderQ.
Der Reddit User unten hat es verstanden; Nvidia ultra low latency mode through profile inspector? : pcmasterrace

Wobei "Ultra" Latency immer die für die CPU stressigste Variante seien dürfte, deshalb auch von Intel erwähnt;
Wenig Latenz, niedrigere FPS, höhere Frametimes als Resultat. Wie in "etwa" die niedrigste Einstellung bei Pre Rendered-Frames 1, bei älteren Treibern.

Powerplay Aussage zu seinem 3900X war von "früher", sprich der wird in "Ultra" ebenfalls mehr leiden. Lässt keine Fehlinterpretation zu eigentlich..............
 
also ich habe alle Beiträge gelesen.Das Problem hat sich langfristig von selbst irgendwann gelöst.Warum das sage ich nun.Alles steht und fällt mit der Fertigung.Wenn irgenwann mal es so aufwändig & zu kostenintensiv ist,wird es dann mal einen stillstand im normalen sinne geben.
Klar wissen wir nicht was TSMC nach den 3nm die ja in wirklichkeit 5 nm sind,dann am ende wirklich machen wird.Und das selbe Problem wird auch Intel und Samsung auch mal haben.
Klar könnte ich mir dann auch vorstellen das Intel dazu übergeht es so zu machen wie AMD,einfach alle zusammen kleben.Das heißt i3,i5,i7 sowie i9 usw dann so wie AMD nur noch zusammen geklebt anbieten.Das hat freilich seinen Preis.Denn dann ist es mit den Taktwundern auch vorbei.Dann nix mehr mit 5 ghz und so.Denn das ist dann ja nicht mehr drinnen.Wenn die Entwicklern ab da nicht mitmachen mit der Kernskalierung,dann wird es auch in Zukunft nicht mehr sein.
Wenn es am Pc genügend Kerne und bei Konsole genügend Kerne gibt.Aber die Entwickler keine lust auf umständliches Programieren haben,dann wissen wir,das es ein stillstand gibt.Jedoch ich selbst kann auch nicht in die Zukunft sehen.
Dennoch wenn das shrinken am Limit ist,dann ist es mit der steigerung ja eh vorbei.Und je kleiner die CPUS geshinkt werden,desto weniger Taktfreudig werden die CPUS sein.Weniger Takt bedeutet also auch weniger leistung.Ist also die logische konsiquents.Und weniger fps,das macht sich dann bei der Pressendtation auch nicht gut.
Wir könnten immer weitere agumente finden.Das jedoch führt am ende ja zu nichts.
 
Hättest weniger lesen sollen und dafür deinen Beitrag entsprechend ausstatten können. Liest sich wie von einem Zweitklässler. Keine Ahnung so deutlich zu offenbaren, ist echt schlimm. :shake:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh