In Spielen König, sonst eher ein kleiner Prinz: Intel Core i5-10600K und Core i9-10900K im Test

Ist schon amüsant wieviele hier schreiben das die ein WQHD mit 144Hz oder 144Hz+ haben aber es gibt ja eigentlich eine einzige Grafikkarte was dei FPS auch hergibt. Und auch das nicht mal in allen Spielen.
Aktueler Test 10900K und viele Andere CPU`s + 2080Ti

Battlefield V - 2.560 x 1.440 - 154FPS
The Division 2 - 2.560 x 1.440 - 154FPS
Metro Exodus - 2.560 x 1.440 - 133FPS
The Shadow of the Tomb Raider - 2.560 x 1.440 - 135Fps

Bin mir ziemlich sicher das auch nur vielleicht 5% von den was einen WQHD Monitor mit 144Hz besitzen auch eine 2080Ti im PC haben. Da nutzt auch die beste Gaming CPU nichts. Durch schlechtere GPU werden die FPS auch nicht mehr. Ich richte mich mehr nach aktuellen Spielen. Ich selber verwende 3900X mit 1080Ti und bei WQHD kratze ich gerade so am 100FPS marke und da ist nicht mal ansatzweise alles auf Hoch geschweige auf Ultra. Und da nutzt mir auch kein 10900K nichts. Für mich ist auch irrelevant vieviel FPS jemand bei CS go hat. Das weiß ich auch selber das ich bei COD1 mehr FPS habe als bei COD MW.
MIN FPS



Mich selbst hätte eher ein Test interresiert was mehr der algemeinheit entspricht. Nicht jeder was eine neue CPU kauft + Mainboard auch automatisch eine 1300€ teure Grafikkarte mitkauft. Test wäre schöner mit Grafikkarten was mehr Mainstream entsprechen 5700/x , 2060 , 2070/S , 2080/S. Das die 2080Ti schneller ist als die anderen wissen wir schon. Nutzt mir nur bei CPU Kaufentscheidung wenig. Hoffe wenn HWLuxer noch mal eine CPU krriegen das die es vielleicht nachreichen können.

dein ernst?

du hast es wirklich nicht verstanden.

Mann will ja mit low res aka 720p tests gerade den einfluss der graka rausnehmen. Also genau das was du forderst wird mit einem 720p + fette gpu test nämlich gemacht! den einfluss der 2. komponente rausgerechnet

mit einer zu schwachen graka kannst du absolut nichts anfangen und deine Kaufentscheidung wird noch schwammiger

je mehr FPS die cpus rausknallen desto stärker muss die GPU werden damit die balken von oben er nicht von der GPU aufgefressen werden > die graka gibt die Frames vor. Ergo siehst du absolut nichts


wenn du eine schwache GPU nimmst werden alle balken gleich lang.

Siehe hier: da ist die 2080TI einfach zu langsam:

hier sind die scores quasi alle gleich weil die werte von der GPU kommen.

21-05-_2020_19-34-25.jpg


du musst dich da wirklich nochmal informieren :d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
  • Danke
Reaktionen: hRy
MIN FPS





dein ernst?

du hast es wirklich nicht verstanden.

wenn du eine schwache GPU nimmst werden alle balken gleich lang.

damit kannst du absolut nichts anfangen und deine Kaufentscheidung wird noch schwammiger

je mehr FPS die cpus rausknallen desto stärker muss die GPU werden damit die balken von oben er nicht von der GPU aufgefressen werden > die graka gibt die Frames vor. Ergo siehst du absolut nichts

Anhang anzeigen 508665

du musst dich da wirklich nochmal informieren :d
Also heißt das jetzt alles die keine 2080Ti brauchen sind bei AMD besser aufgehoben 🤔🙃
 
die graka hat mit der cpu nix am hut

kannst du kombinieren wies dir schmeckt^^
 
*gähn* Die "Generation" werde ich überpringen. 😴
 
Also heißt das jetzt alles die keine 2080Ti brauchen sind bei AMD besser aufgehoben 🤔🙃

🤦‍♂️ Neiiin, er meint es anders:
es gibt mehrere Dinge, die den CPU-Einfluss egalisieren:
Sehr hohe Auflösungen (deshalb 720p für Tests)
Midrange-GraKas (deshalb die 2080Ti zum Test)
Da gehts NICHT um das, was die User kaufen sollen oder was wie zusammenpasst, sondern lediglich um die ungefilterten Werte für Reviews.
 
ob midrange graka oder zu hohe auflösung ist latte. das ergebnis ist dasselbe. > gpu limit
 
@ Scrush

Problem was ich sehe ist das Anwendungsprofil von der CPU.

1. Teure CPU
2. Stärkste vorhanden Grafikkarte Pflicht
3. Spielen "nur" auf FHD bzw. WQHD

Nur glaube ich das ein Großteil der Leute eher den Sprung auf UWQHD oder 4k machen als mit 144Hz zu spielen. Laut Steam Hardware haben die höheren Auflösungen ca. halb soviele Anwender wie WQHD wobei der Anteil der 144Hz Monitore wohl deutlich geringer ist. Man darf also annehmen das Auflösung >> Hz den meisten wichtiger ist und man ja nicht umsonst G-Sync nutzt. 100hz UWQHD oder 60Hz 4k scheinen den meisten Atttraktiver zu sein.

Jetzt könnte man meine das Ding ist "zukunftsicher" aber gerade nach den PS5 und Unreal5 Hype was die Speicheranbindung anbelangt kommt einen Pci 3,0 als outdated vor. Kann also sein das man in 2 Jahren zwar von der Rechenpower locker mit den Mainstream CPUs mit 6-8 Kernen mithalten kann aber aufgrund der fehlenden Lanes auf Abstellgleis landet.
 
Weiß einer ob auch T CPUs wieder kommen oder sind die T Modelle geschichte ?
 
ob midrange graka oder zu hohe auflösung ist latte. das ergebnis ist dasselbe. > gpu limit
Wollte ich ihm mit der Aussage verklickern. dachte, das erschließt sich von selbst. ;)
 
Für die, die jetzt schon einen 9900k haben, lohnt es sich eher auf Alder Lake zu warten, der ja bereits nächstes Jahr mit dem neuen Sockel 1700 kommen wird, dieser Sockel soll dann auch wieder für mehrere Generationen halten.
 
Für die, die jetzt schon einen 9900k haben, lohnt es sich eher auf Alder Lake zu warten
Die so ne CPU haben brauchen die nächsten Jahre nicht mehr Aufrüsten. Die sind für lange Ausgesorgt.

Nur die Foren Nerds vernichten Geld :asthanos:
 
Natürlich ist Rocket Lake 14nm.

Alder Lake und neuer Sockel kommt erst 2022.
 
@ Scrush

Problem was ich sehe ist das Anwendungsprofil von der CPU.

1. Teure CPU
2. Stärkste vorhanden Grafikkarte Pflicht
3. Spielen "nur" auf FHD bzw. WQHD

Stop

warum ist die stärkste gpu für die CPU pflicht?

für ein cpu test? ja korrekt

für den user? das ist seine sache. wenn er sich keine ti kaufen möchte oder kann dann bedeutet das nicht dass er mit einer schwächeren GPU diese cpu nicht ausfahren kann.

bitte schaut nicht immer auf die max fps.

es gibt noch min fps und avg fps

Cities_2020_05_21_15_03_38_320.jpg

ich hab in 3440x1440 mit TAA ein CPU limit und könnte ne deutlich schwächere gpu nehmen.


es gibt so viele games wo eine cpu eben keine 144fps minimum auf den schirm knallt sondern erheblich weniger.

ihr dürft nicht immer vom idealfall ausgehen
 
Natürlich ist Rocket Lake 14nm.

Alder Lake und neuer Sockel kommt erst 2022.

K dann wird Cocket Lake auch übersprungen.
AMD holt mit Zen 3 Ende 2020 gut auf, wird also auch übersprungen.
Nice, spart Kohlen. (y)

Alder was ged up kann man sich eventuell mal anschauen. Bin da aber noch skeptisch und AMD gibts ya auch noch. (y)
 
Technisch zwar irgendwie interessant (CPU- u. RAM-OC). Aber mir persönlich zu teuer. Und mein 5960X macht sich noch gut.
 
Der Threadripper 3990x is also in Tombraider die mit Abstand schnellste Spiele CPU - okay wusst ich nicht. :poop:
 
Für Intel könnte sich als Fehler erweisen das die nicht die CPUs mit PCIe 4.0 versehen haben.
Bei NVIDIA soll ja die neue GPU Generation auch schon PCIe 4.0 haben, bisher ist ja fast kein Unterschied zwischen PCIe 3.0 und 4.0 feststellbar.

Da stellt sich mir die Frage:
Kann es möglich sein das die neue GPU Generation mehr von 4.0 profitiert ( RTX u.s.w. )?
Die neue CPU Generation von AMD soll ja stärker sein und wird es dann nur noch die reine Game Empfehlung der Kombi AMD / NVIDIA geben, statt wie bisher Intel / NVIDIA?
Was machen dann die Leute die sich jetzt eine neuen Intel CPU kaufen? Die nächste Intel Generation soll ja 4.0 unterstützen.
 
So ein wenig hat er aber schon recht, wenn ich sehe, wo die Preise liegen, klar Intel kann nicht zaubern aber das K ist ja irgendwie überflüssig geworden.
KF darf auch nicht unterschlagen werden der ist auch etwas günstiger, da ohne iGPU.
Das K kommt ursprünglich sowieso nur um zu verdeutlichen das zumindest der Multiplikator offen ist, OC ist aber immer noch möglich. HT abschalten, Voltage ausloten, RAM anpassen, 5.2-5.4 Ghz All-Core ist fürs Gaming auch unter Luft machbar so wie es aktuell aussieht, kommt auf die CPU an die man erwischt hat und Mobo etc.

Ist schon amüsant wieviele hier schreiben das die ein WQHD mit 144Hz oder 144Hz+ haben aber es gibt ja eigentlich eine einzige Grafikkarte was dei FPS auch hergibt. Und auch das nicht mal in allen Spielen.
Aktueler Test 10900K und viele Andere CPU`s + 2080Ti

Battlefield V - 2.560 x 1.440 - 154FPS
The Division 2 - 2.560 x 1.440 - 154FPS
Metro Exodus - 2.560 x 1.440 - 133FPS
The Shadow of the Tomb Raider - 2.560 x 1.440 - 135Fps

Bin mir ziemlich sicher das auch nur vielleicht 5% von den was einen WQHD Monitor mit 144Hz besitzen auch eine 2080Ti im PC haben. Da nutzt auch die beste Gaming CPU nichts. Durch schlechtere GPU werden die FPS auch nicht mehr. Ich richte mich mehr nach aktuellen Spielen. Ich selber verwende 3900X mit 1080Ti und bei WQHD kratze ich gerade so am 100FPS marke und da ist nicht mal ansatzweise alles auf Hoch geschweige auf Ultra. Und da nutzt mir auch kein 10900K nichts. Für mich ist auch irrelevant vieviel FPS jemand bei CS go hat. Das weiß ich auch selber das ich bei COD1 mehr FPS habe als bei COD MW.

Mich selbst hätte eher ein Test interresiert was mehr der algemeinheit entspricht. Nicht jeder was eine neue CPU kauft + Mainboard auch automatisch eine 1300€ teure Grafikkarte mitkauft. Test wäre schöner mit Grafikkarten was mehr Mainstream entsprechen 5700/x , 2060 , 2070/S , 2080/S. Das die 2080Ti schneller ist als die anderen wissen wir schon. Nutzt mir nur bei CPU Kaufentscheidung wenig. Hoffe wenn HWLuxer noch mal eine CPU krriegen das die es vielleicht nachreichen können.
Hab den Post von dir beim polemischen Spam von "Y0sHi" auch völlig übersehen. Selbst Intel würde dir in kleiner Runde wahrscheinlich nicht zu einem Upgrade vom 3900X zum 10900K raten, die wollen aber CPUs verkaufen, in hohen Auflösungen mit starker GPU und den aller meisten Spielen besteht bei dir überhaupt kein Handlungsbedarf. Bei den Titeln die du aufgelistet hast kannst du die FPS fast nur mit stärker GPU steigern, die CPUs sind einfach zu nah beieinander in der reinen Spieleleistung im Real-Szenario.
Ich bin mir aber relativ sicher das auch dieser sehr kleine Vorsprung dann bei der 4000er Ryzen Serie komplett verschwinden wird auch in 720p, Gaming ist halt die letzte halbwegs vertretbare und vermarktbare Trumphkarte.

Für die CPU macht die Auflösung aber keinen Unterschied, die 720p sind nur dazu da um zu simulieren wie die CPU sich unter den wahrscheinlich stressigsten Bedingungen in dieser Engine verhalten wird, deshalb immer mit starker bzw. der stärksten GPU wie Scrush schreibt.

Für Intel könnte sich als Fehler erweisen das die nicht die CPUs mit PCIe 4.0 versehen haben.
Bei NVIDIA soll ja die neue GPU Generation auch schon PCIe 4.0 haben, bisher ist ja fast kein Unterschied zwischen PCIe 3.0 und 4.0 feststellbar.

Da stellt sich mir die Frage:
Kann es möglich sein das die neue GPU Generation mehr von 4.0 profitiert ( RTX u.s.w. )?
Die neue CPU Generation von AMD soll ja stärker sein und wird es dann nur noch die reine Game Empfehlung der Kombi AMD / NVIDIA geben, statt wie bisher Intel / NVIDIA?
Was machen dann die Leute die sich jetzt eine neuen Intel CPU kaufen? Die nächste Intel Generation soll ja 4.0 unterstützen.
Möglich scheint alles, standardmäßig fährt Nvidia auch den Treiber immer noch im IRQ Mode :geek: , glaube des es noch sehr lange dauert bis PCIE 4.0 für Spieler relevant wird. Bei den nächsten CPUs soll es ja dabei sein deshalb ist es ja auf den Z490 Boards.
 
Kann es möglich sein das die neue GPU Generation mehr von 4.0 profitiert ( RTX u.s.w. )?
Die neue CPU Generation von AMD soll ja stärker sein und wird es dann nur noch die reine Game Empfehlung der Kombi AMD / NVIDIA geben, statt wie bisher Intel / NVIDIA?
Was machen dann die Leute die sich jetzt eine neuen Intel CPU kaufen? Die nächste Intel Generation soll ja 4.0 unterstützen.

Weiter vorn im Thread wurde es schon beschrieben; sämtliche Gamer-Grafikkarten ab der oberen Mittelklasse sind so konzipiert, dass die Schnittstelle zum System bei Games nicht zum Flaschenhals wird. Deswegen reicht bspw. immer noch PCIe Gen2 um solche Grafikkarten zu versorgen. PCIe Gen4 ist kein Grund von diesem Konzept abzuweichen. Trotz Verdopplung der Bandbreite auf 32GT/s würden aktuelle GPU damit nicht ansatzweise die Datenmengen erhalten, die sie verarbeiten können.
 
PCIe Gen4 werden die Grafikkarten noch sehr lange nicht benötigen. PCIe Gen3 limitiert einfach kein Stück.
 
PCIe Gen4 werden die Grafikkarten noch sehr lange nicht benötigen. PCIe Gen3 limitiert einfach kein Stück.
Mit nur einer GPU kein Wunder, Gen3 ist schon seit 2013 Overheaded...

 
... Jetzt könnte man meine das Ding ist "zukunftsicher" aber gerade nach den PS5 und Unreal5 Hype was die Speicheranbindung anbelangt kommt einen Pci 3,0 als outdated vor. Kann also sein das man in 2 Jahren zwar von der Rechenpower locker mit den Mainstream CPUs mit 6-8 Kernen mithalten kann aber aufgrund der fehlenden Lanes auf Abstellgleis landet.
Spiele mit hohem Leistungsbedarf sind so konzipiert, dass die relevanten Programmteile und Daten im Arbeitsspeicher bzw. Grafikspeicher residieren. Insofern hat PCIe keinen unmittelbaren Einfluss auf die Spieleperformance. Am häufigsten limitiert bei graphisch aufwändigen Spielen die GPU und dessen Speicheranbindung. Eine 2080Ti ist schon heute in dieser Hinsicht wesentlich leistungsfähiger als die kommende Konsolengeneration.
 
Spiele mit hohem Leistungsbedarf sind so konzipiert, dass die relevanten Programmteile und Daten im Arbeitsspeicher bzw. Grafikspeicher residieren. Insofern hat PCIe keinen unmittelbaren Einfluss auf die Spieleperformance. Am häufigsten limitiert bei graphisch aufwändigen Spielen die GPU und dessen Speicheranbindung. Eine 2080Ti ist schon heute in dieser Hinsicht wesentlich leistungsfähiger als die kommende Konsolengeneration.
Ja, also 8K Auflösung mit 144Hz?

Das sind 4x4K Datenrate mit HDMI v2.1 ?
DisplayPort ist da seit 2013 bei 4096 x 4096 Pixel.
 
Nachdem SLI und Crossfire im Grunde aufgegeben wurden, ist Gen3 in Bezug auf GPU wieder völlig ausreichend.
Ja schon, aber drei Single "Dual GPUs" sind wie viele Co-Prozessoren ?

Egal ob Radeon oder nvidia...
 
Mit nur einer GPU kein Wunder, Gen3 ist schon seit 2013 Overheaded...

Die Zeiten sind ja nun vorbei.

MultiGPU lohnt für Gamer nicht mehr.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh