In Spielen König, sonst eher ein kleiner Prinz: Intel Core i5-10600K und Core i9-10900K im Test

? was hat das mit dem genre zu tun?

in jedem spiel egal welches genre sind 120hz besser als weniger.

wenn du mit 60fps in einem strategiespiel auskommst, ist das eine rein subjektive meinung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mehr als 4 Kerne werden doch eh praktisch nie genutzt.
Das ist Unsinn was du erzählst. Fast alle aktuellen Titel ab 2017 unterstützen schon 6+ Kerne. Besonders die von Ubisoft holen aus Mehrkerner Noch bessere FPS raus.
 
Bin mal gespannt wie lange sich die Aktionäre von Intel weiter an der Nase herumführen lassen.
Evtl. weil den meisten zumindest Groß Aktionäre sich mehr für die Betriebswirtschaftlichen Zahlen intressieren anstadt irgentwelchen Multicore Benschmarks


Was mich persöhnlich intressieren würde was ist in der Produktion billiger ist,Intels 14nm Fertigung die bedeutet einfachere Technik aber dafür mehr Die-Fläche benötigt oder AMD mit der aufwendigeren 7nm fertigung.
 
"mehr als 4 kerne werden eh nicht genutzt"

"zum gamen brauch niemand mehr als 16gb ram"

"in 720p spiel doch eh keiner"

"in 1440 und 4k limitiert doch eh immer die gpu."

i love it

alles wiederlegbar aber dennoch wird immer noch mit solchen pauschalen um sich geworfen.

wie die verschwörungstheorethiker :fresse:
 
Braucht jemand diese Intel-Plattform?
  • Ohne PCIE4 ist der Unterbau ein NoGo im Jahr 2020. Man möchte zukünftige Grafikkarten noch befeuern und nicht durch die Lanes limitiert sein. Hinzu kommt noch ein neuer Sockel mit teuren Boards. (n)
  • Fake Turbo Benches erzwungen durch hohe TDP-Einstellungen. Damit meine ich nicht nur den 10 Kerner. Wichtig ist nur was die CPU 24/7 leistet. Ob das Ding jetzt 5.0 Ghz oder 5.2 Ghz merkt real kein Mensch. (n)
  • Die annähernd gleiche Leistung gab es bereits in der Vorgängergeneration, wenn jemand Feintuning betrieben hat. (y) Wieso die Preise für den Sockel 1155 v2 nicht sinken, verstehe ich nicht. (n)
 
Es bleibt dabei, aufgewärmter Alter Kaffee schmeckt einfach nicht!:coffee:
 
Braucht jemand diese Intel-Plattform?
  • Ohne PCIE4 ist der Unterbau ein NoGo im Jahr 2020. Man möchte zukünftige Grafikkarten noch befeuern und nicht durch die Lanes limitiert sein. Hinzu kommt noch ein neuer Sockel mit teuren Boards. (n)
  • Fake Turbo Benches erzwungen durch hohe TDP-Einstellungen. Damit meine ich nicht nur den 10 Kerner. Wichtig ist nur was die CPU 24/7 leistet. Ob das Ding jetzt 5.0 Ghz oder 5.2 Ghz merkt real kein Mensch. (n)
  • Die annähernd gleiche Leistung gab es bereits in der Vorgängergeneration, wenn jemand Feintuning betrieben hat. (y) Wieso die Preise für den Sockel 1155 v2 nicht sinken, verstehe ich nicht. (n)

Sämtliche GPU ab der Mittelklasse wurden bisher und werden auch in der Zukunft nicht durch PCIe limitiert, da der Grafikspeicher grundsätzlich so dimensioniert ist und betrieben wird, dass der Flaschenhals PCIe nicht wirksam wird.

Dass der Turbo zeitlich begrenzt ist und von der dauerhaften Performance abweicht, ist Stand der Technik und hinreichend dokumentiert. Wenn die beworbene Leistung als Turboleistung ausgewiesen wird, handelt es sich daher auch nicht um Fake. Das wäre lediglich der Fall, wenn die tatsächlich erreichbaren Leistungsdaten unterhalb der Spezifikation lägen. Gibt es dafür evidente Daten?

Dass die Preise für die Vorgängergeneration nicht gesenkt werden, liegt darin begründet, dass somit Lagerbestände auf Kosten von Händlern entwertet würden. Damit würde man die Beziehungen zu den Händlern, welche für Intels Stellung am Markt essentiell ist, belasten. Das war schon immer so und wird auch hoffentlich so bleiben ;)
 
Zuletzt bearbeitet:
"mehr als 4 kerne werden eh nicht genutzt"

"zum gamen brauch niemand mehr als 16gb ram"

"in 720p spiel doch eh keiner"

"in 1440 und 4k limitiert doch eh immer die gpu."

i love it

alles wiederlegbar aber dennoch wird immer noch mit solchen pauschalen um sich geworfen.

Es trifft halt auf mind. 98% der Anwender und Programme/Spiele zu.

Sicher wird es das eine Spiel geben das mit 5 Kernen bombastisch läuft aber mit 4 Kernen nur an der 30FPS Marke kratzt. Dann gibt es auch garantiert das eine Spiel das mit 17GB richtig abgeht und den einen Spieler der gerne am aktuellen Rechner seinen Lieblingsmonitor von 2007 weiterverwenden möchte.
Nichts ist unmöglich. Grade im Luxx.
Die Wahrheit ist eher das diese Thesen im allgemeinen zutreffen, diverse Luxxer als PC Master Race das aber nicht mit ihrem Ego vereinbaren können. Daher brauchen die immer mind. 8 Kerne, immer neue Systeme, 32 oder besser 64GB RAM und unter einer RTX2080 ist eh alles casual.
Real ist es so das jeder der mehr als 16GB in Games benötigt ein digitaler Messi ist der es nicht schafft die 1000 Hintergerundprogramme und den Browser mit 22 Tabs zu schliessen bevor er sein Spiel startet.
 
Bezüglich RAM oc auf Z Boards: dann sind die non-K Modelle ja interessant. CPU oc geht eh nicht soviel mit Luftkühlung.
Dann bin ich gespannt auf Tests zu den vielen non-K Modellen. 10x00 (x=4,5,6,7,8,9). Boah, hauen die viele Versionen raus. Vllt werden das ja Mal Sammlerstücke wenn die eh kaum wer kauft 😉
 
Bezüglich RAM oc auf Z Boards: dann sind die non-K Modelle ja interessant. CPU oc geht eh nicht soviel mit Luftkühlung.
Dann bin ich gespannt auf Tests zu den vielen non-K Modellen. 10x00 (x=4,5,6,7,8,9). Boah, hauen die viele Versionen raus. Vllt werden das ja Mal Sammlerstücke wenn die eh kaum wer kauft 😉
Da hast du in der Tat Recht. Spätestens seit Coffee Lake sind die Non-K-Modelle, sofern man nicht massiv in Kühlung investieren will, zumeist echte Alternativen zu den K-Modellen. Leider werden die Non-Ks nur selten gründlich reviewed.
 
Z490 Mainboard, 4000er RAM und großen Tower Kühler bestellt und mal schauen welcher K-Prozessor mich am meisten interessiert. Ich freue mich das Intel jetzt immerhin großflächig SMT(HT) den CPUs spendiert und auch noch ein bisschen mehr Takt gehen soll. So kann ich mal wieder etwas auf Intel-Basis bauen, auch wenn es Preis-/Leistungstechnisch natürlich immer noch alles andere als gut aussieht.

Mein Ryzen 9 3900X wird dabei nicht ersetzt, ist für'n Sommer dann doch ein bisschen angenehmer. :d
 
Es nutzt generell nichts wenn man heute noch auf 14 nm Fertigung setzt , wenn es bereits auf 7nm Fertigung viele CPU Modelle geliefert werden.
Intel steht jetzt aktuell an dem Problem wo AMD 2018 stand. AMD hat seinerzeit dann auf 7nm Fertigung gesetzt.
Viele AMD Prozessoren AMD APU Modelle ,EPYC Server oder Threadripper Prozessoren laufen bereits auf 7nm .
Aktuell bietet diese Fertigung mehr Leistung Pro Watt und auch im gesamten ist das P/L besser als bei Intel.
Kann immer wieder erneut Betonen das Single Core Leistung nicht mehr gefordert ist bzw. die Nachfrage immer geringer wird.
Intel kann gegen Multicore Leistung von AMD nicht ankommen.
Es zeigt auch die verzweifelten Versuche seitens Intel wieder am Markt anzuschließen. Das werden sie aber mit 14 nm und selbst weder mit neuen Sockel LGA 1200 nicht erreichen.
Selbst die Politik neue CPU = neues Brett hält Intel immer noch dran fest während AMD mit fast 80 Modellen auf AMD Sockel 4 Präsent ist.
Es gibt keinen Sockeltyp von Intel der so viele Modelle auf einem Sockel bietet.
Intel hat in der Roadmap selbst Bestätigt das vor 2022 nicht damit zu rechnen ist das es auf AMD aufschließt oder gleichzieht.
Dies haben Sie mit Ihren neuen verzweifelten versuchen Bestätigt.
Bin mal gespannt wie lange sich die Aktionäre von Intel weiter an der Nase herumführen lassen.
Meinst du das ernst ?
 
Sämtliche GPU ab der Mittelklasse wurden bisher und werden auch in der Zukunft nicht durch PCIe limitiert, da der Grafikspeicher grundsätzlich so dimensioniert ist und betrieben wird, dass der Flaschenhals PCIe nicht wirksam wird.

Dass der Turbo zeitlich begrenzt ist und von der dauerhaften Performance abweicht, ist Stand der Technik und hinreichend dokumentiert. Wenn die beworbene Leistung als Turboleistung ausgewiesen wird, handelt es sich daher auch nicht um Fake. Das wäre lediglich der Fall, wenn die tatsächlich erreichbaren Leistungsdaten unterhalb der Spezifikation lägen. Gibt es dafür evidente Daten?

Dass die Preise für die Vorgängergeneration nicht gesenkt werden, liegt darin begründet, dass somit Lagerbestände auf Kosten von Händlern entwertet würden. Damit würde man die Beziehungen zu den Händlern, welche für Intels Stellung am Markt essentiell ist, belasten. Das war schon immer so und wird auch hoffentlich so bleiben ;)

  • Eine Radeon XT5500 wird durch PCIE 3.0 bereits ausgebremst. Sie kann nur 8 Lanes adressieren. Von daher stimmt die Aussage nicht 100%. Es gibt gibt Vorteile durch PCIE 4.0 sonst würde der Standard nicht kommen.
  • Natürlich läuft der Turbo laut Spezifikation, aber die Leistung wird nur für eine gewisse Zeit erreicht. Dies zeigt die theoretische Leistung, die unter Dauerbetrieb nicht erreicht wird. Ähnlich verhält es sich bei Notebooks. Es spiegelt mMn nach nicht den realen 24/7 Betrieb, unabhängig vom Hersteller. Es dient lediglich dazu in Benchmarks zu glänzen und eine bessere Singlecore-Performance zu erreichen.
  • AMD senkt die Preise der älteren Prozessoren ebenfalls, das Argument zieht nicht. Wenn schon alter Kaffee, dann zum fairen Preis.
  • K CPUs machen für Ottonormal-Verbraucher keinen Sinn bzw. fast keinen Sinn mehr, weil der Gewinn an Übertaktung Prozentual nur noch marginal ist. Da bringt schneller RAM einen höheren Mehrwert.
  • Wenn AMD die Ryzen 4000 Vermeer CPUs bringt, wird der Intel Sockel von der Performance ebenfalls gebügelt.
 
Der i9-10900K ist meinen Augen nicht der spannenste Prozessor von Intel sondern der Core i7-10700KF - preislich viel interessanter. Auf Tests von diesem Prozessor bin ich gepannt, wie er sich im Vergleich zum AMD 3700X / 3800X schlägt.
 
Daher brauchen die immer mind. 8 Kerne, immer neue Systeme, 32 oder besser 64GB RAM und unter einer RTX2080 ist eh alles casual.

Aber genau die Gruppe zwingt sowohl AMD als auch Intel dazu neue und leistungsfähigere Produkte auf den Markt zu bringen. Man hat das ziemlich gut zu der Zeit gesehen wo es AMD nicht besonders ging und Intel der alleinige Platzhirsch war, hohe Preise bei Stagnation im Leistungsbereich. Ich sage immer: Leben und leben lassen. :)

Real ist es so das jeder der mehr als 16GB in Games benötigt ein digitaler Messi ist der es nicht schafft die 1000 Hintergerundprogramme und den Browser mit 22 Tabs zu schliessen bevor er sein Spiel startet.

Wobei man ja nicht nur zockt, wer noch nebenher produktiv wird mit seinem System der ist mit 32 GB Ram nicht schlecht bedient, vor allem weil der Kram ja nur noch ein paar Euro kostet. Meist ist der Sprung von 16 auf 32 GB ja in der Preisklasse von ~50€, das fällt nur in den wenigsten Fällen ins Gewicht. Vorbei die Zeiten wo 4 x 256 KB Module = 1.000 DM gekostet haben. :)
 
Der i9-10900K ist meinen Augen nicht der spannenste Prozessor von Intel sondern der Core i7-10700KF - preislich viel interessanter.
Dieses Die wird bestimmt noch für die Lieferbarkeit der 9900 Reihe benötigt.





Und wenn ich diesen Satz mal resigniere, dann ist es eher traurig als spannend.
Ist nur eine Vermutung meinerseits.
 
  • Eine Radeon XT5500 wird durch PCIE 3.0 bereits ausgebremst. Sie kann nur 8 Lanes adressieren. Von daher stimmt die Aussage nicht 100%. Es gibt gibt Vorteile durch PCIE 4.0 sonst würde der Standard nicht kommen.
Wie mans nimmt. Ich würde in dem Fall sagen, eine Radeon XT5500 wird ausgebremst, weil sie nur 8 Lanes kann. Würde sie 16 Lanes nutzen, wie alle anderen auch, würde sie nicht gebremst werden.
Natürlich hat PCIe4 Vorteile, nur praktisch kann ein Privatnutzer die NOCH kaum nutzen. Grafikkarten mit PCIe3x16 sind noch nicht am Limit. PCIe3x4-SSDs sind zwar schnell, das macht sich aber in den meisten Fällen kaum bemerkbar, einfach nur noch schneller wird also auch nichts bringen. Durch ein Konstrukt wie der Radeon die wohl auf 8xPCIe4 setzt statt auf 16xPCIe3 sparst du zwar 8 Lanes, ansich ist das aber noch kein Vorteil. Zu einem Vorteil wird das erst, wenn du für die so freigewordenen 8 Lanes auch einen konkreten Verwendungszweck hast.
 
Insbesondere dafür ist es völlig egal, ob man Ryzen 3000 oder Intel 9th/10th Gen nutzt. Die 144 FPS schafft in den üblichen E-Sports Titeln jede der aktuellen CPUs. In anderen Games sieht es anders aus.

Der Input Lag skaliert mit den Anzahl der Frames. Besonders bei Shootern ist es für diejenigen die es ernster nehmen wichtig möglichst viele Frames zu haben. Also 150 vs. 300 Frames macht schon einen riesen Unterschied aus bei csgo und anderen Shootern.
 
Was mich persöhnlich intressieren würde was ist in der Produktion billiger ist,Intels 14nm Fertigung die bedeutet einfachere Technik aber dafür mehr Die-Fläche benötigt oder AMD mit der aufwendigeren 7nm fertigung.
Da sollte man den Einfluss von AMDs Chiplet-Design aber nicht vergessen. Es macht schon einen deutlichen Unterschied, ob auf einem Die maximal 4 Kerne funktionieren müssen und ich die mit 1 oder sogar 2 defekten auch noch gut verwursten kann (s. Ryzen 3100), oder ich immer mindestens 6 funktionierende Kerne pro Die brauche um überhaupt noch eine Verwertungsmöglichkeit zu haben. Dazu gehört ja auch nicht nur physisch kaputt, sondern auch nicht erreichter Takt etc.

Der i9-10900K ist meinen Augen nicht der spannenste Prozessor von Intel sondern der Core i7-10700KF - preislich viel interessanter. Auf Tests von diesem Prozessor bin ich gepannt, wie er sich im Vergleich zum AMD 3700X / 3800X schlägt.
Ich finde auch die kleineren Ableger deutlich interessanter, aber gerade der 10700KF spielt ja noch in einer anderen Preis-Liga. Gerade wenn man bedenkt, dass man den 3700X auch problemlos auf einem zum Z490 nur halb so teuren B450 Board betreiben kann.

Die meisten Leute sind doch eh mit einem fixen Budget für den ganzen PC unterwegs. Selbst hier im Zusammenstellungs-Forum ist wahrscheinlich der Ryzen 3600 die am meisten empfohlene/gefragte CPU, weil das Budget oft unter 1000€ liegt und man vor der Frage steht, ob das Budget bei der CPU oder der GPU besser aufgehoben ist.

In dem Zusammenhang finde ich den 10400(F) ganz spannend, sollte es noch einen Chipsatz/Boardklasse unterhalb von Z490 geben.
Für AMD wäre es jetzt umso wichtiger, dass ihr B550 endlich mal aufschlägt und sich preislich vom X570 deutlich nach unten absetzt.
 
Es trifft halt auf mind. 98% der Anwender und Programme/Spiele zu.

Sicher wird es das eine Spiel geben das mit 5 Kernen bombastisch läuft aber mit 4 Kernen nur an der 30FPS Marke kratzt. Dann gibt es auch garantiert das eine Spiel das mit 17GB richtig abgeht und den einen Spieler der gerne am aktuellen Rechner seinen Lieblingsmonitor von 2007 weiterverwenden möchte.
Nichts ist unmöglich. Grade im Luxx.
Die Wahrheit ist eher das diese Thesen im allgemeinen zutreffen, diverse Luxxer als PC Master Race das aber nicht mit ihrem Ego vereinbaren können. Daher brauchen die immer mind. 8 Kerne, immer neue Systeme, 32 oder besser 64GB RAM und unter einer RTX2080 ist eh alles casual.
Real ist es so das jeder der mehr als 16GB in Games benötigt ein digitaler Messi ist der es nicht schafft die 1000 Hintergerundprogramme und den Browser mit 22 Tabs zu schliessen bevor er sein Spiel startet.

schau dir auf cb an was dort wieder abgeht.

die leute mit "720 ist bullshit und 1440p+ limitiert die gpu eh" sind nicht gerade wenig.

diese leute pauschalisieren ihre eigenen ansprüche und präferenzen und legen diese auf die allgemeinheit um.

diese leute verstehen die thematik dahinter einfach nicht.

Wenn sie halt die spiele spielen, die im ideal fall bei 1440p + immer im gpu limit sind dann ist das toll für Sie. Meistens sind das auch die, die meinen, alles auf ultra knallen zu müssen weil sie meinen alles andere ist sinnlos und sieht schrecklich aus.

Das ist aber alleine deren Problem wenn Sie sich eine gurken GPU kaufen und die settings nicht lockern. logisch dass man dann vor allem in cpu performanten games quasi ständig im gpu limit hängt.

daraus aber eine CPU zu beurteilen ist einfach nur bescheuert. mir fällt keine andere beschreibung ein.

Die Wahrheit ist eher das diese Thesen im allgemeinen zutreffen, diverse Luxxer als PC Master Race das aber nicht mit ihrem Ego vereinbaren können. Daher brauchen die immer mind. 8 Kerne, immer neue Systeme, 32 oder besser 64GB RAM und unter einer RTX2080 ist eh alles casual."

dazu zähle ich mich defintiv nicht.

ich versuche rein technisch die sache gerade zu ziehen. mir ist latte was die leute im rechner haben oder was ich habe.


ein produkt als Sinnlos zu beurteilen weil man wegen seinen beschränkten einstellung seine settings nicht lockern will und/oder mit ner gurken gpu am start ist und die untterschiede eh nicht merken würde, ist so unfassbar dämlich dass es kracht.

damit meine ich niemanden persönlich

wer der meinung ist, in 1440p + seine settings nicht lockern zu wollen für mehr FPS (was bei einem 120hz + monitor durchaus sinnvoll ist) und dann behauptet man ist doch eh immer im GPU limit und die 720p tests wären somit sinnlos, die sind selbst schuld!

kein mensch zwingt jemanden ultra settings zu fahren.

Und kein mensch zwingt jemand ultra low zu fahren.


man kann einige games so einstellen dass sie mit deutlich mehr fps laufen ohne das sie viel schlechter aussehen.
 
Zuletzt bearbeitet:
Und was spielst du so in 720p 😉
 
Beim Test wurde ja auf ein frisches OS zurück gegriffen, hat man den auch alle verfügbaren sicherheits Fixes wieder aktiviert, wie wurde da vor gegangen?
 
wer der meinung ist, in 1440p + seine settings nicht lockern zu wollen für mehr FPS (was bei einem 120hz + monitor durchaus sinnvoll ist) und dann behauptet man ist doch eh immer im GPU limit und die 720p tests wären somit sinnlos, die sind selbst schuld!
120Hz/fps sind nicht für jeden sinnvoll und schon gar nicht unbedingt wichtig.
Was die Aussagekraft der Tests betrifft, hast du aber natürlich recht.

kein mensch zwingt jemanden ultra settings zu fahren.

Und kein mensch zwingt jemand ultra low zu fahren.
Kein Mensch zwingt jemanden die FPS zu maximieren, wenn ihm 60 auch völlig ausreichen.

Du beschwerst dich, das Leute ihre eigenen Präferenzen auf die Allgemeinheit abbilden. Dabei tust du indirekt das gleiche. Deine Posts klingen auch immer "ich will ja niemandem vorschreiben ..., aber ein paar Einstellungen runter und dafür 120fps IST halt nunmal besser". ;)
Der Unterschied ist, die anderen entsprechen eher der "Allgemeinheit", du dagegen bist eher der "Nerd". ;)
 
ne du versteht mich gerade etwas falsch.^^

wie gesagt. wenn jemand meint er muss alles auf ultra knallen und dann daraus schließt man hat in 1440p +eh kein cpu limit, der hat irgendwas nicht begriffen.

ob man mehr FPS oder lieber mehr bildquali haben will, ist mir latte. soll jeder machen wie er denkt. ich schreib niemandem etwas vor :)
Beitrag automatisch zusammengeführt:

Und was spielst du so in 720p 😉
nichts? Hab ich ja auch nie gesagt


ich frage mich immer woher die annahme kommt dass die leute dann auch in 720p spielen. noch nie jemanden gesehen der 720p bencht und dann auch die empfehlung gibt man solle in 720p zocken.

wenn du sowas findest, sag bescheid.^^
 
Früher war Hardwareluxx mal "Your Guide for Luxurious Hardware".

Angesichts der drohenden Übermacht der Sandalen tragenden Kerne und MHz Knauserer wird dann demnächst eine Umbenennung fällig. :haha:

Sehr Lustig! :cautious:

Also Effizienz jetzt hier als Bedrohung zu beschimpfen ist schon großen Kino.
 
Die Leute müssen nur einfach begreifen, dass es bei einem CPU-Test ausschließlich um die CPU geht und nichts anderes. Theoretisch müsste man die Benchmarks in 320x280 fahren, wenn das möglich wäre.

Man will doch wissen wieviel FPS die CPU in der Lage ist eigenständig zu schaufeln. Das mag zum Zeitpunkt heute in vielen Fällen vielleicht noch irrelevant sein, weil GPU X immer limitiert, aber in 3 Jahren gibts vielleicht schnellere GPUs auf dem Markt.

Mal als Beispiel: CPU X schafft ohne GPU begrenzung 100 FPS (in 320x280 gemessen). CPU X kann in 1080p nur 80 FPS bringen, weil die GPU nur 80FPS umsetzen kann. Dann weiß ich nach Test 2 nicht, dass die CPU mit ner stärkeren GPU mehr FPS bringen könnte, auch wenn es die GPU noch garnicht gibt sondern erst zum Ende des Jahres oder wann auch immer.

Wenn ich nun aber weiß die CPU bringt mir maximal 100FPS, dann kann ich da auch ne 6080TI Super Ultra dran hängen, ich hab trotzdem nur 100FPS maximal. Um diese Erkenntnis geht es doch.

Es geht doch beim Hardware Kauf darum Limits so lange wie man halt plant zu umgehen. Wenn ich mir ne CPU kaufen will, mit der ich die nächsten 3-5 Jahren irgendwie klarkommen will, muss ich doch wissen ob die jetzt schon fast am Ende ist und limitiert, oder ob da noch gut Reserven für stärkere GPUs sind, um die Leistung dann abrufen zu können.

Von daher kann ich das Geschreie nach 1440p Tests bei einem -CPU-Test nicht nachvollziehen.
 
Mit 1440p ne CPU testen ist echt mehr als sinnbefreit.
 
Das einzige Argument was stimmt in dieser Diskussion ist Preis/Leistung, Max FPS war halt immer eine Intel Sache(zB die ganzen 144Hz/Fps Leute), bei den Max FPS war Intel oft ~20% vorne. teilweise 30%
 
@Don
Danke für den Test, wird immer besser (y)

Selbst wenn man nicht in 720p spielt, hat man doch in einigen Jahren, wenn die Anforderungen an den Prozessor in Spielen zunehmen, mehr Bildrate ;)
Also vorausgesetzt man wechselt nicht das komplette Setup in bereits 2 -3 Jahren.
Und limitiert auf 125 W ist der 10-Kerner doch dar gar nicht verkehrt. 10 % weniger Leistung hier und da - in Spielen gar 0 % - ist vernachlässigbar.

Stimme def zu: Die Spiele in 720p testen ist sinnvoller.
Dann fällt halt 1080p weg. Hat man direkt eine Übersicht über die zukünftige und derzetige Leistung in Spielen.

Mit 1440p ne CPU testen ist echt mehr als sinnbefreit.
Dann schau dir doch die 1080p Werte an ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh