In Spielen König, sonst eher ein kleiner Prinz: Intel Core i5-10600K und Core i9-10900K im Test

Ich sehe nicht gerne, wie eine CPU anstatt 120 dann 140Fps packt. Oder anstatt 180 zu 250. Das sagt mir, die CPU ist lahmer. Und dann? Reicht das als Aussage? Meines Errachtens nicht. Ich will vor allem die min FPS auch in höheren Auflösungen sehen. Wenn da alles passt, gut.
Andererseits nur Tests in 4k bringen auch nichts, da hier einige CPUs extrem nah beieinander liegen. Aber wie auch immer, gibt ja immer genug Tests im Internet um absolut ALLES abzudecken. Da kann sich jeder die nötigen Infos raussuchen und entscheiden.
Ich entscheide mich nicht nur wegen eines Testberichts, in dem in 720p der 3900x z.B. 30% hinter dem 9900/10900 liegt. Und dann auch nur in 1-2 Spielen oder so. Alles nicht ausreichend.

Ich glaube, du solltest dir zuallererst bewusst machen, dass sich weder die von der CPU bereitgestellten Min. FPS noch die Avg. FPS, Max. FPS oder Frametimes in irgendeiner Form mit steigender oder sinkender Auflösung ändern.

Ebensowenig liegen CPUs in hohen Auflösungen näher beieinander als in niedrigen.

Die CPU-FPS bleiben über alle Auflösungen fast exakt dieselben. Schafft der 3900X in 720p im Minimum 100 FPS, schafft er dies auch in 4K. Und schafft der 9900K in Full HD 130, schafft er das auch in WQHD.

Was du mit der "Annäherung" der CPUs in hohen Auflösungen beschreibst ist nichts anderes als das Erreichen des GPU-Limits bei einer niedrigeren FPS-Zahl als das CPU-Limit.

Die CPUs miteinander zu vergleichen, während ein GPU-Limit vorliegt, ist daher nullkommanull zielführend und bietet keine echte Vergleichbarkeit.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das mit der Transistordichte hätte ich gern mal belegt, das scheint schon seit 20 Jahren nur als Marketing Gag genutzt.

Rein logisch kann die Dichte nicht höher sein, wenn AMD die größeren Technischen Daten hat, but just my 2 cent!


Quelle: https://www.extremetech.com/computi...hrones-intel-and-takes-the-semiconductor-lead

Ja seit 20 Jahren dürfen sich AMD Mitarbeiter und Anhänger anhören was für ein Schrott Hardware AMD ist.
Das hier und da mal einem der Kragen platzt, finde ich nur Menschlich. ;)
Fanboys eben.
Liebe Grüße aus dem Hardwarelabs btw :d...


Wen interessiert bei >8 Core CPUs eigentlich Cinebench Singlethread?

Die Spiele sind ja auch so eine Sache, während es bei den avg. FPS noch ein bisserl (kaum relevante) Unterschiede gibt (was interessiert mich denn ob 160 oder 200fps auf FHD?), sind die min FPS noch weniger auseinander, gerade 3700X und 3800X sind da schön stabil.
Man findet, wenn man sucht, schon das ein oder andere, wo der Intel im relevanten Bereich schneller ist. Ob man dafür die restlichen Nachteile in Kauf nehmen will?

Ich erinnere, für den Intel braucht es eine weit aufwendigere Kühllösung, ein dickeres Netzteil und lauter/wärmer ist das Teil auch (und kostet noch dazu mehr Strom, wobei das weniger die Rolle spielen dürfte). Im Multithreading ist das Ding langsamer.
Ich sehe momentan keinen Grund, mir einen Intel ans Bein zu binden. Weder einen 115x, noch einen 2066.
Auch für Gaming nicht. Die Hauptlast trägt die Grafikkarte, die CPU darf nur nicht einschränken.

Interessant: Richtig abkacken tut nur der 7700K im Shadow of the Tomb Raider FHD, während der R5 2600 hier deutlich vorne liegt, R7 2700X ohnehin, der R7 1700X wäre noch interessant in dem Zusammenhang. Dies lässt vermuten, dass in CPU-lastigeren Spielen diese Singlethread-Wunder nichts bringen, die neuen 10core sind von den minFPS her ja auch nicht vor den 3900X/3950X, ein 3700X/3800X verhält sich akzeptabel.

Tja und in 3 Jahren wird ein 3900X besser dastehen als ein 10xxxK, die übrigen Komponenten werden weniger thermischen Verschleiß haben (na was denkt ihr, was die Mosfets machen, wenn sie mit einer Wakü 250W in die CPU ballern, Top-Blow Kühler sind unterschätzt, sinnvoll platzierte Blowholes bei Wakü essentiell), und ein paar kWh hat man sich dann auch gespart. Und leiser war der Rechner auch 3 Jahre lang.

3570K hier, ich sage jetzt schon Ryzen 2 eine ähnliche Stabilität wie Sandy/Ivy nach.
Aufrüsten wird bei einem 3900X/10900K erst Sinn machen, wenn CPUs im Preisbereich von ca. 300€ >150% der Leistung haben, zuvor ist es Hobby und keine Sinnhaftigkeit/Notwendigkeit.
Der 3900X wird in Zukunft noch wachsen dem 10900K gegenüber, weil zukünftige Anwendungen noch multithreadiger sein werden, bestimmt.
Am Vergleich 1700X vs 7700K sieht man, wo das hingelaufen ist. Gestern war der 7700K noch die Gamer-Empfehlung, heute ist er ähnlich nützlich wie ein Sandy/Ivy. Der 1700X stinkt zwar im Singlecore etwas, aber 8C16T bei moderatem Verbrauch machen eine solide Alltags-CPU daraus mit der man ausreichend gut zocken kann (die Leistung kommt von der Grafikkarte), dazu könnte man den 1700X ja durch was moderneres ersetzen ohne Mainboard, Ram und Kühler anrühren zu müssen. Ist doch nett.


Alternativen:
Man kann also den 3900X als deutliche bessere Gesamtlösung nehmen (ist ja auch fast überall schneller, ausser bei der Cherry-Picks).
Einen 3700X/3800X als günstigere, kaum schlechtere Alternative. Immerhin spart man sich den Kühler, der Wraith Prism ist ja nicht schlecht, für die 8 Cores tut es das. Das Leben kann so einfach sein.
Oder den 3950X, wenn das Geld nicht die Rolle spielt. Ich mein hey, für eine Hand voll Euros mehr putzt man damit noch den ganzen 2066 samt XE weg, was will man mehr? Ein paar Singlethread FPS?

tl,dr:
Eine AM4 Plattform scheint mir momentan also in jeder Hinsicht die bessere Lösung zu sein, Leistung (3950X), Quality-Budget (3700X mit Wraith), und Balance (3900X).
(Ich bin kein Fanboy, zudem habe ich eine reine Intel Historie: Katmai 450mhz, Northwood 2400 C1, 2800 M0, E8400, 3570K)


PS: Die Intel-Fanboys könnten ja ein Paypal-Spendenkonto für Intel einrichten, dann würden sie sich die downtime bei jedem Plattformwechsel sparen, und ihr Geld trotzdem los werden.
 
Und du bist dann wohl kein Fanboy? Dein Text verrät Dich nur leider :haha:
 
Nein, Kiddo, Dinge die funktionieren überzeugen eben. Ohne dich näher zu kennen denke ich nicht, dass du viel Plan von irgendwas hast, technisch nicht, und sozialphilosophisch nicht.

Anhand meiner Systemhistorie würde ich sagen, dass ich meine Systeme (für einen Nerd) überdurchschnittlich lange betrieben habe, und (auch im Rückblick) durchaus eine Einschätzung von dem habe, was längerfristig sinnvoll ist, und was nicht.

- Seinerzeit war der Northwood die "bessere" Lösung als der TbredB/Barton, der Speichercontroller war weit besser, die Chipsets gut, die Boards hatten vernünftigere Ausstattung (und mit einer brauchbaren Grafikkarte und 2gb RAM hat das Ding dann auch bis zum E8400 durchgehalten, zu dem hat man den M0 ja übel clocken können).
- Der E8400 war eine gute Lösung, da zu dieser Zeit eine hohe Singlethreadleistung wichtig war, war es doch noch hauptsächlich Legacy-Code aus der Singlecorezeit, der verarbeitet wurde.
- Sandy/Ivy waren zu ihrer Zeit ebenfalls sinnvoll, und haben bis zum Erscheinen vom 8700K und 1700X durchgehalten (der i7 besser, der i5 schlechter, obwohl sie zum Zeitpunkt ihres Erscheinens gleich auf waren, 2011 hat HT niemanden interessiert) ohne einzuschränken, in keinem Szenario gewinnt ein 7700K ernsthaft Land gegen einen Sandy/Ivy.

Dann habe ich einen 1700X "Fremdbuild" gemacht, sonst gab es noch den 7700K zur Wahl. Vor 2 Jahren war es nicht so einfach, ihm zu erklären, warum ein 1700X besser sein sollte als ein hoch gelobter 7700K. Heute ist er froh 8 Cores statt 4 zu haben, in dem Wissen, dass das noch ein paar Jährchen ausreichen wird.
Ich fand auch den 8700K als bessere Lösung, verglichen mit dem 1700X/1800X. Zen+ war für mich eine Sache, wo es ein gewisses unentschieden gegeben hat, ich hätte mir schwer getan, mich zu entscheiden.

Bei Zen 2 fällt die Entscheidung aber nicht schwer, ich hätte hier Richtung S2066 geschielt, welcher vom 3950X aber egalisiert wird (bis auf ein paar Nieschenanwendungen, die für mich und viele andere nicht relevant sind).
 
Was sind denn größere technische Daten?

100.76MTr/mm2 gegen 91.2MTr/mm2 heißt es aktuell. Nachzählen werd ich die aber jetzt nicht :fresse2: Als Marketing seh ich da eher die nm-Zahlen.

Den Artikel hab ich jetzt nur überfolgen, aber was genau hat das jetzt mit der Transistordichte zu tun?
Ah der kleine Prinz will wieder Ballet tanzen?

Bitte, einfach mal die Technischen Daten Vergleichen, was soll daran so schwer sein?

L1, L2, L3 Cache ?
RAM Takt @ stock
IMC @ Safe Mode ?

Kerne, Lithographie?
PCI-Express ?.0.?

What else?
Ah, one moment please... Instruction Sets
 
Leider falsch die Pins der 10000 Serie werden nicht genutzt.

Intel 10000 Serie hätte auf Z390 gelaufen ohne diese Änderungen.
Die Pinanzahl an sich ist nicht entscheidend. Und vor allem, wo soll der der8auer das is deinem als Quelle geposteten Video gesagt haben ?
Die zusätzlichen Pins und PCIE 4.0 sind sehr wahrscheinlich für kommende CPUs, das weiß jeder Clown.
Zitieren wir doch weiter:


Geilo!
Ohne die offiziell von Intels gesetzten PL-Limits. Du sprachst davon Intel würde die TDP verlassen, Intel hat offiziell auch gar nichts dazu gesagt bisher. PL2 bei AVX und Turbo ist das ziemlich normal, ist schlicht das Verhalten von K CPUs nicht F. Du weist bei Post 2 gar nicht mehr was du im in Post 1 gepostet hast.

Fanboys eben.
Liebe Grüße aus dem Hardwarelabs btw :d...


Wen interessiert bei >8 Core CPUs eigentlich Cinebench Singlethread?

Die Spiele sind ja auch so eine Sache, während es bei den avg. FPS noch ein bisserl (kaum relevante) Unterschiede gibt (was interessiert mich denn ob 160 oder 200fps auf FHD?), sind die min FPS noch weniger auseinander, gerade 3700X und 3800X sind da schön stabil.
Man findet, wenn man sucht, schon das ein oder andere, wo der Intel im relevanten Bereich schneller ist. Ob man dafür die restlichen Nachteile in Kauf nehmen will?

Ich erinnere, für den Intel braucht es eine weit aufwendigere Kühllösung, ein dickeres Netzteil und lauter/wärmer ist das Teil auch (und kostet noch dazu mehr Strom, wobei das weniger die Rolle spielen dürfte). Im Multithreading ist das Ding langsamer.
Ich sehe momentan keinen Grund, mir einen Intel ans Bein zu binden. Weder einen 115x, noch einen 2066.
Auch für Gaming nicht. Die Hauptlast trägt die Grafikkarte, die CPU darf nur nicht einschränken.

Interessant: Richtig abkacken tut nur der 7700K im Shadow of the Tomb Raider FHD, während der R5 2600 hier deutlich vorne liegt, R7 2700X ohnehin, der R7 1700X wäre noch interessant in dem Zusammenhang. Dies lässt vermuten, dass in CPU-lastigeren Spielen diese Singlethread-Wunder nichts bringen, die neuen 10core sind von den minFPS her ja auch nicht vor den 3900X/3950X, ein 3700X/3800X verhält sich akzeptabel.

Tja und in 3 Jahren wird ein 3900X besser dastehen als ein 10xxxK, die übrigen Komponenten werden weniger thermischen Verschleiß haben (na was denkt ihr, was die Mosfets machen, wenn sie mit einer Wakü 250W in die CPU ballern, Top-Blow Kühler sind unterschätzt, sinnvoll platzierte Blowholes bei Wakü essentiell), und ein paar kWh hat man sich dann auch gespart. Und leiser war der Rechner auch 3 Jahre lang.

3570K hier, ich sage jetzt schon Ryzen 2 eine ähnliche Stabilität wie Sandy/Ivy nach.
Aufrüsten wird bei einem 3900X/10900K erst Sinn machen, wenn CPUs im Preisbereich von ca. 300€ >150% der Leistung haben, zuvor ist es Hobby und keine Sinnhaftigkeit/Notwendigkeit.
Der 3900X wird in Zukunft noch wachsen dem 10900K gegenüber, weil zukünftige Anwendungen noch multithreadiger sein werden, bestimmt.
Am Vergleich 1700X vs 7700K sieht man, wo das hingelaufen ist. Gestern war der 7700K noch die Gamer-Empfehlung, heute ist er ähnlich nützlich wie ein Sandy/Ivy. Der 1700X stinkt zwar im Singlecore etwas, aber 8C16T bei moderatem Verbrauch machen eine solide Alltags-CPU daraus mit der man ausreichend gut zocken kann (die Leistung kommt von der Grafikkarte), dazu könnte man den 1700X ja durch was moderneres ersetzen ohne Mainboard, Ram und Kühler anrühren zu müssen. Ist doch nett.


Alternativen:
Man kann also den 3900X als deutliche bessere Gesamtlösung nehmen (ist ja auch fast überall schneller, ausser bei der Cherry-Picks).
Einen 3700X/3800X als günstigere, kaum schlechtere Alternative. Immerhin spart man sich den Kühler, der Wraith Prism ist ja nicht schlecht, für die 8 Cores tut es das. Das Leben kann so einfach sein.
Oder den 3950X, wenn das Geld nicht die Rolle spielt. Ich mein hey, für eine Hand voll Euros mehr putzt man damit noch den ganzen 2066 samt XE weg, was will man mehr? Ein paar Singlethread FPS?

tl,dr:
Eine AM4 Plattform scheint mir momentan also in jeder Hinsicht die bessere Lösung zu sein, Leistung (3950X), Quality-Budget (3700X mit Wraith), und Balance (3900X).
(Ich bin kein Fanboy, zudem habe ich eine reine Intel Historie: Katmai 450mhz, Northwood 2400 C1, 2800 M0, E8400, 3570K)


PS: Die Intel-Fanboys könnten ja ein Paypal-Spendenkonto für Intel einrichten, dann würden sie sich die downtime bei jedem Plattformwechsel sparen, und ihr Geld trotzdem los werden.
Mein Beileid an die AMD Community.
 
Sonst komm ich vorbei, und dann gibts pwnbert vom unpolitischen Punk alter Schule. Würd ja gerne zitieren, aber das wurde dann doch zensuriert.
Man hält sich halt auch gern für den Nabel der Welt.
 
Und du bist dann wohl kein Fanboy? Dein Text verrät Dich nur leider :haha:
Ist hier nicht jeder der nicht pro Intel schreibt ein Fanboy!!?? Ich möchte garnicht wissen, was in einem AMD Fred von den blauen kommen würde, wenn Intel schon seit Jahren bei 12/7nm wäre und AMD bei 15nm!!:coffee:
Und man kann es sich noch so schönreden............alte Technik bleibt alte Technik. Und wieviele Jahre wurde über den Stromverbrauch bei AMD lamentiert!!?? :bigok:
 
Bei den K Modellen ist alles dokumentiert für die Boardpartner, trotzdem drehen sie am Baseclock usw.:geek:.
Bei Intel PL liegen 65 Watt an und er taktet runter,

Haha! Als ob ich es gewusst hätte. :d

Intel gibt den Mobo-Herstellern freie Hand, wie viel TDP sie an die CPUs anlegen. Also wie ich schrieb: Intels letzte Verzweiflungstat, um AMDs Ryzen möglichst lange auf Abstand zu halten. Stromverbrauch? Interessiert bei Intel niemanden mehr. Wir brauchen MEHR POWER! :lol:

Und bessere Kühler. 210 ist das neue 65. :fresse:

Netburst 2.0
 
@fortunes
genau das wollte ich auch grade posten =)
 
Ein i5-10400 mit günstigem B-Board wäre für die Gamer sicher interessant gewesen aber so ist ein 3600er mit B550 attraktiver.

Warum macht Intel sowas oder geht man davon aus, dass alle bereit sind auf die teuren Z Boards zu setzen?
 
Intel gibt den Mobo-Herstellern freie Hand, wie viel TDP sie an die CPUs anlegen.
Das lässt sich doch auch manuell runter konfigurieren ? Aber stimmt, du brauchtest ja jetzt unbedingt deine 10s Aufmerksamkeit...

Also wie ich schrieb: Intels letzte Verzweiflungstat, um AMDs Ryzen möglichst lange auf Abstand zu halten.
Warum ist diese Erkenntnis jetzt eine Weltneuheit ?
AMD brauchte fast 3 Jahre für einen (Singlethread-)Vorsprung auf Skylake.
Den unzähligen Hypetrains zufolge müsste Ryzen ja längst auch in Spielen mindestens 50 % vorne liegen :fresse:

Davon ist er noch weit entfernt, damals hatte Intel auch schon längst die Gamingkrone aufgeben müssen.
 
Zuletzt bearbeitet:
Jawoll, "Gamingkrone"!!

Und dazu noch einen Gruß eines AMD Epyc Users, der eigendlich wissen müsste, das CPUs auch noch andere Sachen können.

Das zum Thema "10s Aufmerksamkeit"!!:coffee:
 
Heißt das eigentlich auch das XPM nicht mehr gehen wird?
 
Das lässt sich doch auch manuell runter konfigurieren ?
Also liegt jetzt jeder boxed-CPU eine Anleitung anbei, wie man den Kühler im BIOS leiser stellt?

Davon ist er noch weit entfernt, damals hatte Intel auch schon längst die Gamingkrone aufgeben müssen.
Und Intel steht mit Zen3 wieder kurz davor, diesen Moment zu erneuern. Renoir zeigt bereits, was Zen2 mit Optimierungen auf dem Kasten hat.


Bei Anwendungen wird Intel förmlich rasiert, bei Games hat AMD das deutlich bessere FPS/MHz-Verhältnis:


Und wenn Vermeer jetzt eben solche Optimierungen erfährt, wovon man ausgehen kann, und dazu der Takt passt, verliert Intel im Laufe diesen Jahres die Gamer-Krone.

Daher die Brechstange bei Intel im Mittelfeld. In "froher Erwartung" von Zen3.
 
Ich stehe aktuell tatsächlich vor der Entscheidung mal upzugraden, der 3930k bremst die RTX 2080ti eben doch ein wenig aus.

Daran ist ja auch abzulesen dass ich meine CPUs recht lang behalte, die GPUs werden eher mal alle 2-4 Jahre getauscht. Bei den GPUs tut sich einfach am meisten und sie sind am relevantesten für die Gamingperformance.

Seitdem es Multicore CPUs gibt bin ich mit der Anzahl der Cores schon immer ein wenig höher gegangen als es zum jeweiligen Zeitpunkt für Gaming zwingend erforderlich schien.
Statt zum Core2Duo E8400 griff ich zum Core2Quad Q9550. Gerade zu Zeiten als die CPUs noch keinen Turbo kannten (und ich nicht übertaktet habe) schien das ein wenig bescheuert, ich hatte die CPU aber > 5 Jahre lang und danach noch in meiner Zweitkiste. Die knapp 200 MHz weniger Takt gegenüber dem E8400 haben mir nie weh getan, mittel- bis langfristig war ich aber froh mehr als 2 Kerne zu haben.

Beim 3930k war's ähnlich. Im Mainstream gab's 4 Kerne, ich kaufte 6. Sicherlich wirtschaftlich nicht sinnvoll aber die CPU habe ich heute noch.

Nächster Schritt aus heutiger Sicht könnte ein 10900k oder ein 3900X sein. Um die Kühlung mach ich mir wenig Sorgen, 2 Cores hin oder her geschenkt. Maximale Multithreading Performance ist weniger releant, beim zocken ist die CPU Last ja auch eher asymmetrisch, sprich der ein oder andere Core klebt auf Anschlag, einige haben was zu tun aber noch Luft und ein Teil liegt brach. Ausschlaggebend dürfte da letztendlich eher das Preis-Leistungsverhältnis sein sowie insgesamt die Zukunftssicherheit der Schnittstellen und da ist AMD vorne, dank PCIe 4.0.
Ob ich in das Board später mal mit einer dickeren CPU bestücken kann ist mir dabei tatsächlich egal da meine Systeme die Zeitfenster in denen sowas sinnvoll wäre idr. deutlich überleben.

Letztendlich bleibt noch festzuhalten dass man auch CPUs gerne nach Geschmack kaufen kann. Nur bitte dann nicht mit an den Haaren herbeigezogener technischer Argumentation rechtfertigen. Die wenigsten Entscheidungen werden ausschließlich anhand objektiver Entscheidungsgrundlagen getroffen und das ist bei Anschaffungen im privaten Bereich auch nicht unbedingt ein Problem.

EDIT:
Aktuell hoffe ich ja dass von AMD recht bald was neues kommt wo ich dann ruhigen Gewissens zugreifen kann. Mal sehen ob ich das noch abwarten kann.
 
Also liegt jetzt jeder boxed-CPU eine Anleitung anbei, wie man den Kühler im BIOS leiser stellt?

Legen denn die Mainboard Hersteller Anleitungen dazu, wie man solche Geschichten wie "Asus Performance Enhancement" manuell aktiviert, um überhaupt auf diese 210W zu kommen?
Ja, vermeintlich schon. Dieser Anleitung kann man dann auch gleichzeitig entnehmen, wie man die Lüfter konfigurieren kann.


Und Intel steht mit Zen3 wieder kurz davor, diesen Moment zu erneuern. Renoir zeigt bereits, was Zen2 mit Optimierungen auf dem Kasten hat.

Nur das Zen3 gegen Rocket Lake antritt. Wieso sollte man die zukünftigen Optimierungen bei Intel ignorieren und bei AMD darauf warten?
Ergibt nicht sonderlich viel Sinn. Genau wie dein Cherrypicking oder Notebookvergleiche, obwohl es hier um Hardware für den Desktop geht... :stupid:
 
Das lässt sich doch auch manuell runter konfigurieren ? Aber stimmt, du brauchtest ja jetzt unbedingt deine 10s Aufmerksamkeit...

Sorry, wenn schon, dann sollte man den TDP-Wert manuell hochsetzen können. Im Auslieferungszustand des Boards sollte die CPU nach den Specs laufen.
Darum heisst der Default auch Default und nicht, sieh selber zu wie Du die Kiste kühler und leiser kriegst.
Oder glaubst Du der Standardanwender, der einfach nur ein lauffähiges System haben will, sucht in den Einstellungen nach den eigentlich vergesehenen TDP-Einstellungswerten?
Die freigegebenen TDP-Werte sind eigentlich die Einstellungen für die Hardcore-User, und die sollten doch in der Lage sein, das selber hinzubekommen, oder? Zumindest behaupten
es diese gerne von sich. Sollte also im Gegensatz zu dem 0815-User, eine nehmbare Hürde für sie sein

Cunhell
 
Rocket Lake wird aber nicht viel verändern, da es schlicht ein weiterer 14-nm-Backport von Ice Lake ist aber immerhin wird gen4 dabei sein.
Erst mit Tiger Lake in 10nm wird Intel wieder was interessantes haben, dieses Jahr jedoch wird Zen3 gehören, das muss man kein Prophet sein. :)
 
Naja für Leute die vehement AMD meiden ist alles von Intel interessant.
Ist zwar keine gesunde Einstellung aber who cares.
 
Rocket Lake wird aber nicht viel verändern, da es schlicht ein weiterer 14-nm-Backport von Ice Lake ist aber immerhin wird gen4 dabei sein...

Welche 14nm-Backports gibt es denn schon bei Intel-Desktop-CPU und was bedeutet nicht viel verändern?
Beitrag automatisch zusammengeführt:

Sorry, wenn schon, dann sollte man den TDP-Wert manuell hochsetzen können. Im Auslieferungszustand des Boards sollte die CPU nach den Specs laufen.
Darum heisst der Default auch Default und nicht, sieh selber zu wie Du die Kiste kühler und leiser kriegst.
Oder glaubst Du der Standardanwender, der einfach nur ein lauffähiges System haben will, sucht in den Einstellungen nach den eigentlich vergesehenen TDP-Einstellungswerten?

Dass Boards von Retailherstellern, wie Asus, Gigabyte usw., von Haus aus übertakten ist schon seit Jahrzehnten üblich und zigfach in Reviews thematisiert. Dass man bei solchen Boards selbst Hand anlegen muss, um konservative Defaulteinstellungen von CPU und RAM zu realisieren, gehört zum voraussetzbaren Grundwissen. Dass insbesondere Käufer von Z-Boards davon überrascht wären, ist wenig glaubwürdig.
 
Welche 14nm-Backports gibt es denn schon bei Intel-Desktop-CPU und was bedeutet nicht viel verändern?

Stimmt da muss ich mich korrigieren, Rocket Lake soll ja eine neue Architektur in 14 nm werden.
 
Wird Intel RocketLake rechtzeitig gegen Zen3 auf die Beine bekommen? Renoir zeigt eindeutig, wo die Reise hingeht.

Bei Intel haben wir nur mehr FPS durch mehr TDP.

Sonst nix.
 
Wird Intel RocketLake rechtzeitig gegen Zen3 auf die Beine bekommen?

Nein, deswegen hatte ich doch oben gesagt, dass Intel dieses Jahr am prospektiven Erfolg von Zen3 nichts verändern wird.
 
Achtung................Oberlehrer Alarm!

:popcorn:
 
Rocket Lake wird aber nicht viel verändern, da es schlicht ein weiterer 14-nm-Backport von Ice Lake ist aber immerhin wird gen4 dabei sein.
Erst mit Tiger Lake in 10nm wird Intel wieder was interessantes haben, dieses Jahr jedoch wird Zen3 gehören, das muss man kein Prophet sein. :)

Nein, deswegen hatte ich doch oben gesagt, dass Intel dieses Jahr am prospektiven Erfolg von Zen3 nichts verändern wird.

Haben dir diese Informationen deine ach so tollen Insider gesteckt? :banana:
 
Hört doch mal auf so frustriert zu sein und versucht euch zu freuen, dass es wieder eine Vollalternative im CPU Bereich gibt und das nicht nur für Gamer. ;)
Die Situation ist gut für uns Alle. :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh