Zügellos bei 6 GHz und mehr: Intels Core i9-13900KS im Test

Für amd wäre es schon wichtig mal wieder Punkten zu können, denn intel bringt ja dieses noch den RPL Refresh.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don
Ich bin gerade nicht sicher wo ich es aufgeschnappt habe, aber angeblich ist der 13900ks unter anderem auf seinen RAM Controller selektiert.
Also falls du deine Finger an ein z790 kingpin bekommen solltest (oder ein Board ähnlicher güte, Apex oder so) und Mal testen willst was geht... Da könnte gerüchteweise einiges gehen.
Naja ein errechneter Wert ist kein Anhaltspunkt...
Aber die KS haben dennoch die besseren RAM Controller?
Aus dem Wert ein kategorisches nein zu machen empfinde ICH als voreilig.
Evtl ist der Wert einfach wertlos?
🧐
Aja, einen detailierten Einblick zu dieser Thematik wirst du wohl kaum finden, der KS wird sehr wahrscheinlich auch nicht nach IMC gebinnt seitens Intel. Ich kann mir bei den Preisen mittlerweile vorstellen das gewisse Bretter immer noch gebinnt werden und Tester und Influencer die guten bekommen und der Endkunde den Abfall wie Asus beim Apex beispielsweise :fresse: . Daher Ergebnisse immer mit Vorsicht genießen.

Dem ist auch so bzw. allgemein skalieren sie hier besser. Danach findet aber nicht das Binning statt soviel ich weiß. Ich habe hier ein DDR5-7200 Kit welches nicht viel höher als 7.400 MT/s bei straffen Timings gehen wollte mit dem Core i9-13900K. Mit dem Core i9-13900KS habe ich direkt mit 7.600 und später mit 7.800 MT/s starten können auf dem ASUS ROG Maximus Z790 Apex. Wieder zurück auf dem Core i9-13900K wollte er dann selbst DDR5-7400 nicht mehr starten. Da muss ich die CPU wohl noch einmal neu in den Sockel setzen.

Aber ja, für den IMC ist klar ein Unterschied zwischen dem K und KS zu erkennen.
Jop. Wenn er bei dir nicht mehr startet würde ich mich erbarmen und ihn dir gerne abnehmen 😘.

Jeder Bereich des Chips leitet wahrscheinlich noch einen Tick besser und wird immer noch Schwankungen haben. Signalqualität bzw. Noise limitieren eher die jeweilige maximale Frequenz, wobei mehr Spannung nicht immer besser ist das müsstest du eigentlich auch festgestellt haben, es gibt gewisse Kombination die haben einen "magischen" Wert(VDDQ beispielsweise), wenn man den trifft ist es sehr zeitaufwendig bis unmöglich sich zu steigern für die jeweilige CPU/Mobo/Temperatur Kombination.
 
Die Diskussion ist uralt. GPU testet man im GPU Limit, CPUs im CPU Limit.

Und jedesmal kommen Leute, die sagen, "das ist in realistischen Einstellungen doch irrelevant".

Aber darum geht es nicht. Es geht immer darum, was die CPU oder GPU alleine leistet, nicht im Zusammenspiel mit anderer Hardware. Denn nur so lässt sich eine Aussage darüber treffen, wie die CPU oder GPU auch im Grenzfall performt, denn auch bei "realistischen Einstellungen" kann mal ein Grenzfall erreicht werden, wenn z.B. die CPU doch mal ins Limit läuft. Ist gar nicht sooo selten.
 
Oh man. In einem Test des KS soll die Leistungsfähigkeit des KS getestet werden und nicht die der 3090TI. Den möglichen Einfluss einer 4090 mit dem angeblich nicht vorhandenen Einfluss einer 3090TI zu begründen ist also schizo.
An sich ja, aber dann weiß ich nicht warum man die Grakas ins Gespräch bringt... (jetzt mal im Gegensatz zu AIO).
 
Es ging eher darum ob einem KS zwingend eine 4090 zur Seite gestellt werden müsse in entsprechenden 3D Benchmarks. Ist die GPU nicht stark genug einzelne Threads zum Kollaps zu bringen weiß man nicht was im Grenzfall passierend wird, dafür wurden die CPU Spieletests in niedriger Auflösung ursprünglich gemacht.
 
Die Diskussion ist uralt. GPU testet man im GPU Limit, CPUs im CPU Limit.

Und jedesmal kommen Leute, die sagen, "das ist in realistischen Einstellungen doch irrelevant".

Aber darum geht es nicht. Es geht immer darum, was die CPU oder GPU alleine leistet, nicht im Zusammenspiel mit anderer Hardware.
Aber miteinander vielleicht? :sneaky:
Ist das nicht ein bisschen... schwierig, sich für Benches interessieren zu sollen die halt kaum was mit realistischen Setups zu tun haben? Was sagen die realistisches aus?
Sprich, Beschleunigungswerte von Autos sollte man mit DIN-normierten Spezialfelgen ähnlich dem Zahnradbahn_prinzip gestalten. Da hätte man nicht den Einfluss von Reifen und Asphalt, sondern wüsste ganz genau wie schnell das Auto selbst beschleunigen kann. So in etwa? :sneaky:

"Kronen" sind das Uninteressanteste schlechthin und bedienen nur Forenblasen. Forenblasen sollen dann Tamtam machen, die der weniger Bedarfte anschließend recherchiert (angeblich, PR-Journalie gibt es ja auch noch) und danach irgendwas entscheidet. Ja. Klar.

@Infi88
Ja in 3D-Benchmarks ist das natürlich klar ein Punkt, aber in diesen kann man bei weiterhin beständig kleinen Auflösungen bleiben. Oder nicht?
 
Zuletzt bearbeitet:
Ist das nicht ein bisschen... schwierig, sich für Benches interessieren zu sollen die halt kaum was mit realistischen Setups zu tun haben? Was sagen die realistisches aus?
Es gibt viel zu viele Kombinationsmöglichkeiten um für alle eine Aussage machen zu können.

Wenn Du wissen willst, wie Deine Hardware performt, schaust Du in die Benchmarks von der CPU und GPU, die Dich interessiert, und nimmst den jeweils kleineren (schlechteren) Wert. Das ist die beste Annäherung. Oder Du musst die konkreten Spieletests heranziehen, wo eine ganze Matrix an HW getestet wird.
 
Es gibt viel zu viele Kombinationsmöglichkeiten um für alle eine Aussage machen zu können.
Check. Deswegen macht man lieber welche, die mit keiner Kombi so wirklich was zu tun haben?

Wenn Du wissen willst, wie Deine Hardware performt, schaust Du in die Benchmarks von der CPU und GPU, die Dich interessiert, und nimmst den jeweils kleineren (schlechteren) Wert. Das ist die beste Annäherung. Oder Du musst die konkreten Spieletests heranziehen, wo eine ganze Matrix an HW getestet wird.
Ja, das läuft dann auf Systemtest hinaus. Nicht auf GPU-Tests oder CPU-Tests....
 
Um nochmal den Bogen zum Thema zu schließen, auch wenn der KS nicht bei jedem einzelnen zügellose Begeisterung aus löst, ist er dennoch die erste CPU, die 6 GHz nicht nur verspricht sondern auch hält.
Und mit etwas Glück sogar über alle P Cores zumindest für gaming möglich macht.
Ob das am Ende reichen tut, wird man bald sehen können, wenn AMD ihren neuen King of Cache von der Leine lässt.
 
Die Diskussion ist uralt. GPU testet man im GPU Limit, CPUs im CPU Limit.
ja ist schon klar, nur reagiert jedes Spiel anders.

Der 12900k hat in The Riftbreaker
FHD +6,48% Vorspung auf 5800x3D
UHD -1,12% Rückstand
oder auch
FHD 7900 DDR6000 5,63% vor dem 7900 PBO
UHD nur noch 1,3% vorteil und das wohlgemerkt nur mit Standart und RT aus, bringt der 3D mehr leistungsplus wie schneller RAM oder Taktvorteil

CP auch hier nur Detail Hoch und RT Mittel
liegt ein 7900x 3,25% vor einem 5800x3d in 720p
in FHD liegt er 7% inter selbigen

720p ist o.k zum testen aber immer mit max möglicher Qualität eben, denn je nach Game braucht eins eben CPU, RAM, Cach oder GPU Leisung, die maximale Qualität will aber wenn möglich jeder haben egal in welcher Auflösung er untgerwegs ist. Bei einer RTX3090 in 720p auch eingestellt sein kostet es noch soviel Leistung. oder ist der nutzen gleich null.

in Doom einstellung Ultra & RT on liegt der 13900KS
720p 10,26% in den lows for dem 5800x3d
1080p führt der 5800x3d mit 14,11%
 
Zuletzt bearbeitet:
Es geht nicht um praktische Anwendung, sondern die maximale zu erwartende CPU Leistung im Echtzeitrendering aka Drawcells.
 
Praktische Anwendung ist also total unwichtig. Theoretische Leistung zählt nur? Klingt für mich wie über Sex zu philosophieren und wenn man ihn hat, total zu versagen. Manche denken das Leben spielt sich einzig und allein im Reagenzglas ab.
 
Zuletzt bearbeitet:
Beitrag automatisch zusammengeführt:

ja ist schon klar, nur reagiert jedes Spiel anders.
in einem cpu test wird die cpu leistung selbst getestet.

getestet wird nicht wie ein spiel performt oder wie ein gesamtsystem in einem spiel performt. dass müsst ihr wirklich lernen zu trennen
 
Zuletzt bearbeitet:
Und wie viele User gibt es so die nen 2600 oder nen 8700 mit ner 4090 gepaart haben? Dermaßen weltfremd kann man doch gar nicht sein.
 
Praktische Anwendung ist also total unwichtig. Theoretische Leistung zählt nur?
Richtig, denn wen man die CPU mit der höheren theoretischen Leistung nimmt, dann wird die praktische Leistung vermutlich auch besser oder zumindest im Rahmen der Messgenauigkeit gleichgut sein, wenn der Flaschenhals woanders ist. Außerdem ist die Praxis für jeden verschieden, wie will man die also realistisch ermitteln? Wie viele Kombinationen von Hard- und Software sollen denn getestet werden? Am Ende ist dann doch für die meisten doch nicht ihre Kombination dabei.

Aber solche Sprüche kommen eben meist von Leuten die nicht in der Lage sind die Ergebnisse von Benchmark zu interpretieren und dementsprechend die passende Hardware für ihre Anforderungen zusammenzustellen.
 
Mit Verlaub, aber das hat nichts mit weltfremd zu tun sondern mit intellektuellen Problemen der Leute wie dir. Das eine 4090 viel zu rechenstark für gewisse CPU's seien könnte je nach Spiel weißt du doch nur durch solche Tests ♿ .

@Infi88
Ja in 3D-Benchmarks ist das natürlich klar ein Punkt, aber in diesen kann man bei weiterhin beständig kleinen Auflösungen bleiben. Oder nicht?
Ja. Ich bin aber auch nicht der Rechtsbeistand für Don, ob die 3090ti für seine Messungen beim 13900KS in 1080p beispielsweise in Doom Eternal ausreicht kann ich nicht sagen. Ich würde das allgemein etwas anders machen, bin aber ja nur Leser und Kommentator 🧐. Für mich sind die Ergebnisse aber relativ klar interprätierbar.
 
Mit Verlaub, aber das hat nichts mit weltfremd zu tun sondern mit intellektuellen Problemen der Leute wie dir. Das eine 4090 viel zu rechenstark für gewisse CPU's seien könnte je nach Spiel weißt du doch nur durch solche Tests ♿ .

Ist die 4090 zu stark, ist die Monitorauflösung zu klein.
Oder die CPU erfüllt nicht deine Anforderungen.
Aber zu behaupten ne CPU sei zu stark oder zu schwach für eine Grafikkarte ist nicht korrekt.
Die CPU macht ihr Ding. So oder so.
 
Zuletzt bearbeitet:
Lange nicht mehr vom Moderator so getrollt worden 😘. Natürlich gilt eine CPU als zu schwach wenn sie das Potenzial der GPU mindert.

Evtl. kann dir das weiterhelfen; https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/. Daher hat sich diese Testweise sich so etabliert und man ist gezwungen bei CPU Tests das GPU Limit auszuloten und bei GPU Tests das CPU Limit. Nur so bleibt die Leistungfähigkeit des "einzelnen" Prozessors für jede Software in etwa absehbar.

Anforderungen, Meinungen und jede Hardware und Softwarekombination kann man in der Praxis als Produkttester eben unmöglich wissenschaftlich abbilden.
Aber solche Sprüche kommen eben meist von Leuten die nicht in der Lage sind die Ergebnisse von Benchmark zu interpretieren und dementsprechend die passende Hardware für ihre Anforderungen zusammenzustellen.
Leider wahr.

Als Kopfknacker hatte ich persönlich auch abzuwägen den X3D zu ordern oder meinen jetztigen 13700KF, da ich aktuell hauptsächlich Assetto Corsa Competizione konsumiere war festzustellen das der X3D dort eine ziemliche Bestie ist.
Da ich aber ein armer Schlucker bin und mir durch meine Sparco Rennhandschuhe das Geld ausgegangen ist und ich immer noch mit einer RTX 2070 rumgurcke würde dieses performance plus in WQHD und hohen Details mit DLSS komplett ausgefressen werden, daher wurde daraus nichts.

Möchte auch noch betonen das ich hier keine Testkriterien kritisiere, als ich allerdings den 720p Balken bei Doom Eternal beim RTX 4090 Test nicht sah war ich schon schwer getroffen muss ich zugeben, da hätte ich schon gerne gewusst ob noch etwas mehr drin war und man sich mit Mausradtricks durch die Maps glitchen kann :d
 
Lange nicht mehr vom Moderator so getrollt worden 😘. Natürlich gilt eine CPU als zu schwach wenn sie das Potenzial der GPU mindert.
Komisch formuliert. Ist es nicht eher so, dass eine zu schwache CPU das Potenzial einer GPU evtl. nicht abrufen kann? Die CPU hat keinen aktiven Anteil daran, dass es nicht ausgeschöpft wird. Ist ein wenig Wortklauberei, aber wenn du schon Trolling vorwirfst, sollte das Hand und Fuss haben was du von dir gibst.
 
Es hängt doch auch immer vom Spiel ab. Bei einem Spider-Man mit RT kommt man schneller an die Grenzen der CPU, auch mit ner 4090. Bei einem Dead Space eher nicht so schnell.
 
Für amd wäre es schon wichtig mal wieder Punkten zu können, denn intel bringt ja dieses noch den RPL Refresh.
...und zum Refresh erwarte ich ganz einfach noch ´ne Schüppe drauf... und zwar zum 13900KS sonst würde der ganze Refresh wenig Sinn ergeben imho - es sei denn die Stückzahl der KS ist wirklich so limitiert das sie auch greift.
 
Lange nicht mehr vom Moderator so getrollt worden 😘. Natürlich gilt eine CPU als zu schwach wenn sie das Potenzial der GPU mindert.
Oder der Monitor ist zu lahm und limitiert.
Oder dein Kopf ist zu lahm und limitiert und führt zu Schwindel und Übelkeit und Epilepsie.

Noch Mal:
Eine CPU macht ihr Ding. Die rechnet und schickt Daten. Und entweder sind es genug Daten dass deine definieren Ansprüche erfüllt werden, 60/120/240fps 1% low oder 60/120/240fps average oder was auch immer dein Ziel ist.
Entweder sie tut es, oder sie tut es nicht.

Was danach auf der GPU passiert ist extrem abhängig von der Auflösung und der Bildtechnologie. Da hast du mit wenig Aufwand extrem viele Möglichkeiten in dem du dich durch Grafikmenüs klickst und Schieber verstellst.
Was du da verstellen kannst ist zu 90% der Fälle der CPU komplett egal.

Wenn du jetzt ne 4090 an einem 720p/60 Monitor betreibst und weinst dass die CPU limitiert (oder die Spieleengine, kommt inzwischen auch öfters Mal vor) und deswegen die 4090 nicht 95%+ ausgelastet ist, sagt das mehr über den der die Anforderung aufstellt als über die CPU oder den Monitor oder die 4090.

Dann wird eine Anforderung gestellt die zu einer sinnlosen Diskussion führt, so wie die aktuelle.

Evtl. kann dir das weiterhelfen; https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/. Daher hat sich diese Testweise sich so etabliert und man ist gezwungen bei CPU Tests das GPU Limit auszuloten und bei GPU Tests das CPU Limit. Nur so bleibt die Leistungfähigkeit des "einzelnen" Prozessors für jede Software in etwa absehbar.
Jetzt musst du das verlinkte, egal ob von mir oder pcgh, nur noch verstehen und die Transferleistung erbringen. 🤷🏻‍♂️

Zurück zu den Zahlen im Test:
Ist es relevant zu wissen ob eine 3090ti bei 720p im GPU Limit ist?
Ist es relevant zu wissen ob eine 4090 in 720p mehr oder weniger FPS liefern könnte?
Sollte man noch 640x480 testen um zu sehen ob noch mehr FPS rauskommen?
Oder ist mir das einfach egal, weil 14" Bernstein Röhren Monitore mit Auflösung 640x480 seit 50 Jahren verschwunden sind?
 
Zuletzt bearbeitet:
Richtig, denn wen man die CPU mit der höheren theoretischen Leistung nimmt, dann wird die praktische Leistung vermutlich auch besser oder zumindest im Rahmen der Messgenauigkeit gleichgut sein, wenn der Flaschenhals woanders ist.
Ja das stimmt schon. Wenn man Geld ausgibt und sich dadurch nicht verbessern kann, kann man sich dann auch darüber freuen, daß man sich wenigstens nicht verschlechtert hat. Einleuchtend. "Es hätte ja alles noch viel schlimmer kommen können."

:unsure:
 
in einem cpu test wird die cpu leistung selbst getestet.

getestet wird nicht wie ein spiel performt oder wie ein gesamtsystem in einem spiel performt.
Das sehe ich anders, getestet wird die CPU Leistung/Perfomance je Spiel. Jedes Spiel limitiert irgendwann, sei es an CPU, GPU, RAM oder SSD performance, irellevant.
Wenn sowohl Ram, GPU und SSD die selbe config hat ist es ebenso irellevant ob nun in 720p mit min settings oder Max settings getestet wird, für alle die nicht nur die längsten Balken sehen wollen. das einzige was sich ändert ist länge der Balken.

The Riftbreaker sieht hier selbst mit Standard details ohne RT bereits mit der RTX3090 GPU limmitiert aus
FHD ist der 13900KS ~13% vor einem 13600k oder ~26% vor einem 7700x
UHD führt 7700x ~4% vor ~13600k und ~8% vor dem 13900KS

Um den Einfluss der CPU auf die Spiele Leistung einschätzen zu können ist es sinnvoller mit maximalen Details in 720p & 4k zu testen.
Das man sich ein eigenes Bild machen kann. Wenn der 13900KS in 720p max settings und HighEnd GPU bereits ins GPU limit läuft, ist er das mit einer RTX3070 weit vorher schon.
wenn aber selbes GPU limitiertes Game mit einer anderen CPU im vollem GPU limit, jedoch auf einmal aus einem DEUTLICHEM Rückstand einen MESSBAREN Vorsprung macht, ist das Aussagekräftig.
wenn möglich will jeder das Game mit den höchst möglichen Details und Frames spielen.
13900k ist schneller solange ich um CPU limit bin, wenn sich das aber im GPU limit ändert so das aufeinmal die eigentlich langsamere CPU schneller ist, ist das sehr wohl entscheidend.
 
Ich bin dafür dass nur noch synthetische Benchmarks gemacht werden, dann haben wir die ganze kack Diskussion hier nicht mehr.
 
Eine CPU macht ihr Ding. Die rechnet und schickt Daten. Und entweder sind es genug Daten dass deine definieren Ansprüche erfüllt werden, 60/120/240fps 1% low oder 60/120/240fps average oder was auch immer dein Ziel ist.
Entweder sie tut es, oder sie tut es nicht.
eben, meine rede ! wenn aber eine CPU mehr Daten im GPU Liefern kann als die andere ist das relevant.
Zurück zu den Zahlen im Test:
Ist es relevant zu wissen ob eine 3090ti bei 720p im GPU Limit ist?
finde ich schon, denn dann wird eine 4090 in FHD oder spätestens WUHD das ebenso sein.
Die meisten games sind schneller im GPU wie CPU limit. und wenn selbst eine High end Karte das schon bei 720p ist finde ich das zumindest erwähnenswert.

wenn dann in einzelnen Games auf einmal die eigentlich langsamere CPU schneller läuft trotz GPU limit ebenso.
 
Spoileralarm: eine 4090 wird auf 720p nie im GPU Limit landen. Deswegen testet man CPUs auf 720p.
 
Also wenn ich mir die Werte vom 5800X3D anschaue, der fast nur die Hälfte in FullHD säuft und dabei nicht wesentlich langsamer ist, sehe ich da eher AMD im Vorteil. Vom Preis brauchen wir noch nicht mal anfangen zu sprechen. In Anwendungen wird das Ganze wahrscheinlich eher zugunsten Intel gehen. Brechstange halt, wie immer.
Wobei der hohe Idle-Vebrauch bei AMDs Desktop-CPUs leider nach wie vor das Haar in der Suppe ist - 4,3W vs 18,5W beim 5800X3D... je nach Nutzungsmuster kann die Stromrechnung mit AMD dann auch höher ausfallen. Mit ner 4090 und ein bisschen RGB landet man im Idle dann irgendwie schon bei ner lächerlich hohen Leistungsaufnahme (ja, auch ohne Ryzen, aber das machts halt noch schlimmer).

Fairerweise muss man aber natürlich sagen: unter Last beim Zocken fast 50W weniger aus dem Gehäuse pusten zu müssen, ist natürlich schon sehr nett; gerade auch im Sommer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh