• Hallo Gast, aktuell stehen geplante Wartungsarbeiten am Server von Hardwareluxx an. Es könnten ab ca. 0.15 Uhr kurzzeitige Downtimes entstehen.

Intel Core i9-9900K und der Core i7-9700K werden verlötet sein

Der Leak von PC Builders Club bestätigt immerhin, dass auch die größte i9 CPU auf einem Z370 Board läuft. (wenn es denn kein Fake ist).

Das sagt nichts aus, die Leaks zum 8700k waren auch auf einem ASRock Z270 Board, man hat ja gesehen, was da rausgekommen ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Worüber wird hier eigentlich diskutiert (indirekt)? Wie Intel es schaffen will, einen 9900K (8 Kerne, 16 Threads) zu veröffentlichen, der nicht zuviel Strom frisst, oder zu heiß wird? Das mit der Leistungsaufnahme könnte kniffelig werden, aber bei der Temperatur habe ich keine Sorgen. Ohne Zahnpasta wird sich der 9900K schon anständig/kühl verhalten.

Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen (Seite 6) - ComputerBase
Der 8700K wird mit TIM in Prime95 (mit AVX) 71°. Wäre der HS verlötet, könnte man da locker 10° abziehen. Ich könnte mir vorstellen (Spekulatius³), dass ein verlöteter 9900K nur leicht wärmer wird, als ein 8700K mit TIM.

AMD Ryzen 7 2700X, 2700, 5 2600X 2600 im Test (Seite 6) - ComputerBase
Wenn wir schon beim Thema sind. Warum ist ein 2600X ca. 20° wärmer, als ein 1600X?

Zum 2800X usw.:
Ich habe das nicht ausreichend analysiert, aber ich habe das Gefühl, dass der 2600X und der 2700X schon hart am Limit läuft. Der 8700K scheint nicht so sehr an der Grenze des Möglichen zu kratzen. Das sehe ich besonders an den Temperaturen. Der 8700K ist, obwohl mit TIM, kälter, als die verlöteten Ryzen 2xxxX. Keine Ahnung, inwiefern sich das tatsächlich auf mögliche Optimierungen/Selektierung usw. auswirkt.

Wir sind doch selbst Schuld ! Brauchte irgend jemand von uns bis jetzt wirklich mehr Leistung als ein 2600K@4Ghz ?
Nicht jeder spielt nur Tetris am Rechner oder arbeitet mit genügsamer Software. Deine Frage ist seltsam. Z.B. Zum Programmieren und Testen kann die CPU nicht schnell genug sein.
 
AMD Ryzen 7 2700X, 2700, 5 2600X 2600 im Test (Seite 6) - ComputerBase
Wenn wir schon beim Thema sind. Warum ist ein 2600X ca. 20° wärmer, als ein 1600X?

iirc weil Ryzen 1000 Temperatur und den zugehörigen temp offset anders berechnet als Ryzen 2000. Ist zwar dämlich, in beiden Fällen, aber mei. Die Ryzen 1000 haben bei Launch ja auch nen offset drauf gerechnet, irgendwann wurde der offset dann software-seitig entfernt. (auf den cpu sensor geb ich bei meinem 1700 eh nix mehr, ich steuer mittlerweile auf basis des mobo sockel sensors. der macht weniger kunterbunte sprünge und passt gefühlt auch besser zu IR temp messungen an kühler, board, sockel etc.)

Zum 2800X usw.:
Ich habe das nicht ausreichend analysiert, aber ich habe das Gefühl, dass der 2600X und der 2700X schon hart am Limit läuft. Der 8700K scheint nicht so sehr an der Grenze des Möglichen zu kratzen. Das sehe ich besonders an den Temperaturen. Der 8700K ist, obwohl mit TIM, kälter, als die verlöteten Ryzen 2xxxX. Keine Ahnung, inwiefern sich das tatsächlich auf mögliche Optimierungen/Selektierung usw. auswirkt.

2600X und 2700X laufen hart am limit, ähnlich wie 2017 der 1800X auch schon. der 8700k hat mehr luft nach oben.

selektieren kann AMD trotzdem, genau wie Intel es zu 99% auch für den 8086k getan hat. bei AMD bringt die selektion dann halt nicht ganz so viel taktplus wie bei nem selektieren Intel.
aber wie schon mehrfach genannt, bei Ryzen 1000 haben sie auch schon in gewisser form selektiert bzw optimiert, sei es für Zeppelin Rev 2 (Threadripper) oder - subjektiv - für 1800X vs 1700/1700X.
 
Zuletzt bearbeitet:
Die Unterteilung kam gerade erst bei Geizhals, vorher war 1151 Ein Sockel dort ohne Unterscheidung, hab dort ja dauernd reingeguckt.
 
iirc weil Ryzen 1000 Temperatur und den zugehörigen temp offset anders berechnet als Ryzen 2000. Ist zwar dämlich, in beiden Fällen, aber mei. Die Ryzen 1000 haben bei Launch ja auch nen offset drauf gerechnet, irgendwann wurde der offset dann software-seitig entfernt.
AMD Ryzen 7 2700X, 2700, 5 2600X 2600 im Test - ComputerBase
computerbase.de schrieb:
Temperatur-Offset nur noch beim Ryzen 7 2700X
Damit XFR besser greift, hat AMD beim ersten Ryzen in den X-Versionen eine Offset-Temperatur eingebaut, um der Lüftersteuerung eine um 20 °C höhere Temperatur vorzugaukeln. War die CPU eigentlich 60 Grad warm, hat bei einem 20-Grad-Offset wie beim Ryzen 7 1800X die Lüftersteuerung so reagiert als wäre die CPU eigentlich 80 Grad warm, um die CPU für XFR auch weiterhin unter 60 °C zu halten. Bei Ryzen 2000 verzichtet AMD bis auf eine Ausnahme auf dieses Offset: Nur der Ryzen 7 2700X bietet es noch, es wurde allerdings von 20 auf 10 °C halbiert. Die meisten Tools wie HWiNFO wissen bereits über diese Eigenheit und zeigen beide Temperaturen an.

Wegen den Temps vom 1600X:
Ryzen 5 im Test: 1600X, 1600, 1500X und 1400 gegen Core i5 - ComputerBase

Meine Angaben sollten ohne Offset sein.
Also der 2600X läuft mit ca. 4.0XX MHz und erreicht um die 75°C.
Der 1600X läuft mit ca. 3.7XX MHz und erreicht "nur" 55°C.
Der 2600X frisst 24W mehr, als der 1600X. (Prime95 AVX)
Ich gehe auch davon aus, bzw. hoffe mal, dass beide gemessenen Temperaturen unter ähnlichen Bedingungen zustande gekommen sind. Für mich als Hobbynase sieht das komisch aus.
 
hast recht, ist komisch. aber dass 24W gleich 20C ausmachen kann dann irgendwie auch nicht sein, trotz kleinem Boxed...
 
Die Unterteilung kam gerade erst bei Geizhals, vorher war 1151 Ein Sockel dort ohne Unterscheidung, hab dort ja dauernd reingeguckt.

Ach du meinst die Überkategorie, ja die ist neu, aber innerhalb des 1151 gab es davor schon einen Filter zwischen 1151 und 1151 V2.

- - - Updated - - -

Ich glaube CB hat immer noch die furchtbare Messungenauigkeit der schwankenden Raumtemperatur drin, leider geben sie bei CPU Tests nach wie vor kein Delta zum Raum an, bei den Kühlertests schon.
Daher sind die ganzen Temperaturmessungen bei CPU Tests dort für die Katz, keiner weiß wie warm der Raum war.
Dazu sind unterschiedliche Kühler benutzt worden, beim ersten Ryzen Launch der normale kleinere Noctua, beim Ryzen 2XXX der größere 14er, ich weiß auch nicht, wie schnell die Lüfter im Vergleich zueinander gedreht haben, das spielt ja alles recht stark mit rein.
Kann mir aber ehrlich gesagt nicht vorstellen, dass die neuen Ryzen so viel heißer werden, die alten bleiben ja schon echt sehr gut kühl, ich hatte da bei über 220W allein von der CPU mit OC in Prime mit AVX nur ~30K zum Wasser, bei meinem 8600k ist das bei vergleichbarem Verbrauch ein gutes Stück mehr.
Mal sehen wie sich die verlöteten Intel 8 Kerner dagegen positionieren.
 
Zuletzt bearbeitet:
ja und zwar deutlich mehr

mein 6700k schafft in AC:O bei weitem keine 144fps.

selbst ein 8700k nicht.

Das musst ich doch gleichmal überprüfen, es stimmt, es sind keine 144FPS drin mit dem 8700K. Er lief stock 43/40 - 4133

720p max. Details; AA, AO, Tesselation, Schärfentiefe AUS.

HT Off


HT On


Während dem Bench war es immer bei ~100FPS, es waren keine Absacker da, sieht man ja auch auf der FPS-Linie.

Aber bei dem Spiel ist man eigentlich immer im GPU-Limit, wenn man mit normalen Settings spielt.

Edit: Ich hatte zuerst HT off, darum musst ich nochmals benchen, brachte dann mit HT On ca. 20% mehr FPS.

Dann noch ein Auslastungsbild der CPU bei WQHD, Extrem Hoch Setting.
 
Zuletzt bearbeitet von einem Moderator:
Ach, ich hab ja momentan HT aus, fällt mir grad ein, wegen Forza 7, dort is HT hinderlich. In AC O sind sonst auch alle 12 Threads voll ausgelastet, das hat sicher FPS gekostet.

Ich mach HT an und editier den oberen Post dann.
 
Zuletzt bearbeitet von einem Moderator:
Hm hätte mehr erwartet vom 8700K.

Das bekomme ich noch aus meiner CPU ausgespuckt in Alexandria. (Auflösung 1080P)


bild15qeey.jpg



bild2red0f.jpg
 
Zuletzt bearbeitet:
du hast da 95% gpu auslastung und 41% cpu auslastung..
 
Joa das ist schon CPU Limit. Normal sollte die GPU bei 99% liegen .

Das die cpu hingegen nicht auf 100% Auslastung kommt ist sehr positiv .
 
Warum soll das sehr positiv sein?

Bei 100% CPU Auslastung hättest du dann vllt deine 99% GPU Auslastung.

Sicher dass da bei 95% GPU load die CPU limitiert? Reduzier doch mal die Auflösung auf 720p.

Gesendet von meinem SM-G950F mit Tapatalk
 
Selbst mit 10% CPU Load kann ein CPU Limit vorliegen, nämlich genau dann, wenn ein Core auf 100% läuft. CPU Load XY sagt genau gar nichts aus.
 
Das brauchst du mir nicht erklären.. 95% GPU load sind nur eben reichlich nah an der kotzgrenze.

Gesendet von meinem SM-G950F mit Tapatalk
 
Joa kurz 1280x960 getestet.

Joa sind wenige fps mehr und bessere min. FPS.

Wollte nur aufzeigen und wird damit noch bestätigt , dass die olle CPU noch ordentlich wums mit schlappe 4GHZ hat und zumindest bei diesem game scheinbar nicht hinter einem 8700K steht.
Zudem scheinen sich zb. bei diesem Spiel sich acht Kerne durchaus zu lohnen , weil die IPC vom 8700K ist nochmals deutlich besser.

Also 9900K kaufen, weil kann ja dann mittlerweile lohnen , wenn man FPS Jäger ist :d
 
Du hast auf Sehr Niedrig getestet, so kann man keine CPU testen, weil da sämtliche cpu-belastenden Optionen auch runtergeschraubt sind. Aber stimmt schon AC O nutzt jeden verfügbaren Kern/Thread. Aber wir schweifen zu sehr ab.
 
Jo komme mit deinen Settings auf durchschnittlich 121 FPS in Alexandria .

Naja wollte es mal nur testen. Lassen wir mal Back to Topic kommen .
 
Zuletzt bearbeitet:
Solange die GPU unter 99% ist im Afterburner ist man IMMER im CPU Limit da die CPU es nicht schafft die GPU voll auszulasten.
 
So ein Schwachsinn. Mal wieder. Von dir.
 
Meckswell hatte nicht ganz unrecht das es diverse options gibt die dazu führen, dass die CPU noch eher ans Limit kommt .
 
Zuletzt bearbeitet:
Diese Nachricht wird nicht angezeigt, da sich even.de auf deiner Ignorier-Liste befindet.
 
Solange die GPU unter 99% ist im Afterburner ist man IMMER im CPU Limit da die CPU es nicht schafft die GPU voll auszulasten.
So ein Schwachsinn. Mal wieder. Von dir.
Mmmh... wenn ich meine FPS nicht künstlich limitiere (VSync, Framelimit, usw.) und meine GPU-Auslastung z.B. bei 80% liegt, liegt der Verdacht doch nahe, dass die CPU irgendwie nicht hinterher kommt. Warum sollte die GPU nicht voll ausgelastet sein, wenn kein CPU-Limit besteht?
 
Dazu müsste man auch wissen, wie sich die Anzeige der GPU-Load oder CPU-Load zusammensetzt.
Ich gebe mal einen Tipp: GPU-Load ist nicht gleich GPU-Load. Genauso ist CPU-Load nicht gleich CPU-Load.
Eine GPU-Load von 99% kann bei dem einen Game einen Verbrauch von 300+W bedeuten, bei dem anderen Game nur 250W.

Um zu schauen ob bei 95% GPU Load ein GPU-Limit oder CPU Limit vorliegt müsste man die GPU einmal heruntertakten um einen Vergleich zu haben.

Wenn die GPU mit 1500 Mhz die gleiche Load wie mit 2000 Mhz (95, 96, whatever) liegt garantiert kein CPU-Limit vor.

Manche Engines lasten eben nicht richtig aus. Ghost Recon Wildlands z.B. hatte bei mir selten 99%. Meist immer 95-97%. Hängt aber dennoch immer im GPU-Limit.
Kann natürlich JETZT durch Patches etc. wieder anders aussehen.
 
Und durch die blöden Sicherheitsupdates hat sich eh einiges in schlechte geändert.

Vor die scheiße kam mein SLI immer auf 99% und jetzt selten über 90%

Und da ist auch egal wieviel Takt ich der CPU gebe.

SLI wurde jedenfalls zerstört.

Gesendet von meinem SM-G935F mit Tapatalk
 
Mmmh... wenn ich meine FPS nicht künstlich limitiere (VSync, Framelimit, usw.) und meine GPU-Auslastung z.B. bei 80% liegt, liegt der Verdacht doch nahe, dass die CPU irgendwie nicht hinterher kommt. Warum sollte die GPU nicht voll ausgelastet sein, wenn kein CPU-Limit besteht?

Zusätzlich zur Erklärung von even.de wäre dazu bspw. noch ein VRAM Limit zu nennen. Dürfte wohl das prominenteste Beispiel bei nicht 100% GPU Load und nachweilich kein CPU Limit sein.
Ne GPU besteht intern noch aus sonstwie vielen verschiedenen Bauteilen. Auch dort können Ungereimtheiten die Lastanzeige verändern. Bspw. bei Limit auf den Tessellation Units, wenn die Pixelfüllrate limitiert oder die Texturefüllrate am Limit ist usw. Vor allem ändern sich die Verhältnisse zwischen den Generationen und auch zwischen den GPUs der Konkurrenten. Irgendwo irgendwann wird die Software nachziehen und mal mehr mal weniger in speziellen Bereichen ausfassen. Was GPUs, die klar dort ihre Schwächen haben, dann auch einfach einbremst - teils sichtbar an der Load, teils völlig unsichtbar.

Und durch die blöden Sicherheitsupdates hat sich eh einiges in schlechte geändert.

Vor die scheiße kam mein SLI immer auf 99% und jetzt selten über 90%

Und da ist auch egal wieviel Takt ich der CPU gebe.

SLI wurde jedenfalls zerstört.

Kann ich so nicht bestätigen und halte ich als Pauschale auch für wenig sinnvoll.
Um den Gegentest zu machen, schalt doch einfach Meltdown bspw. aus? Oder nutz ein Microcode ohne entsprechende CPU Befehle? Dann hast du die volle Performance -> wenn nicht, ists einfach nur falsche Wahrnehmung.
 
Der Rotz ist schon lange aus. Dennoch wird man den misst von Windwos selbst nicht los.

Kann natürlich auch Treiber selbst sein die das verschlechtern. Aber ohne Treiber kann man ja auch nicht sein PC betreiben.

Gesendet von meinem SM-G935F mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh