Die Rakete mit Fehlstart: Core i5-11600K, Core i7-11700K und Core i9-11900K im Test

wenn der trend so weiter geht, wird alder lake auch beim verbrauch keinen Fortschritt aufweisen?!

muss wohl nach einem jahrzehnt wieder zu Amd wechseln :fresse:

Intel will wohl keine Käufer für Ihre Produkte haben :unsure::ROFLMAO:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mein 11900KF kommt leider erst am Donnerstag laut DHL. Hat noch jemand einen bekommen?
 
Ich bin wirklich mal gespannt, ob der Zen3 Refresh dann noch dieses Jahr kommt, viel müsste AMD ja nicht tun, ein 5% + würde schon fast überall reichen.
200 MHz aus der Fertigung quetschen/selektieren oder einen neuen I/O bringen. Am Ende hat RKL das Gute den Markt und den Wettbewerb am Leben zu erhalten und
da profitieren alle von.
 
Dass ein 16 Kerner bei einem gut paralleliserbaren Workload effizienter arbeitet als ein 8 Kerner, müsstest sogar du wissen.

Genau, deshalb verbraucht der Zen3 5950X 16-Kerner mit 146 Watt exakt soviel wie seine kleineren 12- und 8-Kern Brüder. :stupid: Keine Ahnung, wie Du nicht verstehen kannst, dass der 11900K schlicht une ergreifend ineffizient ist. Das ist alles, worum es geht.
 
aktuell LIVE

 
Ich bin wirklich mal gespannt, ob der Zen3 Refresh dann noch dieses Jahr kommt, viel müsste AMD ja nicht tun, ein 5% + würde schon fast überall reichen.
200 MHz aus der Fertigung quetschen/selektieren oder einen neuen I/O bringen. Am Ende hat RKL das Gute den Markt und den Wettbewerb am Leben zu erhalten und
da profitieren alle von.
Das bringt doch null^^, ob du da nun 5% schneller bist in den CPU FPS oder nicht ist doch witzlos.
Vor Zen4 oder Alder/Raptorlake kann man sich das schenken von einer aktuellen Plattform zu wechseln, es bringt einfach nix.

Zum Rocketlake spare ich mir lieber mein Komentar, ich könnte ohne Aufpreis auf den 11900k wechseln, das würde ich nicht einmal machen wenn ich noch 100,- drauf kriege^^.
 
Zum Rocketlake spare ich mir lieber mein Komentar, ich könnte ohne Aufpreis auf den 11900k wechseln, das würde ich nicht einmal machen wenn ich noch 100,- drauf kriege^^.

grad von jemand wie Dir, würde mich ein Kommentar dazu interessieren weil Du nämlich Ahnung hast, ich denke mitlerweile auch ich lass das bleiben.
Grund: kaum Zugewinn zum 10900KF und dieser hat wesentlich bessere Latenzen, grad noch mit dem Thema RAM OC.
 
Genau, deshalb verbraucht der Zen3 5950X 16-Kerner mit 146 Watt exakt soviel wie seine kleineren 12- und 8-Kern Brüder. :stupid:
Ja, weil die alle eine TDP von 105W haben und somit alle das gleiche PPT von 142W, worauf diese limitiert werden. Dafür liefern die aber nicht alle die gleiche Punktzahl bei CB20, sondern der 5950x mehr als der 5900x und dieser wiederum mehr als der 5800x. Gleicher Verbrauch, aber mehr Punkte => bessere Effizienz. Komm schon, so schwer ist das nicht..

Keine Ahnung, wie Du nicht verstehen kannst, dass der 11900K schlicht une ergreifend ineffizient ist.
Das Dingen ist ja auch bis an die Kotzgrenze übertaktet und weit vom Sweetspot entfernt. Was erwartest du?
 
grad von jemand wie Dir, würde mich ein Kommentar dazu interessieren weil Du nämlich Ahnung hast, ich denke mitlerweile auch ich lass das bleiben.
Grund: kaum Zugewinn zum 10900KF und dieser hat wesentlich bessere Latenzen, grad noch mit dem Thema RAM OC.
Also Hintergrund ist folgender, Unterschied den ich zwischen 9900k und 10900k gemerkt habe beide ca. gleichen RamOC Level, das der 10900k bei Games mit "hoher Kernzahl" Nutzung weniger Frametimespike bzw. gar keine mehr erzeugt.
Wenn das nicht doch am größeren Cache liegt, denke ich sind es einfach die 2Kerne mehr, was auch wahrscheinlicher ist.Der 9900k ist da aber auch schon verdammt gut, so ist es nicht.

Das andere ist das du um einen Mehrwert draus zu ziehen schon so 2x16GB@4800 mit B-Die oder 2x16GB@5066+ fahren musst, dafür brauchst du dann aber selektierten Hynix Speicher, oder Micron Speicher.
Passende Kit´s kommen dafür ja noch, die Spreu vom Weizen ist ja generell da ziemlich groß, sprich einfach die richtigen IC´s zu kaufen ist halt wie immer Lotterie.nen Apex versteht sich von selber^^.
Du kannst auch 1:1 fahren, aber dann lohnt es sich wirklich kaum bis garnicht.

Aber was gewinnst du schlussendlich im Sektor Gaming wenn du diesen massiven Aufwand betreibst und sagen ma mal du hast alles in perfekt, man schafft es vielleicht 10%-15% mehr CPU FPS rauszuholen, die ich übrigens noch nirgends gesehen hab.
Dann hast du aber noch immer 25% weniger Kerne und bei hoher Kernzahl Nutzung wie sieht es dann mit Frametime Spike´s aus?Davon mal abgesehen das du in diesen Fällen eh wieder langsamer bist.

Ich will das Teil nicht schlecht machen, aber ich sehe da echt keinen wirklichen Vorteil, gravierender Punkt für mich ist aber alleine schon das ich von ner Top Frametime ins Ungewissse
wechseln müsste mit weniger Kerne für Nebenlasten für quasi keine wirkliche Mehrleistung.
 
Zuletzt bearbeitet:
Dafür liefern die aber nicht alle die gleiche Punktzahl bei CB20, sondern der 5950x mehr als der 5900x und dieser wiederum mehr als der 5800x.
Nö. 146,4. 148,8. 148,8. Alles im Bereich der Messtoleranz. Zweimal dabei exakt identisch. Komm schon, so schwer ist das mit den Zahlen nicht. 148,8 = 148,8.

Das Dingen ist ja auch bis an die Kotzgrenze übertaktet und weit vom Sweetspot entfernt. Was erwartest du?

:rofl: Es ging zu dem Zeitpunkt, als Du Dich - mal wieder vollkommen - sinnloserweise in die Diskussion eingeschaltet @Nozomu hast um EXAKT das: Den hohen Verbrauch und die vergleichsweise schlechte Effizienz, von Deiner eigenen PCGH-Quelle bestätigt.

Aber bitte, machen sie ruhig weiter.
 
Zuletzt bearbeitet:
Was ist eigentlich der Grund für den neuen Speichercontroller?
Das war Intels Steckenpferd für Enthusiasten um 20-30% je nach Szenario zuzulegen.
 
Gute Frage ob das dem Backport oder der Architektur generell geschuldet ist keine Ahnung.
Aber Tigerlake fährt ja mit LPDDR4X 4266MHz glaube 1:1 und der hat willow cove Kerne.
 
Was ist eigentlich der Grund für den neuen Speichercontroller?
Das war Intels Steckenpferd für Enthusiasten um 20-30% je nach Szenario zuzulegen.
Der ist gar nicht so neu, nur bisher weniger bekannt gewesen. Den IMC mit Gear1/Gear2 gibt es bei Intel schon seit 2019, das wurde mit ICL eingeführt.

Wenn man jetzt wiederum den Bogen zu RKL spannt und sieht, dass die Basis hier schlicht ICL-IP (Sunny Cove bzw. leicht abgewandelt Cypress Cove) ist, dann gibt es auch mit RKL diesen IMC samt Gear1/Gear2.
 
  • Danke
Reaktionen: hRy
Nö. 146,4. 148,8. 148,8. Alles im Bereich der Messtoleranz. Zweimal dabei exakt identisch. Komm schon, so schwer ist das mit den Zahlen nicht. 148,8 = 148,8.
Ja, der Verbrauch ist gleich, dass habe ich auch so geschrieben. Das nächste Mal versuche ich mich noch einfacher und verständlicher für dich auszudrücken, damit auch du es verstehen kannst. Ich weiß, ist manchmal schon ziemlich schwer so verschachtelte Sätze zu chiffrieren (entschlüsseln).

Ich schrieb davon, dass der Verbrauch gleich ist. Dies hast du ja auch schon festgestellt. Aber (!!!) die erreichten Punktzahlen - also das Ergebnis, die Leistung - bei CB20 unterscheiden sich zwischen den 5950x, 5900x und 5800x. Da hat der 5950x mehr Punkte - nicht Verbrauchspunkte - als ein 5900x. Der 5900x hat mehr Punkte als ein 5800x. Da die CPUs unterschiedliche Punkte erreichen bei gleichem Verbrauch, unterscheiden sich die Effizienzwerte der CPUs. Mehr Punkte bei gleichem Verbrauch = Besser.

Simple genug für dich?

Den hohen Verbrauch und die vergleichsweise schlechte Effizienz, von Deiner eigenen PCGH-Quelle bestätigt.
Seine Worte waren, dass der Verbrauch bei Spielen höher als bei dem 16 Kerner sei. Dies stimmt halt nur, wenn man diesen sinnlosen Boost aktiviert..
 
Es ging zu dem Zeitpunkt, als Du Dich - mal wieder vollkommen - sinnloserweise in die Diskussion eingeschaltet @Nozomu hast
Ist bei der Person ja nichts neues, der ging mir schon letzten richtig auf die Eier. Seitdem ignoriere ich alles was er gegen mich schreibt.

Muss man sich nicht geben die Ignoranz.
 
Wo bleibt der Kommentar von @Holt ?

Hier nochmal eine Zusammenfassung der heutigen Vorstellung:

Quelle: pcgh fund ;)
 
Zuletzt bearbeitet:
sehr aufmerksam von dir, habe ich einfach mal übersehen. :fresse:

dennoch der spitzenverbrauch von 300w geht ja mal gar net und nicht mehr zeitgemäss. :wall:

verglichen mit meiner cpu nur 20-25% schneller aber dafür dreifach mehr an stromhunger, geht gar nicht.

Ist aber der aktuelle Trend. Meine 3080 zieht mit Standard-Bios 440W. Klar ist der Knüppel dann deutlich schneller als das "Vormodellflaggschiff" mit 260W.

Der Trend bei der PC Gaming Hardware geht leider total in die falsche Richtung bei Intel und Nvidia.
Lediglich AMD ist da gut aufgestellt. Eine 6900XT mit 300W liefert mehr Leistung ab als eine 3080 mit mehr Stromverbrauch. CPUs sieht das Bild sogar noch krasser aus.
 
Ist bei der Person ja nichts neues, der ging mir schon letzten richtig auf die Eier. Seitdem ignoriere ich alles was er gegen mich schreibt.
Du drückst mir nen dummen Spruch, dann bekommst einen zurück und nun biste pissig? Was ist denn mit dir? :stupid:

Ist das nicht ein offizielles Feature?
Ja und?
Macht es dies in irgendeiner Form besser?

Das beste an ABT ist, dass es standardmäßig deaktiviert ist..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh