Zehn Kerne bei Intel: Interne Dokumente sollen Leistung des Core i9-10900K zeigen

Intel schaffte es ja beim 9900KS, den Verbrauch bei 5GHz niedriger als beim normalen 9900K@5GHz zu halten.

Aber mit den beiden Extrakernen knallt denen jetzt der 14nm-Prozess um die Ohren. Irgendwann ist halt auch mal Schluss. Und bei 14nm scheint das Ende "9900KS" zu heißen.

Sollte der 10900K tatsächlich kommen, wird das Teil vermutlich ein absoluter Burner - im negativen Sinne.

Scheint dann wohl wirklich das maximal mögliche Resultat am Ende des Binningprozesses gewesen zu sein.

Dass da kein Wort Gefallen ist auf der CES, ist in jedem Fall sehr suspekt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die wollen das wie immer tot schweigen, keine gute Aktion von Intel, sind aber echt im Moment nix anderes von denen ja gewöhnt. Verschieben, hinhalten, verschweigen, irreführende Aussagen usw. Alles verzweifelte Aktionen. Die aber am Ende eigentlich nix bringen.
 
Was regt ihr euch so auf, die 300 Watt lassen sich schon kühlen, wahrscheinlich wird Intel, wie AMD beim 3950x eine AOI Empfehlung/Vorgabe aussprechen.
Es ist nun mal das was noch Möglich ist in dem 14nm-Prozess, nicht Mehr und nicht Weniger. ;)
 
300W kühl ich locker weg, aber brauch man 10 Kerne, ich glaub eher weniger, der Krieg der Kerne macht vielleicht dann Sinn wenn man sie auch nutzen kann, zum zocken bringt das schonmal nix.
Wesentlich mehr IPC, aber das wird nur was mit neuer Architektur.
 
Wie aber vorher schon dargelegt denke ich, dass der Bedarf an SATA 4.0 SSDs, die dann evtl. PCIE 4.0 4x Geschwindigkeit schaffen vorhanden wäre, da auf dem Board einfach nicht so viele M2 Steckplätze untergebracht werden wie SATA Ports.
Wozu sollte man einen neuen SATA Standard schaffen, wenn es mit PCIe einen passenden Standard gibt, der obendrein im Gegensatz zu SATA vollduplex ist und über mehrere Lanes skalierbar? Beides kann SATA nämlich nicht! Was Du eigentlich haben willst, ist eine Ablösung des M.2 Formfaktors, was ich ebenfalls unterstützen, aber eben ohne wieder den alten SATA Standard ins Spiel zu bringen. Vielmehr wäre U.2 der sinnvollere Formfaktor auch für Consumer SSDs oder eben OCuLink. Das habe ich hier im Forum aber schon vor über 3 Jahren geschrieben.
Beitrag automatisch zusammengeführt:

Wenn ich sowas lesen, weiß ich doch schon das die Mainboard Hersteller die CPUs schon in der Default Einstellung an die Kotzgrenze übertakten werden:
Wann setzt Intel endlich mal durch, dass in der Default Einstellung auch Intels Vorgaben, also Longterm Powerlimit = TDP und damit wohl 125W für die 10 Kerner und für einige Sekunden (8s oder 18s, da gibt es unterschiedliche Angaben) normalerweise bis 20% mehr, als bis 150W einzuhalten sind. Wer mehr will, der sollte dies selbst im BIOS einstellen müssen. Dann wäre das ewige Gerede vom Hitzkopf auch endlich mal zusende, denn wer übertaktet, der hat auch für die passende Kühlung sorgen.
 
Zuletzt bearbeitet:
Und wenn Intel es so haben will,das man höheren Takt offieziell macht,sodas man gegen AMD noch etwas Pulver hat um nicht ganz mit leeren Händen dasteht.Alles freilich zu lasten des Stromverbrauchs und zu lasten der Wärmeabgabe.Hauptsache etwas um gegen AMD entgegen zu setzten.Das das nicht ausreicht,das weis Intel selbst,aber aus Not heraus machen sie das.Ich finde diese RIchtung jedoch sehr bedenklich.Denn ich finde davon hat keiner was,wenn ein Produkt heißer und stromhunriger ist ,als normal.Davon hat halt niemand was,nur halt die Stromkonzere,aber mehr halt leider nicht.
 
Latiose
Ich lese schon deine Kommentare, allerdings ist es manchmal schwierig, weil du nach dem Satzzeichen kein Leerzeichen machst.

Auch wieder typisch Holt
Intel macht doch keine Vorgaben, denn Intel will jedes Prozent an Balkenlänge und dabei ist es Intel völlig egal, wenn die Leistungsaufnahme detoniert.
Denn mit der Einhaltung der TDP, ist der 9900K nur billigste 2% (Games) vor dem 200€ günstigeren 3700K der sogar noch einen Kühler hat. Bei Anwendungen muss sich dann das 200€ teurere Modell 9900K sogar um 6% sich geschlagen geben.
Noch weit verheerender sieht es im Vergleich zum 3900X aus. Der AMD 12 Kerner 24 Threads liegt bei Spiele gleich auf mit dem 9900K, bei Anwendungen wird der 9900K um 51% verblasen und dabei ist der 3900X sogar noch 20€ günstiger mit Kühler.

Jetzt könnte man natürlich noch argumentieren, aber der 9900K hat ja eine iGPU, man sollte schon so fair sein und den 9900KF nehmen. Gut, dann zieht man eben 20€ ab, dann ist der 9900KF unbedeutend günstiger und hat trotzdem keinen Kühler dabei
Aber da gibt es ja noch den i9 9900 für 470€. Doch wenn man den auf Intels vorgegebener 65W TDP begrenzt, ist dieser Null schneller bei Games, kostet trotzdem 150€ mehr als der 3700X. Zumindest hat der i9 9900 eine iGPU, doch mit dem mitgelieferten billigst Kühler muss man ja auch das Teil auf 65W begrenzen, nicht dass sich die Kiste abschaltet. In Anwendungen muss sich auch der i9 9900 geschlagen geben

Und der i7 9700F? Gut, schlecht lieferbar, aber immerhin nur 20€ teurer als der 3700X. Mit dem mitgelieferten billigst Kühler muss man das Teil auch zwingend auf 65W TDP begrenzen. Bei Spiele Null schneller und in Anwendungen muss sich der 9700F mit dem 2600X prügeln, wer nun bei 0% Differenz vorne liegt. Vom 3700X wird der 20€ teurere 9700F um 55% überrollt, weil das zu teure Teil nur 8 Kerne 8 Threads hat.

Das sind die Fakten, warum Intel keine Vorgaben macht um die TDP Angaben einzuhalten.
 
Zuletzt bearbeitet:
Wenn ich sowas lesen, weiß ich doch schon das die Mainboard Hersteller die CPUs schon in der Default Einstellung an die Kotzgrenze übertakten werden: Wann setzt Intel endlich mal durch, dass in der Default Einstellung auch Intels Vorgaben, also Longterm Powerlimit = TDP und damit wohl 125W für die 10 Kerner und für einige Sekunden (8s oder 18s, da gibt es unterschiedliche Angaben) normalerweise bis 20% mehr, als bis 150W einzuhalten sind. Wer mehr will, der sollte dies selbst im BIOS einstellen müssen. Dann wäre das ewige Gerede vom Hitzkopf auch endlich mal zusende, denn wer übertaktet, der hat auch für die passende Kühlung sorgen.
Intel setzt das niemals durch. Die lassen seit Jahren zu, dass die Mobo-Hersteller das machen. Nicht erst seit CoffeeLake. Und bei Intels Gebahren würde es nicht verwundern, wenn die Praxis von Intel "gewünscht" ist. Bis heute.

Der 10900K jedenfalls sorgt dafür, dass die Mobo-Hersteller, wenn sie ihre bisherige Praxis aufrecht erhalten, fette Spannungswandler-Horden auf den Mobos unterbringen müssen. Quasi S2066-Spannungsversorgung auf S1200-Platinen. Und das wird dann schon fett.

Der 3950X wird ja von den Platinen mit einer max. TDP von ca. 145W betrieben, was den entsprechenden Vorgaben von AMD (105W TDP + "Boost") exakt entspricht. Die Spannungswandler werden dabei auch schon ordentlich gefordert, aber da fließt dann halt nur 50% dessen durch, was der 10Core von Intel haben will.

Wenn der 9900KS schon die Brechstange war, was ist dann der 10900K?
 
Nimm dir doch deinen AMD ne Küchenrolle und verzieh dich in ein Zimmerchen. Du nervst.
 
Damit ist dann der Gebrauchtmarkt für "alte" i5/i7 im Eimer, wer kauft den dann noch einen i7 7700k wenn er einen i3 10320 dann fürn Appel und n ei bekommt, gleiches für Aktuelle i5er selbst die 6core sind dann gleichauf mit dem i3 von der Leistung.
 
Der Markt für die bisherigen i3/i5 ist schon im Eimer, der Markt für die klassischen i7 mit HT folgt halt.

Aber ist doch alles normal, Dank AMD gibt es jetzt wieder Wettbewerb. AMD bleibt davon ja auch nicht verschont. Mit dem R5-1600 bekommst du mittlerweile 6 Kerne bzw. 12 Threads für unter 100€ nagelneu. Das hätte 2016 niemand geglaubt.
 
Damit ist dann der Gebrauchtmarkt für "alte" i5/i7 im Eimer, wer kauft den dann noch einen i7 7700k wenn er einen i3 10320 dann fürn Appel und n ei bekommt, gleiches für Aktuelle i5er selbst die 6core sind dann gleichauf mit dem i3 von der Leistung.
Bei AMD schaut mit Preisverfahl nicht anders aus, 2700X hat vor 2 Jahren über 300€ gekostet und jetzt gebraucht gerade mal ein Drittel. Für den 8700K bekommt man fast noch 2 Drittel, also AMD verliert deutlich mehr am Preis .
 
Bei AMD schaut mit Preisverfahl nicht anders aus, 2700X hat vor 2 Jahren über 300€ gekostet und jetzt gebraucht gerade mal ein Drittel. Für den 8700K bekommt man fast noch 2 Drittel, also AMD verliert deutlich mehr am Preis .
Nö, Intel. Deren CPUs im HEDT- & Server-Sektor erleben gerade ein Preisverfallfiasko.

AMD geht im Desktop den normalen Weg zusammen mit Intel, den es jahrelang hätte geben sollen. Der große Verlierer ist aber Intel.
 
Damit ist dann der Gebrauchtmarkt für "alte" i5/i7 im Eimer, wer kauft den dann noch einen i7 7700k wenn er einen i3 10320 dann fürn Appel und n ei bekommt,
Die einen meckern, dass Intel jahrelang nur 4 Kerner im Mainstream gebracht hat und die HEDT CPUs mit mehr Kernen zu teuer waren, die anderen über den Preisverfall. Der ist aber die Konsequenz des Krieg-der-Kerne den AMD mit RYZEN losgetreten hat und der dafür sorgt, dass auch Intel die Zahl der Kerne immer weiter anhebt. Das die Gebrauchtpreise darunter leiden, sollte klar sein.
AMD verliert deutlich mehr am Preis .
Eben und zwar weil die Entwicklung dort noch schneller ging und die RYZEN 3000 auch noch in den alten Boards laufen. Das die Plattform so viele Generationen aufnimmt, wird hier ja immer gefeiert, hat aber auch entsprechende Konsequenzen für die Gebrauchtpreise, weil damit jemand der seinen RYZEN 1600 aufrüsten möchte, im Zweifel eher einen 3600 nimmt als nach einem gebrauchten 1800X oder 2700X Ausschau zu halten und wenn doch, sollte der gefälligst entsprechend günstig sein. Wären die 3000er wie bei den TR auf neue Boards angewiesen, würden jeder Aufrüstwillige der den Wechsel des Mainboards scheut, auf 1000er oder 2000er angewiesen und dies würde deren Gebrauchtpreise stützen. Wir werden es bei den TR ja sehen, da sind die Preise der ersten Generation total unter die Räder gekommen und die der zweiten wären es auch, wenn die 3000er auf den X399er Boards laufen würden.

Alles hat eben seine zwei Seiten!
 
Nö, Intel. Deren CPUs im HEDT- & Server-Sektor erleben gerade ein Preisverfallfiasko.
HEDT verliert eh immer am meisten. Egal ob AMD oder Intel, schau dir den 1950X an, 1000€ CPU jetzt bekommst den für teilweise 300/400€.
Warum ? Weil das Teil keiner mehr haben möchte, zu wenig IPC gegenüber den 2950X/3950X und weniger Takt.
 
Hardware war noch nie eine gute Kapitalanlage, man wird damit immer Geld verlieren, außer man kann mit der Arbeit die man damit macht Geld verdienen. Wenn ich mir privat Hardware kaufen, wenn erwarte ich nicht davon etwas wiederzusehen, dies ist einfach für Hobby ausgegeben und gut ist.
 
HEDT verliert eh immer am meisten. Egal ob AMD oder Intel, schau dir den 1950X an, 1000€ CPU jetzt bekommst den für teilweise 300/400€.
Warum ? Weil das Teil keiner mehr haben möchte, zu wenig IPC gegenüber den 2950X/3950X und weniger Takt.

Wieso verliert? "Verloren" wird doch überhaupt erst dann was, wenn man das System wechselt oder verkaufen will. Für das "Geld" bekommst du als Gegenwert doch die "Leistung" in Form des PCs. Der wird nicht langsamer, nur weil es irgendwann mal andere Modelle mit ähnlicher oder mehr Leistung gibt. Geld verlieren ist damit eigentlich eh ausgeschlossen, das Geld ist weg mit dem Kauf. Die Leistung hingegen bleibt bis zum Verschrotten oder Defekt.
Und selbst dann ist immernoch der Punkt im Raum, ob die Nutzungsdauer nicht sogar den Kostenaufwand "wert" war. Das Geld verloren Argument ist mMn einfach nur ne leere Aussage. Am Ende muss jeder für sich selbst definieren wie viel Geld er aufbringen möchte um Produkt xyz nutzen zu können - und das dann gegen die Nutzungsdauer halten. Es kommt irgendwo ein pro Tag "Preis" bei rum, der es einem Wert sein muss oder eben nicht. Selbst 4000€ auf sagen wir 5 Jahre gesehen (und das kann realistisch sein, wenn man klever kauft) ist weniger als ne halbe Schachtel Kippen am Tag, nämlich ungefähr 2,19€ - alternativ kauft man eben alle 2,5 Jahre für 2000€ und kommt aufs gleiche hinaus. Das wäre also heute vor 2-2,5 Jahren bspw. irgendwas in Richtung 1700 bis 1800X oder 8700k gewesen. Und dann kauft man im Frühjahr 2020 eben dann wieder neu oder wartet bis Zen3/Intels 10C. Für 2k sollte da was zu machen sein. Und bei dem "Tagessatz", muss man da ernsthaft groß überlegen oder über irgendwelche Preisverfälle diskutieren?
 
Wieso verliert? "Verloren" wird doch überhaupt erst dann was, wenn man das System wechselt oder verkaufen will.
Das Geld ist man beim Kauf los, aber der Wert geht schon mit der Zeit verloren, diesen Verlust realisiert man aber eben erst, wenn man verkauft / verschrottet. Du wirst ja auch nicht auf ein vielleicht 3 Jahre altes Auto schauen und behaupten es wäre noch den Neupreis wert.
 
Da muss ich fdsonne recht geben. Wenn ich mir was kaufe, dann jammere ich doch nicht davon Geld verloren zu haben. Ich habe doch den Gegenwert und in meinem Beispiel PC über 4 Jahre alt, inkl W8.1 macht pro Tag ~54 Cent.

Jetzt muss ich doch noch ein großes ABER einwerfen. Wir sind hier richtig am Thema vorbei und die Moderation mischt voll mit.
 
Zuletzt bearbeitet:
Wieso verliert? "Verloren" wird doch überhaupt erst dann was, wenn man das System wechselt oder verkaufen will. Für das "Geld" bekommst du als Gegenwert doch die "Leistung" in Form des PCs. Der wird nicht langsamer, nur weil es irgendwann mal andere Modelle mit ähnlicher oder mehr Leistung gibt. Geld verlieren ist damit eigentlich eh ausgeschlossen, das Geld ist weg mit dem Kauf. Die Leistung hingegen bleibt bis zum Verschrotten oder Defekt.

Bin ich mal mit fdsonne d'accord.

Von 'Wertverlust' kann man einigermaßen gerechtfertig eigentlich nur bei konkreten 'Wertanlagen' sprechen. Ob Hardware innerhalb dieser Kategorie einzusortieren wäre, würde ich innerhalb eines Enthusiastenforums zumindest mal zur Disposition stellen. Man bekommt schließlich, wie fdsonne korrekterweise angemerkt hat, für den Preis, den man zahlt, ab Erwerb bis zum Verkauf/Defekt einen nutzbaren und abrufbaren 'Gegenwert', wie auch immer der konkret aussehen mag: Leistung, Zeitersparnis, Nutz- und Verfügbarbarkeit, Nutzungsdauer etc.

Zu argumentieren, man bekomme bei Weiterverkauf 'zu wenig', scheint mir sehr subjektiv zu sein. Wer definiert denn, was wenig, viel oder angemessen für den oben gewährleisteten und abgerufenen 'Gegenwert' wäre? Der Käufer? Der Verkäufer? Sind 30% gegenüber dem Ursprungspreis angemessen? 50%? 100%? Wenn ja, von welchem Zeitrahmen sprechen wir? 1 Jahr? 2 Jahre? 3,5 Jahre? Was ist mit dem Zustand des Produkts? Was, wenn das Leistungsniveau nach 2,5 Jahren nahezu dem zum Kaufzeitpunkt entspricht? Was, wenn es durch Optimierungen sogar gestiegen ist?

Tatsache bleibt, dass sich das wohl kaum pauschal in einem plakativen Rundumschlag beantworten lassen wird. Wenn der Gedanke des Preisverfalls einem allerdings wirklich und ernsthaft echte Bauchschmerzen bereitet, sollte man die eigenen Erwartungen an den hier thematisierten Hardwarebereich für sich selbst besser nochmal genau reflektieren.
 
Es wird immer wieder neue Hardware geben.Sich über Geldverlust gedanken zu machen,das bringt also ja nix.Ist doch gut wenn es neue Hardware kommen.Denn wenn nix neues kommen würde,dann würde sich ja aufrüsten nix mehr bringen.Und ist klar das man mit der Zeit auch weniger Geld bekommt.Denn Je älter die Hardware wird,desto weniger bekommt man.Und jedes Hobbys kostet Geld,also ohne was zu Zahlen kommt man also sowieso nicht umher.Also immer kosten/nutzenfaktor,so ist es,da sind wir einer Meinung.
 
Wenn der 10-Kerner kommt, dann wird die Welt wieder richtig schön werden. Und so hochfrequent ...
 
Und ist klar das man mit der Zeit auch weniger Geld bekommt.Denn Je älter die Hardware wird,desto weniger bekommt man.

Ich stimme Dir zwar grundsätzlich zu, in dem was Du in puncto Preisverfall für gebrauchte Hardware sagst, aber Deine Begründung in diesem Fall ist zirkulär:

Deine These, dass man mit fortschreitender Zeit weniger Geld (beim wiederverkauf) bekommt, begründest du mit: deiner These. Das funktioniert so nicht.
 
Wann setzt Intel endlich mal durch, dass in der Default Einstellung auch Intels Vorgaben, also Longterm Powerlimit = TDP und damit wohl 125W für die 10 Kerner und für einige Sekunden (8s oder 18s, da gibt es unterschiedliche Angaben) normalerweise bis 20% mehr, als bis 150W einzuhalten sind.

Warscheinlich erst mit einer neuen Über-Gen oder nie. Wenn Intel das machen würde, wäre die nächste Generation auf einen Schlag langsamer als die vorherige. So manch einer interessiert sich ja nur für lange Balken und weniger die Effizienz.
Intel kann die Geister, die sie riefen nicht mal eben schnell wieder bannen, ohne einen eigenen "schwarzen Freitag" zu kassieren.
 
bschicht86
Das sehen ja nicht nur wir Tastaturhelden so, sondern Leute die seit Jahren, seit Jahrzehnten mitten drin sind. Die engen Kontakt zu Personen haben, die Entscheidungen treffen.
Aufgrund der Tatsache, dass Holt nach meiner Auffassung immer Intel entschuldigt und oder immer eine positive Bewertung abgibt, ist es verständlich, dass Holt bei dieser Sache, die explodierende Leistungsaufnahme, den Hersteller der Platinen die Schuld zu geben.
Doch Holt wird nicht auf die Fakten eingehen. Fakten die klar und unwiderruflich belegen, dass Intel sogar in Rückstand bei den Benches fällt, würden die Boardhersteller die vorgegeben TDP Klassen einhalten. Deswegen wird Intel, du hast es schön beschrieben, die Geister nicht zurückrufen, welche Intel selber rief.

CB macht doch Test mit Angaben innerhalb der TDP. Für AMD gibt und braucht es nicht solche Benches, eben nur bei Intel.

Für einen wirklich fairen Vergleich, nehme ich den 9900KF und den 3900X. Beide haben keine IGP, beide kosten gleich viel. Der 3900X bringt sogar noch einen brauchbaren Kühler mit.
Mit Einhaltung der TDP liegt der 9900KF bei Spiele um 1% vorne und in Anwendungen wird der vom 3900X um 51% überrollt. Selbst beim 3700X muss sich der 9900KF dann um 6% geschlagen geben bei den Anwendungen. Bei Spiele hat der 9900KF auch nur 1% Vorsprung. Kostet dafür aber 180€ mehr.
Es ist eigentlich ein Trauerspiel. welch Mühen und Texte aufgebracht werden, nur um einen Prozentbereich zu diskutieren, der sich auf dem Niveau der Bedeutungslosigkeit befindet.
 
Zuletzt bearbeitet:
Intel kann die Geister, die sie riefen nicht mal eben schnell wieder bannen, ohne einen eigenen "schwarzen Freitag" zu kassieren.
Bei den spekulierten Allcore Takt für den 10C und ohne einen Deckel bei der Leistungsaufnahme wird der "schwarze Freitag" dann halt andersrum kommen. Denn es wird wieder in den Foren Leute geben, die sich das Maul darüber zerreißen, wie es sei kann, dass ein Prozessor unter Prime95 AVX Volllast so und so viel Energie versäuft, während ein AMD irgendwas ja so und so genügsam ist.
Real praktisch ist das für die Masse eh recht irrelevant - der 9900k verliert poplige ~8% in der Computerbase Anwendungssuite bei hartem Limit auf 95W. Weiß allerdings nicht genau ob das kurzzeitige Überschreiten nach Spezifikation von 1,25x für eine definierte Zeit da inkl. ist oder weg fällt. ~8% im Altprozess mit alt Technik - sooo ultra schlecht steht das also nicht da.
Für den 10C sieht das nicht anders aus. Nimmt man die 95W als Basis, 1/4tel mehr Cores drauf, kommt man in die TDP Region, die Intel für den 10C vorsieht. Der Takt wird dann wohl ähnlich niedrig sein wie bei nem 9900k mit Deckel auf jene 95W. Vielleicht noch minimal höhere Effizienz durch eines der "Pluszeichen" an der 14nm Fertigung.

Für Intel gibt es mMn auch weniger einen Grund überhaupt in diese Region vorzugehen. Warum auch? Die paar Selbstschrauber sind doch eh nur Nische. Die Masse kauft Mobile (komplett andere Handhabe) oder Fertig PCs von der Stange. Viele OEM Geräte abseits derer auf Basis mit Retail Komponenten (meint bspw. quasi komplett das Business Linieup) deckelt nach Spezifikation. Ein prominentes Beispiel, was dabei durch die Medien gibt ist Medions i7-8700 non K based PC von vor 2?? Jahren gewesen. Das war so ziemlich der Aufwecker und Anstoß in den Köpfen. Viele sind aus allen Wolken gefallen wie das sein kann - dabei war es nie anders vorher. Die Retail Hersteller haben schon immer versucht ihr Board möglichst an die Spitze zu bringen. Sei es durch BLCK OC, sei es durch MCE, sei es durch Anheben/Ausheben der Powerlimits. Intel duldet es, genau so wie es AMD duldet. Wirklich problematisch ist dabei eigentlich nur die Undurchsichtigkeit für den Endkunden...
 
Ich bin mir sicher das der 10 Kerner all core takt 4,8 GHz erreichen wird. Mein i7 6950x befindet sich bei 4 GHz. Was ja auch schon OK ist. Mit dem I9 7900y wo dann mit ebenfalls 10 Kernen dann allcore takt dann ohne Probleme 4,3 GHz ohne heiß zu werden schafft,sehe ich bei sehr starken Optimierungen, wirklich keine Probleme. 500 MHz sind ja nicht die Welt und das schaffen sie hersteller schon solch einen unterschied trotz selber fertigung. Rechviel mehr wird Intel da nicht mehr daraus berrauskitzeln können. 5,3 GHz wäre bei allcore ja ganz schön übertrieben. 5,3 GHz sind bei einem Kern. Es gibt gewiss Fälle wo ein Kern erforderlich ist oder Menschen einen Kern nur brauchen. Die meisten werden allerdings allcore takt brauchen weil ja nicht anders mulicore. Somit hat sich die Sorge erübrigt. Und freilich wird das ohne avx sein. Mit wird es weniger takt, es sei denn man belässt es bei dem selben takt, dann verschwindet avx. Ist also egal wie man das macht. Anders wird man es ja nicht lösen können. Bei AMD wird es ja wohl nicht anders sein. Ich hätte also damit kein Problem. Wer so wie ich garkein avx nutzt, der profitiert ja wenigstens von den höheren takt, was ja auch zu begrüßen ist.
 
Wenn man das Ding per MCE oder so zwingt, dann stehen da auch 5GHz+ auf der Uhr, die Frage ist nur, wie lange und vor allem, wie gut lässt sich der Spaß kühlen!?
Real praktisch reichen die 125W oder was man da drauf schreibt höchst wahrscheinlich nicht für 4,8GHz Volllast auf allen Threads bei 10C. Der Takt wird damit wohl real deutlich drunter liegen, wie viel genau, keine Ahnung, muss man sehen. Vllt um die 4-4,2 oder sowas im Dreh. Das ist so ca. das 9900k mit 95W Drossel Volllast Niveau. (abseits Prime95)
 
Zuletzt bearbeitet:
Wenn Intel das machen würde, wäre die nächste Generation auf einen Schlag langsamer als die vorherige.
Aber nur bei Dinge auf die es doch gar nicht ankommt, Benchmarks wie Cinebench und Prime die alle Kerne voll auslasten. Dafür ist aber weder der 10900K noch der 3900X, den er mit genug Takt und entsprechender Leistungsaufnahme (also der Brechstange) vielleicht erreichen kann, die richtigen CPUs. Wer wirklich viel mehr solche Anwendungen arbeitet, der wird keine Mainstream CPU kaufen und wenn, dann den 3950X.
Bei den spekulierten Allcore Takt für den 10C und ohne einen Deckel bei der Leistungsaufnahme wird der "schwarze Freitag" dann halt andersrum kommen. Denn es wird wieder in den Foren Leute geben, die sich das Maul darüber zerreißen, wie es sei kann, dass ein Prozessor unter Prime95 AVX Volllast so und so viel Energie versäuft, während ein AMD irgendwas ja so und so genügsam ist.
Eben, dies ist die viel schlechtere News und man hat ja schon beim Erscheinen der Skylake-X gesehen, wie mies dessen Image als Hitzkopf sich ausgewirkt hat.
Real praktisch ist das für die Masse eh recht irrelevant - der 9900k verliert poplige ~8% in der Computerbase Anwendungssuite bei hartem Limit auf 95W.
Die entscheidender ist aber doch, dass es bei Spielen viel weniger waren:
Ein prominentes Beispiel, was dabei durch die Medien gibt ist Medions i7-8700 non K based PC von vor 2?? Jahren gewesen. Das war so ziemlich der Aufwecker und Anstoß in den Köpfen. Viele sind aus allen Wolken gefallen wie das sein kann - dabei war es nie anders vorher.
Auch hier war es bei Spielen nicht spürbar:
Aber aufgefallen ist es wohl den meisten erst ab den 6 Kernern, denn bei 4 Kernen war es vorher nicht so spürbar, aber je mehr Kerne vorhanden sind die dann per AllCore übertaktet werden, umso höher wird die Leistungsaufnahme bei hohen Allcoretakten.
Intel duldet es, genau so wie es AMD duldet.
Wobei AMD mit PBO ja selbst einen OC anbietet, es aber offenbar schafft, dass dieser per Default i.d.R. nicht aktiviert ist. Vielleicht liegt es daran, dass AMD mit dem AGESA einen weit umfassenderen Teil des BIOS selbst liefert als dies bei Intel der Fall ist. Es wäre eben gut wenn Intel die Boardhersteller dazu bringen könnte, in der Defaulteinstellung die CPUs dann auch nur innerhalb der Intel Vorgaben zu betreiben, die Frage ist aber, ob dafür überhaupt ein Handhabe hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh