Coffee Lake Nachfolger: Intel Ice Lake kommt angeblich erst Anfang 2019

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.755
intel-cpu.jpg
Mit Coffee Lake hat Intel vor einigen Monaten seine aktuellen Prozessoren-Generation für den Desktop ins Rennen geschickt. Als Nachfolger steht Ice Lake schon fest und mit dem bereits spekulierten Core i7-9700K sollen auch erstmals acht Kerne im Mainstream-Bereich zur Verfügung stehen. Bisher ging die Gerüchteküche davon aus das Ice Lake noch 2018 starten wird, doch in Asien gibt es nun...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann kommt man das nächste sinnvolle Upgrade (IL + ggf. Ampera) wohl erst 2019...
Schon hart wenn Nvidia 3 Jahre lang mit der gleichen GPU Architektur an der Spitze bleiben kann...
 
Ja irgendwie ist es seit ner ganzen Weile recht langweilig. Muss man fast hoffen das AMD mit ihren Nachfolgern im CPU und GPU Bereich richtig punkten und so Intel bzw nVidia dazu zwingen ihre Produkte schneller auf den Markt zu bringen. So wirklich glauben kann ich daran zwar nicht nach den letzten Jahren, jedoch erkennt man daran das die Dominanz der letzten Jahre schlecht für alle Consumer ist.
 
Und NVidia hat jetzt mit IceLake genau was zu tun?
 
Und dennoch hat das genau was mit nVidia zu tun?

Bleibt doch mal beim Thema.
 
Dann kommt man das nächste sinnvolle Upgrade (IL + ggf. Ampera) wohl erst 2019...
Schon hart wenn Nvidia 3 Jahre lang mit der gleichen GPU Architektur an der Spitze bleiben kann...

Ja irgendwie ist es seit ner ganzen Weile recht langweilig. Muss man fast hoffen das AMD mit ihren Nachfolgern im CPU und GPU Bereich richtig punkten und so Intel bzw nVidia dazu zwingen ihre Produkte schneller auf den Markt zu bringen. So wirklich glauben kann ich daran zwar nicht nach den letzten Jahren, jedoch erkennt man daran das die Dominanz der letzten Jahre schlecht für alle Consumer ist.

IL verschiebt sich von 2018 auf 2019 und der erwartete Pascal Nachfolger erscheint nun vermutlich auch nicht mehr 2018 sondern 2019.

Dauert halt alles länger als zunächst angenommen.

Das interessante ist ja, das die meisten hier im Forum seit Jahren meist Intel & Nvidia Konsumenten sind, und es eigentlich besser wissen müssten.

Wegen ein paar % Mehrleistung die jeder wollte, haben wir heute den Salat. (Ist kein Angriff, nur Feststellung)

Dazu kommt das der 0815 Michel der keine Ahnung von Hardware hat, auch meist zu diesen 2 Marken greift.
 
Zuletzt bearbeitet:
Das sage ich seit nen Jahr

Realistisch ist 10nm++ erst Mitte 2019 frühestens möglich für desktop
Und nebenbei die ipc bleibt identisch zu cfl kaby lake und skylake
lediglich Größe verkleinert sich und Kernanzahl steigt an auf dem desktop ich hoffe aber das die temps bei den 4,6ghz Taktraten angenehmer werden und ohne Tiefkühlschrank laufen.

Was nvidia angeht volta wird vor 2019 am desktop auch nicht zu sehen sein
ampere wird vermutlich die nächste chip gen
Nvidia muss auf mcm umstellen wie amd es tut
Bei den gpu Fertigungsverkleinerung geht erst ab 2019 los 7nm für volta
2018 steht ganz klar dem refresh zu pascal mit gddr6 und mehr Takt durch 16nm+ zu.
Spannend wird es 2019 bei gpu und cpu
amd gpu arch navi wird auch auf 7nm laufen ab 2019 nur wer zuerst kommt ist offen glofo mit den cpu wahrscheinlich den gpu ziemlich sicher
tsmc gpu eventuell
intel wird vermutlich als letztes herausbringen.
reale pin gate abstände
intel 14++nm =42nm
glofo 14nm = 48nm
tsmc 16nm =48nm
momentan ist man dabei von 2d auf 3d zu wechseln intel hat dies schon vollzogen
glofo plant dies ab 7nm
tsmc ab 7nm
Umgesetzt wurde das schon bei nand sowie dram jetzt laufen die arm soc und die x86 cpu/gpu ist die kür
Weil die architektur x86 die komplexeste ist mit all ihren Erweiterungen sowie sram
Zur erinnerung 1nm ist 0,000 000 001m in mm 0,000 001mm
Das ist gut faktor 1000 kleiner als ein Haar
 
Icelake war niemals für 2018 gedacht :stupid:.
Es war schon seit Monaten klar, dass Icelake vor 2019 nicht erscheinen wird. Anfang 2019 soll erst mal auch nur der embedded Icelake U erscheinen (4+2). Icelake S ist somit auch nicht vor Mitte 2019 realistisch.

Ampere (also der GA104) erscheint frühestens im Mai 2018. Die Produkte erscheinen wie es bislang aussieht in folgender Reihenfolge:

Januar 2018 evtl. Cannonlake-Y (2+2), KabyLake G
Februar 2018 PinnacleRidge und RavenRidge für Desktop (B450?, X470?)
April 2018 B360 + restliche CoffeeLake
Mai 2018 GA104
Q3 2018 sicherlich GA106, Z390, Whiskey Lake (Nachfolger von Kabylake Refresh, G?)
Q4 2018 Vega 20, EPYC2 (Rome), CascadeLake, GA102
Q1-2 2019 Icelake U, Navi10, Matisse (Zen2-CPU), Picasso (12nm RR-Refresh)
Q2-3 2019 Icelake S, Z490, B460 (, restliche Navi?)
Q4 2019 EPYC3 (Milan) (, 7nm-EUV-NV-Gx104?, Gx100?)
2020 Icelake X, Zen3, 7nm Zen2-APU, AM5, Tigerlake Y/U/S, NVs 7nm-EUV-Zeug, 7nm EUV-AMD-GPU(s)

Andere Produkte sind bisher nicht zuzuordnen, beispielsweise GA100, AMDs 28CU-APU...
 
Zuletzt bearbeitet:
Das interessante ist ja, das die meisten hier im Forum seit Jahren meist Intel & Nvidia Konsumenten sind, und es eigentlich besser wissen müssten.

Wegen ein paar % Mehrleistung die jeder wollte, haben wir heute den Salat. (Ist kein Angriff, nur Feststellung)

Aber das ist wirklich zu viel verlangt dass man als Kunde ein Produkt kaufen soll, nur um die Marke zu unterstützen damit diese möglicherweise irgendwann mal konkurrenzfähige Produkte liefern kann.

Also natürlich darf das jeder tun, aber ich kann es voll und ganz verstehen wenn sich der Großteil eher am Produkt orientiert und weniger an der Firma die dahinter steht.

Aber angenommen jeder würde tatsächlich AMD kaufen damit die Gewinne einfahren können, würde sich dann AMD nicht möglicherweise denken "läuft doch alles prima, die Leute kaufen unsere Produkte ja trotzdem, warum also etwas ändern?"

Hier im Forum hatte damals jeder nen A64 CPU, aus gutem Grund.... sobald gute Produkte raus kommen, werden diese auch gekauft.

Dazu kommt dass der 0815 Michel der keine Ahnung von Hardware hat, auch meist zu diesen 2 Marken greift.

ist korrekt, und die Machenschaften von Intel vor 15 Jahren sind absolut zu verurteilen. Aber abgesehen davon haben sich die Firmen ihren Ruf bei der planlosen Käuferschicht schon selbst erarbeitet...
 
Zuletzt bearbeitet:
Hi Mastergamer. Intel hat nicht vor 15 Jahren zuletzt Unsinn gemacht. Die haben schon wieder das Kartell im Nacken.
Aber ich verstehe dich, auch ich würde auf das Produkt achten.
Einen Bulldozer im Jahre 2012-2016 zu kaufen war natürlich nur selten sinnvoll.
Doch jetzt gibt es ja Zen, seien wir mal ehrlich. Ein Zen reicht für die große Mehrheit der User mehr als aus und hat AMD Typisch das gute P/L.
Wegen ein paar % Mehrleistung extra viel bezahlen und das Reiche Unternehmen Supporten ?

Auch war Radeon was Grafikkarten anging immer eine Alternative zum Zocken.
Daher finde ich es äußerst schade das so wenig gebildete User darauf geachtet haben, die Vernunft zu Supporten.
 
Zuletzt bearbeitet:
Einen Bulldozer im Jahre 2012-2016 zu kaufen war natürlich nur selten sinnvoll.
Doch jetzt gibt es ja Zen, seien wir mal ehrlich. Ein Zen reicht für die große Mehrheit der User mehr als aus und hat AMD Typisch das gute P/L.
Wegen ein paar % Mehrleistung extra viel bezahlen und das Reiche Unternehmen Supporten ?

der bulli reichte damals für die mehrheit der user auch aus und war günstiger als die konkurenz, was genau macht ryzen denn heute eigentlich so viel besser?

nicht falsch verstehen, der ryzen 1600 und 1700 sind mit etwas übertaktung gute cpus mit nem guten p/l-verhältnis,
finde es nur interessant das der bulli so verpöhnt und ryzen so in den himmel gelobt wird^^
 
Hi Mastergamer. Intel hat nicht vor 15 Jahren zuletzt Unsinn gemacht. Die haben schon wieder das Kartell im Nacken.
.
Aber damals war es echt was anderes und sehr auffällig, die A64 CPUs waren in den meisten Fällen klar besser und meist günstiger und dennoch gab es in MM/Saturn nicht einen AMD Rechner...
 
der bulli reichte damals für die mehrheit der user auch aus und war günstiger als die konkurenz, was genau macht ryzen denn heute eigentlich so viel besser?

nicht falsch verstehen, der ryzen 1600 und 1700 sind mit etwas übertaktung gute cpus mit nem guten p/l-verhältnis,
finde es nur interessant das der bulli so verpöhnt und ryzen so in den himmel gelobt wird^^
Der Bulli war "damals" eine schlechte Weiterentwicklung der Phenoms. Mehr nicht. Schau' dir doch mal die Passmarks an:
PassMark - AMD FX-4100 Quad-Core - Price performance comparison
PassMark - AMD Phenom II X4 965 - Price performance comparison

AMDs Modul-Konzept ging nicht auf. Und die Leistung lag Lichtjahre hinter Intel zurück. Man brauchte die Brechstange in Takt und Stromverbrauch, um auf -4- Modulen mit Intel mitzuhalten. Also quasi doppelter Verbrauch bei gleicher Leistung.

Ryzen ist da ein Quantensprung. AMD ist mit einem Sprung etwa auf dem Niveau von Haswell gelandet - aber auf acht Töpfen.

Und wenn es Ryzen nicht gäbe, hätten wir bei Intel den 6-Kerner erst 2018 gesehen. Oder vielleicht noch später. Bei Intel weiß man ja nie. ;)
 
AMDs Modul-Konzept ging nicht auf. Und die Leistung lag Lichtjahre hinter Intel zurück. Man brauchte die Brechstange in Takt und Stromverbrauch, um auf -4- Modulen mit Intel mitzuhalten. Also quasi doppelter Verbrauch bei gleicher Leistung.

Ryzen ist da ein Quantensprung. AMD ist mit einem Sprung etwa auf dem Niveau von Haswell gelandet - aber auf acht Töpfen.

Und wenn es Ryzen nicht gäbe, hätten wir bei Intel den 6-Kerner erst 2018 gesehen. Oder vielleicht noch später. Bei Intel weiß man ja nie. ;)

ist das so.. na schaun wir mal genau hin

der fx8150 war bei release ein müh langsamer als die teurere 2600k konkurenz mit identischer anzahl threads
dp8jud4tpa8x7bbut.jpg
dp8jujcdbe3cyrvt1.jpg

AMD Bulldozer im Test: Ein schwarzer Mittwoch (Seite 16) - ComputerBase


und wie schaut das heute aus?

der 1800x ist ein müh langsamer als der gleich teure 8700k mit geringerer anzahlt an threads.
dp8jkzgbkdqht2951.jpg
dp8jl6zofypriusw5.jpg

CPU-Benchmark: Prozessor-Vergleich - ComputerBase

das der ryzen im vergleich zum bulli deutlich attraktiver ist was leistung pro watt angeht ist natürlich richtig,
spaßiger weiße verkaufen sich die amd grafikkarten aber seit jeher tadellos, trotz seit geraumer zeit deutlich schlechterer performance pro watt als die konkurenz^^

das man mit nur einem sprung wieder konkurenzfähig ist ist natürlich beachtlich, wenn man dann den zeitraum bedenkt den man dafür gebraucht hat allerdings auch schon nicht mehr so besonders.

hättet ihr man damals alle den bulli gekauft, dann hätte sich intel auch nicht so lange ausruhen können [emoji14]
(das ist ja das aktuelle lieblings argument).


was das thema intel und die threads angeht..
bei intel kannst du seit über 7 jahren cpus mit 12 threads (und mehr) kaufen du musst eben nur gewillt sein sie zu bezahlen ^^
 
Zuletzt bearbeitet:
Tatsächlich weiß ich gar nicht, wieso alle auf den FX CPUs rumhacken. Die sind seit 2012 Leistungsmäßig für fast alles außreichend, ich spiele mit einem FX8350 auf 4,6GHZ immernoch in 4K.
Eventuell gibt es ja 2018 einen Anreiz aufzurüsten, vielleicht ja mal wieder ins blaue Lager.
 
Tatsächlich weiß ich gar nicht, wieso alle auf den FX CPUs rumhacken. Die sind seit 2012 Leistungsmäßig für fast alles außreichend, ich spiele mit einem FX8350 auf 4,6GHZ immernoch in 4K.
Eventuell gibt es ja 2018 einen Anreiz aufzurüsten, vielleicht ja mal wieder ins blaue Lager.

Naja...du spielst in 4K......Klar reicht die Krücke da aus:p , wieso hast du dir aber für diese Auflösung eine 56er geholt?:confused:
 
Mit Coffee Lake hat Intel vor einigen Monaten seine aktuellen Prozessoren-Generation für den Desktop ins Rennen geschickt.
vor einigen Monaten

Und man kriegt immer noch keine verdammten CPUs zu den damals beworbenen Preisen! Diese Kundenverarsche ist echt armselig von Intel, entweder man releast eine CPU Generation die lieferbar ist, oder man lässt es bleiben. Generell ist der gesamte Hardware Markt mal wieder eine dreckige, geldgierige Abzockerei geworden. CPU Preise sind zu hoch, DDR4 Ram ist aberwitzig überteuert ohne plausiblen Grund und GPUs werden fürs Mining missbraucht (was man längst hätte abschaffen müssen) und da die GPU Hersteller auch gerne ihre Kunden abzocken, kannst Neuanschaffungen am PC Markt VERGESSEN. Meine alte Sandy Bridge Möhre wird wohl noch laufen müssen, bis sie endlich den Geist aufgibt. Danke Hardwarehersteller! Und da sagt man, €A wäre ein Drecksverein.

Und wer mir hier jetzt mit AMD Müll kommt kann gleich nach Hause gehen.
:heuldoch:
 
Zuletzt bearbeitet:
Und man kriegt immer noch keine verdammten CPUs zu den damals beworbenen Preisen!

kriegt man, mit etwas glück und etwas geduld durchaus.

meinen i7 8700 hab ich zb am 10.10. für 325€ bei caseking bestellt und am nächsten tag geliefert bekommen.

aktuell ist das ding für 350€ lieferbar, das wäre mir dann vermutlich auch schon wieder zu teuer^^
Intel Core i7-8700, 6x 3.20GHz, tray Preisvergleich Geizhals Deutschland

edit: jetzt grade für 338€ lieferbar
Intel Core i7 8700 3.2 GHz 6-Core 12 Threads CM8068403358316
 
Zuletzt bearbeitet:
Also 0,1 Ghz mehr als Stock ? Reicht ja eigentlich auch. Mein 8600k macht Stock sogar nur 4,1 Ghz All Core.
Momentan aber auf 4,5 auf Allcore und 4,7 auf 2 Cores Übertaktet.
 
Realistisch ist 10nm++ erst Mitte 2019 frühestens möglich für desktop
Dies widerspricht der News wonach die Fertigung Ende 2018 beginnen soll und schon im August schrieb Anandtech:
Given its position as a post-8th gen architecture, Ice Lake is likely to hit sometime in 2018, perhaps 2019, depending on Intel’s rate of progress with larger chips and the 10+ process.

Und nebenbei die ipc bleibt identisch zu cfl kaby lake und skylake
Abwarten, in der News steht:
Intel wird der nächsten Generation allerdings auch eine neue Architektur spendieren.
Die Unterscheidung zwischen Architektur und Fertigungsprozess scheint in den letzten Jahren aber verloren gegangen zu sein und die Codename stehen scheinbar nur noch für die Fertigungsprozesse.
 
Mag sein, aber die ist dann einfach Blödsinn. Intel selbst gibt erst für 10FF++ Leistungssteigerungen ggü. 14FF++ aus, also muss Icelake 10FF++ sein in Wirklichkeit.
 
ist das so.. na schaun wir mal genau hin
Und jetzt schauen wir mal ganz genau hin. ;)

Was du nämlich wissentlich unter den Teppich kehrst, ist der Taktvorteil des 8700K. Kerne bringen beim Gaming momentan nix, deswegen sind die 8 Kerne des 1800X momentan wurscht. Das kann man sehr schön am 7700K erkennen. Und auch bei den Anwendungen kommt das bisher größte Manko des Ryzen zum Tragen: der Takt.

Was passiert aber, wenn man 1800X und 8700K bei nahezu gleichem Takt (mit leichtem Vorteil beim 8700K) gegenüberstellt?

Intel Core i7 8700K (3.7GHz) vs RYZEN 7 1800X (3.6GHz) - YouTube

Oha. Und jetzt habe ich mal den Durchschnitt der Ergebnisse in Prozent ausgerechnet:
10%

Der 8700K hat taktbereinigt einen Vorteil von 10% im Gaming - das ist das Architektur-Leistungsplus im Durchschnitt.

Aber was sehen wir am Ende!?

Der 8700K braucht dafür 18% mehr Strom!? :eek:

Also - in dem Sinne ist der Ryzen eine geniale Erfindung. AMD ist bis auf 10% Leistung dran - bei 18% weniger Stromverbrauch.

Wer da das Verhältnis mit den alten FX-CPUs gleichsetzen will, hat einen an der Erbse. :lol:
 
ich kehre überhaupt nichts unter den teppich, im verlinkten artikel kannst du doch eindeutig die taktraten einsehen :stupid:?

takte den 1800x doch einfach genau so hoch wie den 8700(k) (merkste was :wink: ?).

ich versuch grade herauszufinden wie du darauf kommst das letzterer 18% mehr strom verbrauchen würde (quelle?).

laut gamestar verbraucht der 8700k beim daddeln weniger und ist gleichzeitig schneller.
dp8qysga8admlb8at.jpg

Seite 2: Intel Core i7 8700K im Test - Mit sechs Kernen gegen AMDs Ryzen


edit:
ich hab grade den stromverbrauch im verlinkten video entdeckt, schade das der mensch es nicht für nötig hält anzugeben wie da überhaupt gemessen wurde und auch nicht mit welchen spannungen.
 
Zuletzt bearbeitet:
Aber was sehen wir am Ende!?

Dass dir offenbar nicht bekannt ist, wie sinnfrei es ist, AVX Volllast im Verbrauchsrating ggü. non AVX Last im Anwendungsrating zu stellen!?
Nenn uns doch mal sagen wir drei Anwendungen, wo ein System mit einem fix auf 3,7GHz getakteten 8700k 190W Gesamt versäuft?!

Nur so als Randinfo, das CB System mit dem Stock 8700k braucht mit Prime95 unter AVX2 "nur" 178W... Aber der Typ im Video kommt auf 190W mit nem untertakteten 8700k? Und fortunes fällt drauf rein und tratscht sowas weiter... Ja ne is klar. Merkste selbst oder?

ich hab grade den stromverbrauch im verlinkten video entdeckt, schade das der mensch es nicht für nötig hält anzugeben wie da überhaupt gemessen wurde und auch nicht mit welchen spannungen.

Geh von Prime95 AVX Load aus. CB bescheingt dem Cinebench Run mit vollem 4,3GHz Allcore Turbo gerade mal um die 135W Gesamtsystemverbrauch beim 8700k. Prime95 fast 180W. Die fehlenden könnten aufs Board oder auf NT Effizienz abfallen... Die 160W beim 1800X decken sich hingegen 1:1 mit einer "Normallast" Anwendung. Das deckt sich mit anderen Systemen und Reviews wie bspw. beim Luxx oder THG zumindest im groben, -> lässt sich also so einfach nicht sinnig unter einen Hut vergleichen. Aber so ist das halt mit irgendwelchen nicht nachvollziehbaren YT Videos. Seriös ist definitiv anders.
 
Wobei 135W schon recht hoch ist. Man nehme ein Z370 Board, daß durch Multi Core Enhancement, Auto Core Voltage und Auto Loadline Calibration unter Last 6x 4,7Ghz bei 1,40V draufballert
und Spiele wie BF1 oder AC Origins die alle 6 Kerne auslasten. Vermutlich wird die 150W Marke geknackt. Leider fehlen solche Messungen um aufzuzeigen wie schlecht 14nm++ tatsächlich ist !

bf1 habe ich oben verlinkt :rolleyes:
 
Zuletzt bearbeitet:
Wozu brauch man Messungen von Systemen, wo die Boardhersteller ein AutoOC vornehmen, was weit über den Spezifikationen ist um zu bewerten, ob ein Prozess gut oder schlecht ist!? Mal davon ab, kein aktuelles Spiel ist in der Lage auch nur ansatzweise so hohe Leistungsaufnahme von einem 8700k oder auch 1800X zu erzeugen, wie es ein Cinebench R15 MT tut. Und schon gleich gar nicht, wie es ein Prime95 mit AVX Load tut...
 
Intel selbst gibt erst für 10FF++ Leistungssteigerungen ggü. 14FF++ aus, also muss Icelake 10FF++ sein in Wirklichkeit.
Nicht FF sondern nm, aber egal. Außerdem steht doch in der News:
Intel wird der nächsten Generation allerdings auch eine neue Architektur spendieren. Damit soll die Leistung und auch Effizienz nach oben geschraubt werden.
Wenn diese neue Architektur auch mehr IPC bedeutet, dann wird wie damals beim Wechsel vom 4790K zum 6700K mehr Leistung erreicht, obwohl der Takt geringer ausfällt. Die Leistung der Transistoren ist ja nicht gleichbedeutend mit der Leistung der CPU, diese hängt von deren Verschaltung ab und damit der Architektur der CPU!

Dass dir offenbar nicht bekannt ist, wie sinnfrei es ist, AVX Volllast im Verbrauchsrating ggü. non AVX Last im Anwendungsrating zu stellen!?
Doch auch er dürfte dies wissen, aber es wäre natürlich seinem Ziel gegen Intel zu stänkern abträglich, wenn er dies auch berücksichtigen würde :d
CB bescheingt dem Cinebench Run mit vollem 4,3GHz Allcore Turbo gerade mal um die 135W Gesamtsystemverbrauch beim 8700k. Prime95 fast 180W.
Was auch bedeuten dürfte, dass der AVX Offset nicht aktiv war, wie es viele UEFIs im Default handhaben dürften. Bei intensiver AVX Last ist aber bei den großen Xeons schon seit Haswell und im Mainstream seit Kaby Lake eine Absenkung des Taktes, eben der AVX Offeset! Nur dürften die Boardhersteller dies im Mainstream eher selten umsetzen, da viele Übertakter davon immer noch nichts wissen und sich wundern würde wenn dann beim Stabilitätstest mit Prim eine geringere Taktfrequenz anliegt als sie erwarten. Da würden dann wohl das Board als nicht für Übertaktung geeigneten Schrott brandmarken und dies möchte offenbar kein Boardhersteller riskieren, dann sollen sie lieber die CPUs als stromhungrige Hitzköpfe bezeichnen :fresse:

Es zeigt aber, dass eine reine Messung der Leistungsaufnahme mir Prime ohne die Angabe der Taktrate mit der die CPU dabei lief, total unsinnig geworden ist und ich hoffen dies wird auch anderen endlich mal bewusst, damit wird dann künftig immer zusammen mit der Wattzahl auch die Angabe der Taktfrequenz sehen um dies auch bewerten zu können.
Die 160W beim 1800X decken sich hingegen 1:1 mit einer "Normallast" Anwendung.
RYZEN hat ja auch keine großen AVX Einheiten, die sind nur 128 Bit breit und deren Nutzung erzeugt daher keine hohe Leistungsaufnahme wie es bei aktuellen Intel CPUs der Fall ist. Daher kann man dort auch auf einen AVX Offset verzichten, wie Intel damals auch darauf verzichtet hatte, also deren CPUs auch keine größeren AVX Einheiten hatten. Deshalb nimmt fortunes ja auch die Leistungsaufnahme bei Prime, denn es wird ja in aller Regel nicht die Performance bei Prime mit angegeben und so fällt dann gar nicht auf wie lahm der RYZEN dabei im Vergleich zu den Intel CPUs mit fetten AVX Einheiten ist.
Das deckt sich mit anderen Systemen und Reviews wie bspw. beim Luxx
Schaut bitte künftig bei Reviews immer auch auf den CPU Takt und gebt den mit an, sonst sind die Angaben leider recht wertlos. Die Boards verhalten sich auch in der Default Einstellung oft unterschiedlich und folgen eben meist nicht den Vorgaben der CPU Hersteller.
Man nehme ein Z370 Board, daß durch Multi Core Enhancement, Auto Core Voltage und Auto Loadline Calibration unter Last 6x 4,7Ghz bei 1,40V draufballert
6 x 4,7GHz ist massiv übertaktet und da sollte eine erhöhte Leistungsaufnahme nicht verwundern, zumal wenn dies per Autoeinstellung passiert, bei der die UEFI Entwickler mehr Spannung anlegen als für die meisten CPUs nötig wäre, einfach um auf der sicheren Seite zu sein.
Leider fehlen solche Messungen um aufzuzeigen wie schlecht 14nm++ tatsächlich ist !
Klar, dann messe mal einen RYZEN 5 oder eine Broadwell-E 6 Kerner bei 4,7GHz auf allen 6 Kernen um zu sehen wie schlecht Intel 14nm++ tatsächlich ist :stupid:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh