CPU- und Gaming-Benchmarks: Ein erster Blick auf Tiger Lake

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
intel-tiger-lake.jpg
Intel hat die Tiger-Lake-Prozessoren mit bis zu vier Kernen vor einigen Wochen vorgestellt, die ersten Geräte sollen ab Anfang Oktober in den Läden stehen sollten. Hardwareluxx hatte vorab bereits die Möglichkeit, die Leistung der vier neuen Willow-Cove-Kerne im Zusammenspiel mit der Xe-LP-Grafik auszutesten.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das sieht doch sehr schön aus. Endlich mal Konkurrenz und AMD und Intel etwa gleich auf.
Gut zu sehen, wieviel Energie nötig ist um die hohen Taktraten hinzubekommen.
Schade, dass kein AMD 15 Watter im Test dabei ist, aber mit bisherigens Tests verglichen sind die beiden vergleichbar.
Mal ist AMD mit vielen Kernen vorn, mal Intel mit mehr Takt.
 
@Redaktion, was ist nun aus der Control-Flow Enforcement Technology von Intel geworden ? Was spuckt denn InSpectre z.B. aus ?
 
Man muss noch relativieren, dass Intel jetzt hochgetakteten LPDDR4 einsetzen laesst. Da faellt ein Vergleich der Grafikeinheiten schwer.
 
So undwo bleiben die neuen Surface 8 Pro's , zeit wirds das da mal mehr Grafikpower rein gesteckt wird. Wart ich schon aeit dem Pro 4 drauf das sich da mal was tut. Ob TiferLake oder Renoir is mir wurscht solang die Pro 8 Serie mehr Grafikdampf bekommt
 
Finde es recht schade, das die "Alltagslasten" welche von Intel angegeben wurden nicht angesprochen werden. Da scheint es sich schon sehr stark ums Kirschen picken zu handeln.
 
Es war absehbar, dass die GPU wohl einigermaßen gelungen sein würde, aber das ist nun wirklich sehr überraschend. Da kann man absolut nicht meckern. Endlich ;)
 
Verwundert doch eher weniger.

Intel hat bei der Erstellung der mobilen TigerLakes sein Hauptaugenmerk auf die Xe-Grafik gelegt. Anders lässt sich nicht erklären, wieso bei so viel TDP nur vier Kerne rauskommen. Da wird der mobilen Grafik ein hohes Budget eingeräumt.

Gleichzeitig versucht Intel den Faktor der wenigen Kerne kleinzureden. Man solle ja nicht so sehr auf die Benchmarks schauen, die sind nicht zielführend und eher für eine Nische gedacht. Aha? Jahrelang war Intel Cinebench's best friend und auf einmal ganz anders? Passt zur Präsentation.

So, und um den Grafikchip noch besser dastehen zu lassen, werden zwei Tweaks angepackt:

1. LPDDR4-RAM, der verlötet ist, bietet eine deutlich höhere Bandbreite für die GPU. Daher hinkt der Vergleich massiv.
2. Intel trickst mal wieder, indem die ausgegebenen Testmodelle manipulierte PLL-Werte vorweisen. Es ist ja nicht das erste Mal, dass Intel von den PLL-Vorgaben abweicht oder abweichen lässt. Aber hier ist es ganz offensichtlich.

Ergebnis:
Wenn man die ganzen Tweaks von Intel herausrechnet, also ganz normale DDR4-Module einsetzt und PLL auf das eingestellte Niveau tatsächlich limitiert, kommt am Ende vielleicht nur eine Renoir-GPU-Leistung heraus. Und dann nur 4 Kerne? Das konnte Intel nicht zulassen.

Es würde also nicht verwundern, wenn Intels Demogerät absichtlich so einen Vorsprung einfährt und Custom-TigerLake-Laptops später nur normale Renoir-FPS bieten.
 
Gleichzeitig versucht Intel den Faktor der wenigen Kerne kleinzureden. Man solle ja nicht so sehr auf die Benchmarks schauen, die sind nicht zielführend und eher für eine Nische gedacht. Aha? Jahrelang war Intel Cinebench's best friend und auf einmal ganz anders? Passt zur Präsentation.

Ahja, 4 Kerne sind in dem mobilen lowpower Bereich also wenig. Wie kommt man auf so einen Schwachsinn? Seit wann denn das genau? Nur weil AMD da jetzt mehr Kerne liefert? Hat ja damals mit Bulldozer in anderen Bereichen schon so unglaublich gut funktioniert :lol:

Und was genau bringen einem Werte von Cinebench, wenn diese den eigentlichen Workload nicht widerspiegeln?


So, und um den Grafikchip noch besser dastehen zu lassen, werden zwei Tweaks angepackt:

1. LPDDR4-RAM, der verlötet ist, bietet eine deutlich höhere Bandbreite für die GPU. Daher hinkt der Vergleich massiv.

Nein, nicht nur um die iGPU besser dastehen zu lassen, sondern real schneller zu machen, wovon die User auch real profitieren. So was nennt man Weiterentwicklung und Fortschritt.



Interessant wie du aus einer Vermutung einen Fakt machst und einfach mal folgendes auslässt: Dies dürfte für professionelle Tests, welche zuerst die Power-Limits selber einstellen und erst dann lostesten, kein Problem sein – insbesondere verändert dies die bereits besprochenen ersten Benchmark-Werte zu Tiger Lake wohl überhaupt nicht. Aber wenn man einfach so drauflos testet, kann womöglich dieses höhere Power-Limit zum tragen kommen und somit den Test verfälschen.

Hier sind die unterschiedlichen Perfomance-Level schön aufgelistet:

We could select three different performance levels for our benchmarks:

  1. Better Battery: 15 Watt PL1 (sustained load, HWInfo: 14.8 W during Blender) and 54W PL2 (28s peak load, HWInfo 54.5W during Blender)
  2. Better Performance: 28 Watt PL1 (sustained load, HWInfo: 27.9 W duirng Blender) and 54W PL2 (28s peak load, HWInfo: 54 W during Blender)
  3. Best Performance: 28 Watt or 36 Watt with Dynamic Tuning (sustained load, HWInfo 35.3W during Blender) and 54 W PL2 (HWInfo 54.7 W duirng Blender)
Source: https://www.notebookcheck.net/Intel...iew-First-Tiger-Lake-Benchmarks.494462.0.html

Hätte Intel da also irgendwo geschummelt, dann wäre dies in ausführlichen Tests, wie z.B. dem von AnandTech, aufgefallen.


Wenn man die ganzen Tweaks von Intel herausrechnet, also ganz normale DDR4-Module einsetzt

Warum genau sollte man jetzt ein Produkt um einen Vorteil beschneiden?
 
Zuletzt bearbeitet:
Verwenden manche Renoir Notebooks nicht auch verlöteten LPDDR4-4266 ? :confused:
 
Verwenden manche Renoir Notebooks nicht auch verlöteten LPDDR4-4266 ? :confused:

Nö. Vielleicht gibt es Tablets oder Konzeptmodelle, die aufgrund ihrer Bauform kein anderes Konzept zulassen. Aber die breite Masse baut auf 3200MHz-Module. Gesockelt.
Beitrag automatisch zusammengeführt:

Ahja, 4 Kerne sind in dem mobilen lowpower Bereich also wenig.

Wie kommt man auf so einen Schwachsinn? Seit wann denn das genau? Nur weil AMD da jetzt mehr Kerne liefert? Hat ja damals mit Bulldozer in anderen Bereichen schon so unglaublich gut funktioniert :lol:

Und was genau bringen einem Werte von Cinebench, wenn diese den eigentlichen Workload nicht widerspiegeln?
Man könnte fast meinen, du gehörst zu Intels Presseabteilung. :fresse2:

Wenn ich bei der Konkurrenz zum gleichen Preis sechs oder acht Kerne in der gleichen TDP-Klasse bekomme, dann sind 4 Kerne eindeutig - wenig. Wenn ich im PKW-Markt bei 10.000€ zwei PKW mit 85PS und einen mit 69PS bekomme, dann hat der eine eindeutig weniger PS.

Und woher willst du wissen, wer welchen Workload wirklich braucht? Entscheidet jetzt der User Paddy92, wer denn wirklich wie viele Kerne braucht? :rolleyes:

Wenn ich für's gleiche Geld mehr Kerne bekommen kann, warum denn nicht? Fakt ist: Intel bietet fürs gleiche Geld weniger Kerne an.

Nein, nicht nur um die iGPU besser dastehen zu lassen, sondern real schneller zu machen, wovon die User auch real profitieren. So was nennt man Weiterentwicklung und Fortschritt.
Achso. Und was kostet dieses Modell? 1600€? 1800€?

Was erwarten und erhalten Kunden, die diese Benchmarks sehen und später einen Laptop mit gesockeltem DDR4-3200-RAM kaufen?

Verlöteter DDR4-RAM ist die absolute Seltenheit am Laptop-Markt. Und dennoch wirbt Intel damit.

Interessant wie du aus einer Vermutung einen Fakt machst und einfach mal folgendes auslässt:
[...]
Hier sind die unterschiedlichen Perfomance-Level schön aufgelistet:

Source: https://www.notebookcheck.net/Intel...iew-First-Tiger-Lake-Benchmarks.494462.0.html

Hätte Intel da also irgendwo geschummelt, dann wäre dies in ausführlichen Tests, wie z.B. dem von AnandTech, aufgefallen.
Du schreibst es doch selbst: bei Linus kann man sehr schön erkennen, dass sich das Testmodell erheblich von der eigentlichen Spezifikation unterscheidet. Die ausgelesene PL1 mit 41,5W und PL2 mit 64W weicht erheblich von der Liste ab. Warum fällt dir das nicht auf?

Warum genau sollte man jetzt ein Produkt um einen Vorteil beschneiden?
Wieso denn beschneiden? Ich habe lediglich geschrieben, dass hier Intel wieder einmal zu allen möglichen Tricks greift, um sein Produkt besonders gut dastehen zu lassen.

Renoir könnte man auch mit LPDDR4-RAM laufen lassen. Aber AMD gab mit Absicht ein finales Produkt, das man in der Form kaufen kann - nämlich das Asus Zephyrus G14 - zum Testen in die Masse.

Und das Intel-Produkt? Das ist ein Intel-Demogerät. ;)

Man sollte also fairerweise identisch ausgestattete Produkte vergleichen. Und insbesondere der Umstand mit dem RAM lässt erhebliche Zweifel daran aufkommen. Die PLL-Poblematik lässt ein Geschmäckle zu. Denn bei identischen TDP-Klassen hat die Xe-Grafik zwar noch immer einen Vorteil zum bspw. 4800U (15W), der aber nicht mehr so groß ausfällt, wenn man das Intel-Testgerät entsprechend konfiguriert.

Und oho, wenn man das Tigerlake-Testgerät gegen das Zephyrus G14 antreten lässt, nähern sich die FPS bedächtig an.


Und jetzt fehlt ein entscheidender Fakt: wie schlägt sich TigerLake mit 16GB DDR4-3200MHz im Sockel?

Genau diesen Umstand versuche ich aufzuzeigen - da hilft auch dein Schönreden nicht. Wenn TigerLake mit handelsüblicher Hardware bestückt wird, ist zu erwarten, dass die Xe-Grafik bei gleicher TDP-Klasse nicht (deutlich) über dem Niveau von Renoir liegt. Dafür aber mind. genau so teuer ist, aber nur die Hälfte an Kernen bietet.

Ich werde dich ganz gezielt hier anschreiben, sobald die ersten Tests mit gesockelten DDR4-3200 raus sind. Denn nichts ist entscheidender für iGPUs als der RAM-Takt.
 
Zuletzt bearbeitet:

Nö. Vielleicht gibt es Tablets oder Konzeptmodelle, die aufgrund ihrer Bauform kein anderes Konzept zulassen. Aber die breite Masse baut auf 3200MHz-Module. Gesockelt.
Beitrag automatisch zusammengeführt:


Man könnte fast meinen, du gehörst zu Intels Presseabteilung. :fresse2:

Wenn ich bei der Konkurrenz zum gleichen Preis sechs oder acht Kerne in der gleichen TDP-Klasse bekomme, dann sind 4 Kerne eindeutig - wenig. Wenn ich im PKW-Markt bei 10.000€ zwei PKW mit 85PS und einen mit 69PS bekomme, dann hat der eine eindeutig weniger PS.

Und woher willst du wissen, wer welchen Workload wirklich braucht? Entscheidet jetzt der User Paddy92, wer denn wirklich wie viele Kerne braucht? :rolleyes:

Wenn ich für's gleiche Geld mehr Kerne bekommen kann, warum denn nicht? Fakt ist: Intel bietet fürs gleiche Geld weniger Kerne an.


Achso. Und was kostet dieses Modell? 1600€? 1800€?

Was erwarten und erhalten Kunden, die diese Benchmarks sehen und später einen Laptop mit gesockeltem DDR4-3200-RAM kaufen?

Verlöteter DDR4-RAM ist die absolute Seltenheit am Laptop-Markt. Und dennoch wirbt Intel damit.


Du schreibst es doch selbst: bei Linus kann man sehr schön erkennen, dass sich das Testmodell erheblich von der eigentlichen Spezifikation unterscheidet. Die ausgelesene PL1 mit 41,5W und PL2 mit 64W weicht erheblich von der Liste ab. Warum fällt dir das nicht auf?


Wieso denn beschneiden? Ich habe lediglich geschrieben, dass hier Intel wieder einmal zu allen möglichen Tricks greift, um sein Produkt besonders gut dastehen zu lassen.

Renoir könnte man auch mit LPDDR4-RAM laufen lassen. Aber AMD gab mit Absicht ein finales Produkt, das man in der Form kaufen kann - nämlich das Asus Zephyrus G14 - zum Testen in die Masse.

Und das Intel-Produkt? Das ist ein Intel-Demogerät. ;)

Man sollte also fairerweise identisch ausgestattete Produkte vergleichen. Und insbesondere der Umstand mit dem RAM lässt erhebliche Zweifel daran aufkommen. Die PLL-Poblematik lässt ein Geschmäckle zu. Denn bei identischen TDP-Klassen hat die Xe-Grafik zwar noch immer einen Vorteil zum bspw. 4800U (15W), der aber nicht mehr so groß ausfällt, wenn man das Intel-Testgerät entsprechend konfiguriert.

Und oho, wenn man das Tigerlake-Testgerät gegen das Zephyrus G14 antreten lässt, nähern sich die FPS bedächtig an.


Und jetzt fehlt ein entscheidender Fakt: wie schlägt sich TigerLake mit 16GB DDR4-3200MHz im Sockel?

Genau diesen Umstand versuche ich aufzuzeigen - da hilft auch dein Schönreden nicht. Wenn TigerLake mit handelsüblicher Hardware bestückt wird, ist zu erwarten, dass die Xe-Grafik bei gleicher TDP-Klasse nicht (deutlich) über dem Niveau von Renoir liegt. Dafür aber mind. genau so teuer ist, aber nur die Hälfte an Kernen bietet.

Ich werde dich ganz gezielt hier anschreiben, sobald die ersten Tests mit gesockelten DDR4-3200 raus sind. Denn nichts ist entscheidender für iGPUs als der RAM-Takt.
Du versuchst aber auch auf Teufel komm raus ein Problem zu finden. In den meisten normalen Workloads, die die breite Masse mit Laptops bewältigen will ist Tigerlake schneller. Für heftige Computing Tasks sind Laptops nicht gemacht. Ich würde mal gerne die durchschnittliche Laptop-CPU Auslastung einer großen Menge an Leuten sehen.
 
Man könnte fast meinen, du gehörst zu Intels Presseabteilung. :fresse2:

Jeder weiß, dass du ein verblendeter Fanboy bist, der alles versucht nur um Intel schlecht zu reden. :fresse2:

Wäre ich so ein krasser Intel Sprecher, dann hätte ich schon vor einem Monat hier im Forum voller Schadenfreude überall verbreitet, dass Foreshadow nicht Intel only ist und auch AMD betrifft ;)
lul


Und woher willst du wissen, wer welchen Workload wirklich braucht? Entscheidet jetzt der User Paddy92, wer denn wirklich wie viele Kerne braucht? :rolleyes:

Nur zu deiner Information, aber du bist hier die Person, welche 4 Kerne im lowpower Bereich als zu wenig deklariert. Ich hinterfrage lediglich, wie du zu dieser - mMn. schwachsinnigen - Einschätzung kommst. Ich gebe nirgendwo vor, wer welchen Workload hat oder wie viele Kerne benötigt werden. Das was die meisten Leute mit einem Laptop machen, u.a. Office, Social Media, Multimedia usw., sind alles keine Workloads, welche von 4 Kernen stark bzw überhaupt limitiert werden. Oder was macht der Durchschnittsotto noch so alltägliches mit seinem Laptop, was so viele Kerne benötigt?

Mal so rein logisch gesehen. Wenn meine Workloads stark cpu-lastig und mit Kernen skalieren, dann suche ich mir Geräte mit einer CPU aus dem performance Bereich und nicht dem lowpower Bereich.


Wenn ich für's gleiche Geld mehr Kerne bekommen kann, warum denn nicht?

Wenn dein Workload nicht von der höheren Anzahl an Kernen profitiert und dafür in den anderen Bereichen langsamer/schlechter ist, dann ist es nicht sonderlich schlau, sich trotzdem das Gerät mit der höheren Anzahl an Kernen zu kaufen, nur weil diese fürs gleiche Geld mehr Kerne liefert...


Achso. Und was kostet dieses Modell? 1600€? 1800€?

Der Preis stand überhaupt nicht zur Debatte. Warum kommst du jetzt auf einmal damit um die Ecke?
Zu den Preisen kann man nicht viel sagen, da die Geräte mit TGL ja erst kommen. :stupid:


Verlöteter DDR4-RAM ist die absolute Seltenheit am Laptop-Markt. Und dennoch wirbt Intel damit.

Dafür gibt es aber ziemlich viele Geräte mit ICL CPUs, welche LPDDR4X verbaut haben. Könnte es vllt daran liegen, dass dies Produktentscheidungen sind?

Du kannst dir ja gerne die Mühe machen und Statistiken erstellen, wie viele Geräte mit Ice Lake LPDDR4X oder DDR4 verbaut haben. Evtl. auch noch eine Statistik, wie viele angekündigte Geräte mit TGL LPDDR4X oder DDR4 verbaut bekommen.


Du schreibst es doch selbst: bei Linus kann man sehr schön erkennen, dass sich das Testmodell erheblich von der eigentlichen Spezifikation unterscheidet. Die ausgelesene PL1 mit 41,5W und PL2 mit 64W weicht erheblich von der Liste ab. Warum fällt dir das nicht auf?

Das einzige was mir auffällt ist, dass du dich an einen Strohhalm klammerst. Wieso fällt dir nicht auf, dass die durchschnittliche CPU Power bei 25W verbleibt und bis zu 35W hoch geht? Könnte das vllt. zu dem Level 3 - Best Performance - passen :unsure:

Du wirst dich ja selbstverständlich zuvor mit dem Video von Linus und den Verlinkungen aus deiner Quelle auseinander gesetzt haben, um zu verifizieren, ob auch stimmt, was die da schrieben, oder hast du einfach nur den Kram kopiert, weil passt ja in den eignen Bias?

Also kannst du mir ja jetzt hier schreiben, welches Level Linus da genau eingestellt hat in der Szene, in der der Screenshot entstanden ist. Liege ich mit meiner Vermutung richtig, dass dort Level 3 genutzt wurde und das man dort Adaptix Dynamic Tuning in Aktion sieht. Kann es sein, dass ich deine Quellen besser kenne, als du selbst? Kann es sein, dass man diese Info da sogar finden könnte? Ich weiß ja nicht... :wall:

Das wäre mir jetzt an deiner Stelle schon ein wenig peinlich. Just sayin'


Genau diesen Umstand versuche ich aufzuzeigen - da hilft auch dein Schönreden nicht. Wenn TigerLake mit handelsüblicher Hardware bestückt wird, ist zu erwarten, dass die Xe-Grafik bei gleicher TDP-Klasse nicht (deutlich) über dem Niveau von Renoir liegt.

Tja, eigentlich zeigst du uns hier nur wieder deinen typischen Bias gegen Intel auf. Deine Behauptungen sind absolut nichts wert, da du dich an irgendwelche Strohhalme klammerst, die dir gerade in den Kram passen.


Ich werde dich ganz gezielt hier anschreiben, sobald die ersten Tests mit gesockelten DDR4-3200 raus sind. Denn nichts ist entscheidender für iGPUs als der RAM-Takt.

Wenn dich das erfüllt und dich glücklich macht, dann darfst du das gerne tun :)
 
Zuletzt bearbeitet:
Lassen wir es gut sein. Ich melde mich bei euch, wenn die ersten Tests der Hersteller mit gesockeltem RAM da sind, Dann sehen wir ja, wer Recht haben wird. :d

Und was die Anzahl an Cores/Threads angeht: ich habe nur gesagt, dass Intel weniger Cores als AMD zum gleichen oder höheren Preis anbietet. Und es dann mit dem Argument "mehr braucht man eh nicht" versucht wegzureden.

Wenn man nicht mehr bräuchte, würde Intel im Desktop bei 8C/16T stehen bleiben, weil man als 08/15, wie du es schreibst, eh nicht mehr als 8C/16T braucht. Aber komischerweise bieten sie 10C/20T an, was man eigentlich aus Intels HEDT-Plattform kennt.

Und wenn kaum jemand mehr als 4C/8T brauchen sollte, verwundert es, dass sich AMDs 6C/12T so gut verkaufen. :rolleyes:

Jeder nimmt gerne das "Mehr" mit, das er bekommen kann. Bei Intel bekommt man das aber nicht. Und sobald die Xe-Benchmarks bei gleichen Voraussetzungen da sind, können wir uns ja nochmal unterhalten. :)
 
Also ich finde auf Anhieb 4 Notebooks mit Renoir und LPDDR4X-4266 MHz verlötet:

An AMD scheint es nicht zu scheitern, eher an dem Willen der Notebookhersteller.
Beitrag automatisch zusammengeführt:

Und was die Anzahl an Cores/Threads angeht: ich habe nur gesagt, dass Intel weniger Cores als AMD zum gleichen oder höheren Preis anbietet. Und es dann mit dem Argument "mehr braucht man eh nicht" versucht wegzureden.

Wenn man nicht mehr bräuchte, würde Intel im Desktop bei 8C/16T stehen bleiben, weil man als 08/15, wie du es schreibst, eh nicht mehr als 8C/16T braucht. Aber komischerweise bieten sie 10C/20T an, was man eigentlich aus Intels HEDT-Plattform kennt.

Und wenn kaum jemand mehr als 4C/8T brauchen sollte, verwundert es, dass sich AMDs 6C/12T so gut verkaufen. :rolleyes:

Jeder nimmt gerne das "Mehr" mit, das er bekommen kann. Bei Intel bekommt man das aber nicht. Und sobald die Xe-Benchmarks bei gleichen Voraussetzungen da sind, können wir uns ja nochmal unterhalten. :)
Naja, das gleiche Argument könnte man wieder seitens Intel mit AVX512 bringen, bekommt man bei AMD nicht, man nimmt es aber auch hier wohl gerne mit, auch wenn man es nicht unbedingt benötigt, oder nicht ? Nicht zu vergessen Thunderbolt 4, an Laptops macht das schon Sinn. Ich möchte meine USB-C Dockingstation nicht mehr missen (okay, zugegeben, es steckt eine AMD 2700U Pro drin), und wenn mir TB4 noch mehr Bandbreite bringt, sieht man vielleicht im Highend-Segment oder bei der Business-Serie vielleicht auch mal einen NBase-T oder sogar 10GBase-T Anschluss an der Dockingstation.
 
Lassen wir es gut sein. Ich melde mich bei euch, wenn die ersten Tests der Hersteller mit gesockeltem RAM da sind, Dann sehen wir ja, wer Recht haben wird.

Was willst du denn da für Recht haben?
Das eine iGPU von schnelleren RAM profitiert?
Wo widerspreche ich dem denn?
Ganz im Gegenteil ich betitel dies sogar als Vorteil. :rolleyes:


Und was die Anzahl an Cores/Threads angeht: ich habe nur gesagt, dass Intel weniger Cores als AMD zum gleichen oder höheren Preis anbietet. Und es dann mit dem Argument "mehr braucht man eh nicht" versucht wegzureden.

Wenn man nicht mehr bräuchte, würde Intel im Desktop bei 8C/16T stehen bleiben, weil man als 08/15, wie du es schreibst, eh nicht mehr als 8C/16T braucht. Aber komischerweise bieten sie 10C/20T an, was man eigentlich aus Intels HEDT-Plattform kennt.

Nein, du hast zuvor versucht zu implizieren, dass 4 Kerne im lowpower Bereich zu wenig sind und Intel versucht dies durch gezielte Benchmarks zu retuschieren. Und das Gegenargument ist nicht, dass man mehr nicht braucht, sondern dass 4 Kerne in diesem Bereich mehr als ausreichend sind, da die meisten Workloads in diesem Bereich nicht sonderlich cpu-lastig sind und nicht wirklich viele Kerne benötigen. Daher ist der Wink hier zum Desktop auch total fehl am Platz, da ein komplett anderer Bereich. Wenn dein Workload stark cpu-lastig ist und/oder mit vielen Kernen skaliert, dann wirst du dich wohl kaum nach einer lowpower CPU umsehen. :rolleyes:


Und wenn kaum jemand mehr als 4C/8T brauchen sollte, verwundert es, dass sich AMDs 6C/12T so gut verkaufen. :rolleyes:

Ist das jetzt echt ein Argument? Wirklich?!

Weil die Leute keine Ahnung haben, was diese wirklich brauchen, und somit nicht nach deren Bedarf kaufen, sondern eher nach der Denke -> Mehr Kerne müssen auch schneller sein.
Diese falsche Denke findest du sogar reihenweise hier im Forum, wobei man eigentlich davon ausgehen könnte, dass die Leute etwas mehr Ahnung haben als der Durchschnittsotto, weil die sich ja zumindest für den ganzen Kram interessieren. Trotzdem liest man hier immer wieder den gleichen Kram -> Meeehh schlechte Programmierung, die Software nutzt gar nicht meine ganzen tollen Kerne :(

Auch sollte man dazu sagen, dass die meisten Leute doch nicht einmal wirklich wissen, was in deren Geräten verbaut ist. Die wissen vllt., dass da eine CPU von Intel oder AMD verbaut ist, wenn überhaupt..
 
Du bist mit deinem lowpower-Argument auf dem Holzweg.

Dank AMD sind mittlerweile auch Ultrabooks in der Lage, genügend Leistung für bspw. Videoediting & -encoding zu übernehmen.

Nur weil du an Quadcores im 15W-Bereich festhängst, heißt das noch lange nicht, dass andere das auch müssen.

Wir sind nicht mehr bei Intels HEDT-Maschinen, bei denen acht Kerne Unmengen an Strom verschleudert haben. Dank AMD können wir stromsparende 8C-CPUs im Laptop haben. Mit adäquater GPU-Leistung.

So hat der Käufer die Wahl, nicht Paddy92, was er am Ende tatsächlich davon nutzen möchte. Oder warum glaubst du, verkaufen sich SUVs am deutschen Markt so blendend? Weil die Käufer damit so oft in den Wald fahren? :d
 
Mach ruhig weiter mit deinem zwanghaften Anti-Intel-Bias.

Such dir weitere Nischen raus, welche nicht zum alltäglichen Workload des durchschnittlichen Ottos gehören. Ach ne, ich habe vergessen, dass neuerdings alle Content Creator sind.

Genau wie du jetzt wieder mit dem Stromverbrauch bei Intel HEDT anfängst, was hier auch irgendwie vollkommen fehl am Platz ist. Dabei aber völlig außer acht lässt, dass die noch auf der alten 14nm Fertigung basieren und auch nur bei starker AVX-Last deutlich mehr verbrauchen.

Du argumentierst wie ein trotziges Kleinkind, was einfach nur irgendwie Recht haben will. Das ist mir echt zu dumm. Bin raus.
 
Du bist mit deinem lowpower-Argument auf dem Holzweg.

Dank AMD sind mittlerweile auch Ultrabooks in der Lage, genügend Leistung für bspw. Videoediting & -encoding zu übernehmen.

Nur weil du an Quadcores im 15W-Bereich festhängst, heißt das noch lange nicht, dass andere das auch müssen.

Wir sind nicht mehr bei Intels HEDT-Maschinen, bei denen acht Kerne Unmengen an Strom verschleudert haben. Dank AMD können wir stromsparende 8C-CPUs im Laptop haben. Mit adäquater GPU-Leistung.

So hat der Käufer die Wahl, nicht Paddy92, was er am Ende tatsächlich davon nutzen möchte. Oder warum glaubst du, verkaufen sich SUVs am deutschen Markt so blendend? Weil die Käufer damit so oft in den Wald fahren? :d
Was einmal mehr bestätigt, das Kaufentscheidungen zu Gunsten des „Haben-Wollen“-Faktors anstatt des tatsächlichen Bedarfs gefällt werden.
Im Übrigen dürfte Videoencoding ein denkbar schlecht gewähltes Beispiel zu Gunsten Renoir sein, da moderne Encoder noch mehr von erweiterten Intruktionssätzen und Encoder in der iGPU profitieren als von den 4 zusätzlichen Kernen.
 
Die iGPU erreicht aber nie die Bildqualität der CPU, insbesondere bei niedrigen Datenraten. Da ist die CPU von der Qualität her weit weg.

Auch muss die GPU das Encoding-Setting in hardware unterstützen, um dieses überhaupt nutzen zu können. Und da ist selbst TigerLake weit entfernt von "all you can eat".


Eine CPU kann das alles trotzdem. Und je mehr Kerne, desto schneller. Gerade im Hobby-Bereich eine Erleichterung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh