Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

Ach, du meinst den Thread, wo die AMD Fanatiker uns ganz verzweifelt irgendwelche OC Ergebnisse von einem 5950x als Stockwerte verkaufen wollten.
Ja, genau der. Das war von beiden Seiten eine durchaus peinliche Vorstellung.

Dabei wär's gar nicht nötig gewesen, für den Intel hat's dann ja auch ganz ohne PBO gereicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zum Release der 2060 war der geringe Speicher der größte Kritikpunkt an der Karte. Nun geht Nvidia genau diesen Punkt bei dem Refresh an und dann ist es auch wieder falsch.

Ich erkenne da irgendwie keine wirkliche Logik, außer einfach nur dein typisches, sinnloses Nvidia Bashing..
Ja das das mit dem Speicher ist aber richtig, Nvidia beschneidet entweder die Karten oder überdimensioniert fürs Marketing.
Ich hab die 2060 zum damaligen Release nicht für die 6 GB kritisiert, schließlich haben sie die uhrscheiße wie die 1060 mit nur 3GB nicht mehr gebracht.
Der sweet spot ist nun mal auch für WQHD um die 8GB, wenn die Leistung der Karte ausreicht die Datenmenge zu verarbeiten.

Ich kritisiere nicht grundsätzlich das sie ne alte Architektur gewählt haben, aber wenn sie schon 12nm Fertigungsplätze belegen... warum keine 2080 Super/Ti?
Es ist ja erstmal ne nette Geste alternativ noch Karten auf den Markt zu werfen.
Die würde mit der aktuellen Generation zumindest im Bereich einer 3060 TI/ 3070 genug Leistung bringen.

Mit viel Wohlwollen, könnte man jetzt argumentiert die drosseln die Produktion er 3000er um die neuen zu Produzieren....das würde Marktechnisch weniger sinnvoll sein, wenn sie noch nicht mal die aktuelle Nachfrage sättigen können.

Aber das ist hier Offtopic, wir sollten hier über Intel sprechen, übrigens hab ich selbst Nvidia Karten - Ich kann das Produkt grundsätzlich gut finden, aber die Unternehmenspolitik scheiße finden, das schließt sich nicht aus.
 
Zuletzt bearbeitet:
Dabei wär's gar nicht nötig gewesen, für den Intel hat's dann ja auch ganz ohne PBO gereicht.
Da sagt der Test hier aber was anderes..


Ja das das mit dem Speicher ist aber richtig, Nvidia beschneidet entweder die Karten oder überdimensioniert fürs Marketing.
Das hat nicht wirklich was mit Marketing zu tun, sondern ist eher der Speicheranbindung geschuldet. Sonst hätte man da auch noch herumschrauben müssen, anstatt da einfach nur ein bisschen mehr Speicher dran zu packen.

Ich kritisiere nicht grundsätzlich das sie ne alte Architektur gewählt haben, aber wenn sie schon 12nm Fertigungsplätze belegen... warum keine 2080 Super/Ti?
Weil die 2060 perfekt im Midrange Bereich platziert ist, wo die meisten Leute kaufen und weil die 2060 schon seit längerem wieder produziert wird.

Mit viel Wohlwollen, könnte man jetzt argumentiert die drosseln die Produktion er 3000er um die neuen zu Produzieren..
Sag mal, hast du nur die Überschrift gelesen oder auch, was in dem Artikel steht. Da wird doch auch erklärt, warum die Behauptung der künstlichen Verknappung der Karten nicht wirklich sinnig ist..

Aber das ist hier Offtopic, wir sollten hier über Intel sprechen
Dann fang mit dem Offtopic erst gar nicht an?!
 
Es ist nicht klar geregelt ob es es "Netto" oder "Brutto" ist.
Was soll das denn sein? So einen Quatsch wie "Netto" oder "Brutto" gibt es bei der TDP nicht!

Bei vielen CPU ist die TDP an die standard Angabe gebunden. z.b 3,6 Ghz bei 65W bei konstanten 3,6 Ghz und da wird kein Boost berücksichtigt oder nur geringfügig anteilig.
Nochmal Blödsinn, die TDP ist eine Angabe zur Auslegung der Kühlung und keine Angabe zur tatsächlichen Leistungsaufnahme der CPU. Außerdem hängt es selbst bei gleichem Takt von der Last der Kerne ab, wie hoch die tatsächliche Leistungsaufnahme ist.

Intel hatte neue Architekturen ziemlich stark an die neue Fertigung gekoppelt.
Das ist ja immer so, denn bei einer neuen Architektur braucht man immer auch mehr Transistoren für eine bessere IPC, mehr IPC kann man nur mit mehr Transistoren erreichen, die dann aber auch mehr Platz und mehr Energie brauchen, was man eben nur durch die neuere Fertigung kompensieren kann. Sonst muss man ein größeres Die in Kauf nehmen, aiwe es früher war, aber nachdem AMD den Krieg der Kerne gestartet hat, geht dies nicht immer wie man bei Rocket Lake gesehen hat, wo es dann weniger Kerne als beim Vorgänger gab.

Man merkt das bei den Autobauern, wie seit 30-40 Jahren Technik und Leistung der Verbrennern grundsätzlich gefühlt gar nichts verbessert hat
Das ist doch Quatsch, schau Dir die Autos von vor 30 - 40 Jahren an, die haben weniger Leistung, viel weniger Sicherheit und verbrauchen trotzdem mehr, erst recht wenn man die von vor 40 Jahren nimmt, vor 30 Jahren war die Einspritzung dann schon langsam Standard. Da täuscht Dich Dein Gefühl aber gewaltig. Bzgl. der eAutos ist das eine Sache die politisch erzwungen wird, ohne Subventionen wäre die eine Randerscheinung. In den letzten Jahren haben sich Tesla nur dort gut verkauft, wo der Staat dies massiv gefördert hat wie z.B. in Norwegen.
 
Das ist doch Quatsch, schau Dir die Autos von vor 30 - 40 Jahren an, die haben weniger Leistung, viel weniger Sicherheit und verbrauchen trotzdem mehr, erst recht wenn man die von vor 40 Jahren nimmt, vor 30 Jahren war die Einspritzung dann schon langsam Standard. Da täuscht Dich Dein Gefühl aber gewaltig. Bzgl. der eAutos ist das eine Sache die politisch erzwungen wird, ohne Subventionen wäre die eine Randerscheinung. In den letzten Jahren haben sich Tesla nur dort gut verkauft, wo der Staat dies massiv gefördert hat wie z.B. in Norwegen.
gesamtwirkungsgrad-brennstoffzelle-ptx-direktstrom-elektrofahrzeug-elektromobilitaet.jpg
Quelle: https://www.zukunft-mobilitaet.net/...truktur-rohstoffe-energiebedarf-wirkungsgrad/

Du kannst jeden Maschinenbau Ingenieur dazu befragen, der Wirkungsgrad von Verbrennungsmotoren ist seit dessen Erfindung kaum besser geworden. Irgendwo bei ~40% im Idealfall, wenn Betrieb Temperatur etc. alles im "Idealfall" zusammen kommt ist dieser Wert im Labor zu erreichen.
Weitere Infoquelle: https://www.springerprofessional.de...ad-in-hybridfahrzeug-auf-42-prozent/18683476#

Aber ich will da auch nicht weiter dazu diskutieren, ist hier völlig fehl am Platzwichtig ist nur zu wissen das sich das drum herum verbessert hat... Das wäre so als würde man sagen aber die Platinen und Schnittstellen sind besser geworden.. ja sind sie aber der Prozessor hat sich nicht groß weiterentwickelt um auf die Intel Referenz zu kommen.

Natürlich hat es auch dort eine Entwicklung gegeben, aber die Sprünge waren nicht so groß wie die Halbleiter Entwicklung in den letzten 3 Jahren, Was Effizienz und Leistung betriefft.

IPC%205%20-%20Synthetic%20Single%20Threaded_575px.png

Quelle: https://www.anandtech.com/show/8426...view-core-i7-5960x-i7-5930k-i7-5820k-tested/2

Bei ein Schrink von von 45nm zu 22nm, also Halbierung der Strukturbreite gerade mal 30% ...ausgehend von den Cinebench 15 Single werten.
Quelle: https://de.wikipedia.org/wiki/Intel-Core-i-Serie

Ist nicht gerade ein Meilenstein, das hätte Intel mit 100% Sicherheit besser gekonnt und geschafft... aber man wollte die Kunden melken.
Was soll das denn sein? So einen Quatsch wie "Netto" oder "Brutto" gibt es bei der TDP nicht!

Es gibt auch andere Artikel dazu und ich hatte es auch im Hinterkopf das man als Grundlage unterschiedliche Werte verwenden kann, du kannst die Zugeführte Energie(Brutto) oder die Nutzbare Energie(Netto, nach Verlust) für die Berechnung verwenden. :-)
Weil die 2060 perfekt im Midrange Bereich platziert ist, wo die meisten Leute kaufen und weil die 2060 schon seit längerem wieder produziert wird.
Naja du musst schon ehrlich sein angesichts von Amper und AMDs aktueller RDNA2, ist ne 2060 alles andere als Mid-Range... eher ein not Nagel anstelle von einer 3050TI - Desktop.

Evtl. auch nur ein Platzhalter bis die 3050TI - Desktop gelauncht wird, aber von der Leistung her passt das genau unter der Leistung einer 3060..... ziemlich genau.
Aber da es ja keine Hardware gibt, ist ne 2060 schon ne ziemlich gute FULL HD Karte, nur ich habe Bedenken beim Preis.. die wird wieder für um die 500-600€ verscherbelt werden.
 
Das ist doch Quatsch, schau Dir die Autos von vor 30 - 40 Jahren an, die haben weniger Leistung, viel weniger Sicherheit und verbrauchen trotzdem mehr, erst recht wenn man die von vor 40 Jahren nimmt, vor 30 Jahren war die Einspritzung dann schon langsam Standard. Da täuscht Dich Dein Gefühl aber gewaltig. Bzgl. der eAutos ist das eine Sache die politisch erzwungen wird, ohne Subventionen wäre die eine Randerscheinung. In den letzten Jahren haben sich Tesla nur dort gut verkauft, wo der Staat dies massiv gefördert hat wie z.B. in Norwegen.
Leider haben die Verbrenner (Otto, Diesel) in diesen Jahrzehnten leider garnix an ihrem Grundkonzept und Wirkungsgrad und auch Verbrauch wesentlich verbessert. Das war erstens garnicht gewollt, hätte zweitens viel zu viel technische Forschung erfordert und drittens auch nicht die Nachfrage/Absatz verbessert. Wenn jmd ernsthaft an Öko, Zukunft, Nachhaltigkeit gedacht hättte, dann würden wir heutzutage nicht mit 2-2.5t Autos, vollkommen überdimmensionierten Verbrennermotoren und jedermenge Schummelei/Betr.ug dastehen.

Aber wieder btt...
Das mit den 2060 seh ich eher als letztes Melken dieser Generation, wahrscheinlich ist der Gewinn/Absatz da so hoch, dass Nvidia das nochmal gnadenlos ausnutzt (würd ich aber auch so machen).
 
Du kannst jeden Maschinenbau Ingenieur dazu befragen, der Wirkungsgrad von Verbrennungsmotoren ist seit dessen Erfindung kaum besser geworden.
So ein Quatsch, von Oldtimern hast du offenbar überhaupt keine Ahnung und auch nicht von der Entwicklung der Verbrennungsmotoren vor allem in den letzten 40 Jahren, wo der Wirkungsgrad durch elektronische Zündungen und Einspritzung sowie dem Downsizing mit seiner Aufladung und der Direkteinspritzung wesentlich besser geworden ist als vorher.

Natürlich hat es auch dort eine Entwicklung gegeben, aber die Sprünge waren nicht so groß wie die Halbleiter Entwicklung in den letzten 3 Jahren, Was Effizienz und Leistung betriefft.
Diesen Schluss ziehst du aus einem Vergleich der Singlethreadperformance von 2014? Ernsthaft?


Es gibt auch andere Artikel dazu und ich hatte es auch im Hinterkopf das man als Grundlage unterschiedliche Werte verwenden kann, du kannst die Zugeführte Energie(Brutto) oder die Nutzbare Energie(Netto, nach Verlust) für die Berechnung verwenden. :-)
Was für ein Schwachsinn, da steht nichts von Brutto und Netto und die zugeführte elektrische Energie wird zu praktisch 100% in Wärme umgesetzt, es könnte allenfalls minimal Energie an direkt angeschlossene Peripheriegeräte wie vor allem das RAM abgegeben werden, aber i.d.R. werden die Daten mit Wechselspannungen übertragen und dabei wird in beide Richtungen jeweils abwechselnd minimal Energie übertragen, was in der Summe als Null ist. Es gibt diesen angeblichen Unterschied bei CPUs also nicht. Den hat man z.B. bei Spannungswandlern, wo eine Menge der aufgenommenen Leistung wieder abgegeben wird und nur die Verlustleistung im Spannungswandler selbst in Wärme umgewandelt wird.

Leider haben die Verbrenner (Otto, Diesel) in diesen Jahrzehnten leider garnix an ihrem Grundkonzept und Wirkungsgrad und auch Verbrauch wesentlich verbessert. Das war erstens garnicht gewollt, hätte zweitens viel zu viel technische Forschung erfordert und drittens auch nicht die Nachfrage/Absatz verbessert.
Noch einer der überhaupt keine Ahnung hat, aber sich davon nicht abhalten lässt dies kund zu tun. Dinge wie Downsizing waren also wohl sinnlos und man hätte sie sich sparen können.
 
Zuletzt bearbeitet:
Ach, Holt....... mit dir zu diskutieren ist vergleichbar mit einer Frau. Immer Widerwort, weiß alles besser, ist aber in manchen Bereichen einfach nur strunzdoof.
Downsizing....YMMD! :ROFLMAO:
 
Also, vor 40 Jahren hatte ich einen Mercedes 200D /8 - 55PS, Höchstgeschwindigkeit 130 km/h, 26 sec. von 0 auf 100. Verbrauch bei 130 geschätzt 12l/100 km. Mein heutiger Diesel beschleunigt gut 5x so schnell, die Höchstgeschwindigkeit ist ca. doppelt so hoch und obwohl er eine Tonne mehr wiegt als der 200D, verbraucht er bei 130 ca. 7,5 l/100km. Heerscharen von Ingenieuren haben in den letzten Jahrzehnten daran gearbeitet, Motoren stärker, effizienter und sauberer zu machen - mit Erfolg.
 
Ach, Holt....... mit dir zu diskutieren ist vergleichbar mit einer Frau. Immer Widerwort, weiß alles besser, ist aber in manchen Bereichen einfach nur strunzdoof.
Downsizing....YMMD! :ROFLMAO:
Vor allem, einfach mal die technische Dokumentation ignorieren. :ROFLMAO:
Das hat was von Querdenker, alles als Quatsch abzutun ohne Quellen oder fundiertes Wissen nachzuweisen. Mit so einem brauch man irgendwie gar nicht diskutieren. Der hat auch nicht verstanden das es um die 2-3% Verbesserung geht, sondern um das Verhältnis an Entwicklungen, in dem man anderen Industriellen einen Vergleich zu Intel vor AMDs "Comeback" Zieht. Es ist einfach ein Marktwirtschftlicher Fakt, das ohne Wettbewerb, keine echte Innovation herrscht, sondern die nur in Raten wenn sie kommt beim Kunden ankommt.
Beitrag automatisch zusammengeführt:

Also, vor 40 Jahren hatte ich einen Mercedes 200D /8 - 55PS, Höchstgeschwindigkeit 130 km/h, 26 sec. von 0 auf 100. Verbrauch bei 130 geschätzt 12l/100 km. Mein heutiger Diesel beschleunigt gut 5x so schnell, die Höchstgeschwindigkeit ist ca. doppelt so hoch und obwohl er eine Tonne mehr wiegt als der 200D, verbraucht er bei 130 ca. 7,5 l/100km. Heerscharen von Ingenieuren haben in den letzten Jahrzehnten daran gearbeitet, Motoren stärker, effizienter und sauberer zu machen - mit Erfolg.
Darum geht es doch gar nicht im Grundsatz, sondern ich habe unterstellt im ein Vergleich zu Intel das dort die Entwicklung nur sehr langsam stattgefunden hat und trotzdem kein Meilenstein entstand. Am Grundprinzip vom Verbrenner ist nicht wirklich viel besser geworden, es ist das Drum herum wie bessere Batterien zum starten, Pumpen und elektronische Steuerung...

Aus der IT betrachtet würde man sagen das Mainboard ist besser geworden und der On Board Controller, aber die grundsätzliche IPC hat sich wenig verbessert.
Diesel gate hat nicht umsonst gezeigt wie betrogen wurde, bezüglich Verbrauch und Abgasen.
 
Zuletzt bearbeitet:
Natürlich hat es auch dort eine Entwicklung gegeben, aber die Sprünge waren nicht so groß wie die Halbleiter Entwicklung in den letzten 3 Jahren, Was Effizienz und Leistung betriefft.


Quelle: https://www.anandtech.com/show/8426...view-core-i7-5960x-i7-5930k-i7-5820k-tested/2

Bei ein Schrink von von 45nm zu 22nm, also Halbierung der Strukturbreite gerade mal 30% ...ausgehend von den Cinebench 15 Single werten.
Quelle: https://de.wikipedia.org/wiki/Intel-Core-i-Serie

Ist nicht gerade ein Meilenstein, das hätte Intel mit 100% Sicherheit besser gekonnt und geschafft... aber man wollte die Kunden melken.
Wieso verschweigst du eigentlich, dass es sich dabei nur um einen reinen IPC Vergleich handelt, bei dem alle CPUs auf 3,2GHz und 4C ohne HT limitiert wurden?
Wieso verschweigst du eigentlich die Erhöhung der Kernanzahl bei Haswell?
Wieso verschweigst du eigentlich die Einführung von dem Featureset AVX2 mit Haswell, wodurch diese je nach Workload deutlich schneller als deren Vorgänger sind?
Sieht man halt nicht bei dem CB Vergleich nicht, da die dort genutzte Version noch kein AVX2 unterstützt..

Aber da es ja keine Hardware gibt, ist ne 2060 schon ne ziemlich gute FULL HD Karte, nur ich habe Bedenken beim Preis..
Also perfekt für die meisten Menschen außerhalb der Foren-Selbstschrauber-Bubble..

die wird wieder für um die 500-600€ verscherbelt werden.
Dies ist der aktuellen Situation geschuldet und von den Straßenpreisen sehen die Hersteller nicht sonderlich viel.
Vor allem, einfach mal die technische Dokumentation ignorieren. :ROFLMAO:
Das hat was von Querdenker, alles als Quatsch abzutun ohne Quellen oder fundiertes Wissen nachzuweisen.
Nur irgendwelche technische Dokumentationen einzubinden, zeugt jetzt nicht gerade von fundiertem Wissen. Vor allem nicht, wenn man diese nicht einmal versteht, so wie es bei dir ganz offensichtlich der Fall ist. Aber immerhin erhältst du die subjektive Validierung von anderen. Nicht weil du Recht hast, sondern weil du gegen das gemeinsame Feindbild argumentierst. :geek:
 
Dinge wie Downsizing
Ja Downsizing war das schlimmste überhaupt, kein gutes Drehmoment, Verbrauch wegen angedoktorter Turbolader trotzdem schlecht, zusätzliche schlechte Abgase die zu Feinstaub und NOx Problemen führten und teils noch erhöhte Anfälligkeit/schlechte Langlebigkeit wegen zusätzlicher Komplexität und am Ende wurde den Kunden ein leichter Motor mit niedrigem Verbauch versprochen, in der Realität sah das aber ganz anders aus.
 
Können wir die Auto und Motorendiskussion bitte in den entsprechenden Thread im Off Topic verlagern und hier wieder zu den CPUs kommen? ;)

Danke!
 
Wieso verschweigst du eigentlich, dass es sich dabei nur um einen reinen IPC Vergleich handelt, bei dem alle CPUs auf 3,2GHz und 4C ohne HT limitiert wurden?
Wieso verschweigst du eigentlich die Erhöhung der Kernanzahl bei Haswell?
Wieso verschweigst du eigentlich die Einführung von dem Featureset AVX2 mit Haswell, wodurch diese je nach Workload deutlich schneller als deren Vorgänger sind?
Sieht man halt nicht bei dem CB Vergleich nicht, da die dort genutzte Version noch kein AVX2 unterstützt..
Das ist doch der wichtigste vergleich um einen Objektiven Leistungszuwachs zu messen. Das ist doch bei Motoren auch, das Argument man kann ja ADBlue zur Abgasbereinung reinmachen ist kein Argument zu sagen die Motoren haben sich weiterentwickelt.
Darauf wollte ich doch hinaus, viele Jahre hat sich an der effektiven IPC nichts gebessert(mehr durch höhere Taktraten) und ja bedingt durch die Reduzierung der Strukturgrößen wurden auch mehr Kerne hinzugefügt.
AVX ist jetzt für mich kein Argument und keine super Innovation.

Wie viele Anwendungen hatten zur damaligen Zeit von AVX2 profitiert? Bei wieviel AMD APUs wurden Floatingeinheiten der GPU für die Rechenleistung berücksichtigt?....

Ich hab ja nicht gesagt das es gar keine Innovation gegeben hat, nur die kam eher tröpfchenweise und wäre bei einer ernsthaften Konkurrenz schneller auf den Markt gekommen und die technischen Sprünge wären wohl größer geworden.

Es wurde halt nur vorhandene Technik mit jeder Generation etwas effektiver/effizienter ausgenutzt aber von einem wirklichen !Wow, so wie in den letzten 3 Jahren, sei es im GPU- oder CPU-Markt war jahrelang halt nichts, weil der Wettbewerb mau war.

Das mit dem BIG-Little von Intel kam echt überraschend(Ich hätte so einen versuch eher bei AMD erwartet da sie schon länger Multichips verwenden.), vor allem von Jahrelangen Generationen Mono Kernen zu Multichips gleich auf Big-Little zu gehen, hätte man so nicht wirklich vorahnen können. -sowas ist Innovation, hätten wir die auch schon dieses Jahr gesehen ohne AMD und den Erfolg durch ZEN und TSMC Fertigung? Möglicherwiese erst 2025 und nicht so früh, da man ja mit den letzten Generationen auch genug Leistung und Effizienz hätte liefern können um den Markt zu sättigen.

Normal wären die Intelchips, wenn nicht mit der Brechstange auf 5-5,2Ghz geprügelt bei~4,0- 4,6 GhZ auch effizienter und würden weniger saufen selbst die 10xxx,11xxx, 9xxx, 8xxx, der spontaner Druck vom Wettbewerb und die Fertigungsprobleme hatte halt Intel keine Wahl gelassen.
 
Darum geht es doch gar nicht im Grundsatz, sondern ich habe unterstellt im ein Vergleich zu Intel das dort die Entwicklung nur sehr langsam stattgefunden hat und trotzdem kein Meilenstein entstand.
So ein Blödsinn und was soll die CPU können um als ein Meilenstein zu gelten? Bei AMD war allenfalls Zen einer, aber auch nur weil sich vorher jahrelang nichts getan hat und die Bulldozer Vorgängerarchitektur so ein Flopp war und auch deren Überarbeitungen daran nicht viel ändern konnten. Die IPC von Alder Lake ist um etwa 40% besser als bei Skylake, also der noch vor einem Jahr aktuellen Desktoparchitektur und trotz der im Vergleich zur oft überarbeiten 14nm noch neuen 10nm Fertigung, wird fast der gleiche Takt erreicht. Die Multicoreperformance ist ebenfalls massiv besser, nicht zuletzt auch wegen der e-Kerne und da mit Alder Lake nun erstmal Big-Little im großen Stil in der x86 Welt Einzug hält, ist Alder Lake sehr wohl ein Meilenstein.
Vor allem, einfach mal die technische Dokumentation ignorieren. :ROFLMAO:
Was für eine "technische Dokumentation"? Es wurde keine geliefert die diese Aussage unterstützen würden:
Du kannst jeden Maschinenbau Ingenieur dazu befragen, der Wirkungsgrad von Verbrennungsmotoren ist seit dessen Erfindung kaum besser geworden.
Im Gegenteil weiß aber jeder der sich mit alten Autos auskennt, dass der Wirkungsgrad von Verbrennungsmotoren seit ihrer Erfindung sehr wohl gestiegen ist!
Irgendwo bei ~40% im Idealfall
Auch das ist falsch:
Wie man sieht, schaffen Schiffs-Zweitaktdiesel auch 50% Wirkungsgrad! Man sollte sich schon richtig informieren und nicht nur halbwegs, denn sonst gilt:
Mit so einem brauch man irgendwie gar nicht diskutieren.
Eben, so sehe ich das auch, denn wer immer wieder Aussagen macht die nicht belegt sind und sich als falsch herausstellen, dann aber im schlimmsten Whataboutism mit der falschen Behauptung kommt, ist kein Diskussionspartner.

Paddy92 ist ja noch weiter auf den von dir verlinkten Anandtech Artikel von 2014 eingegangen, der als Beleg dafür dienen sollte, dass "die Sprünge waren nicht so groß wie die Halbleiter Entwicklung in den letzten 3 Jahren, Was Effizienz und Leistung betriefft." Mir hat es im wesentlichen gereicht zu sehen das ein 7 Jahre alter Test als Beleg für die Entwicklung "in den letzten 3 Jahren" herangezogen wurde, was in sich schon total lächerlich ist!
Ja Downsizing war das schlimmste überhaupt, kein gutes Drehmoment
Man kann an den Downsizing Motoren sicher einiges kritisieren, aber kein gutes Drehmoment zu haben gehört wohl kaum dazu. Durch die Aufladung haben diese ja gerade schon bei geringen Drehzahlen ein sehr hohes Drehmoment welches Saugmotoren so nie erreichen.
 
Das ist doch der wichtigste vergleich um einen Objektiven Leistungszuwachs zu messen.
Nein, eben nicht. Bei einem IPC-Vergleich werden der Takt und i.d.R auch die Kernanzahl auf Werte limitiert, die alle getesteten CPUs erreichen. Dadurch werden evtl. Verbesserungen in diesen Bereichen verschleiert. Wir erinnern uns sicher noch alle an das ganze Geheul der AMD Fans zum Release von Zen, wie schlecht und ahnungslos doch alle Reviewer seien, da diese zu wenig MC Anwendungen testen würden, nur um AMD schlecht dastehen zu lassen.
Zudem ist IPC keine Konstante und unterscheidet sich von Workload zu Workload. Folglich hat die Auswahl der testeten Software einen großen Einfluss auf den Vergleich. Um dort eine gewisse Objektivität rein zu bringen, müsste man eine Breite Auswahl an verschiedener Software testen oder eine Software zum Testen, wie u.a. SPEC, die verschiedene Workloads testet.

Darauf wollte ich doch hinaus, viele Jahre hat sich an der effektiven IPC nichts gebessert(mehr durch höhere Taktraten) und ja bedingt durch die Reduzierung der Strukturgrößen wurden auch mehr Kerne hinzugefügt.
Laut deiner Aussage hat Intel die IPC damals um ~30% steigern können, was laut dir effektiv nichts sei oder wo man hätte mehr machen können, aber man wollte ja lieber melken. Als Begründung meinst du, dass man ja in den letzten 3 Jahren deutlich mehr erreicht hätte. Nur ist deine Begründung nicht sonderlich sinnig bzw. entzieht sich jeglicher Logik. Denn AMD hat die IPC über die letzten 3 Jahre auch nur um diese ~30% steigern können. Nur Intel konnte die IPC bei Golden Cove etwas mehr steigern und zwar um ~40% steigern im Vergleich zu Comet Lake.

Quelle: https://www.computerbase.de/2021-11...ipc_im_vergleich_zu_10_und_11_gen_sowie_zen_3

AVX ist jetzt für mich kein Argument und keine super Innovation.
Neue Instruktionen zu erstellen, ist aber ein Mittel, um die IPC zu steigern. Die Steigerung der IPC bei AMD resultiert u.a auch aus der Überarbeitung der AVX Register. AMD hat bei Zen die AVX2 Leistung noch verkrüppelt, da man dort auf 2*128 Bit Register gesetzt hat, anstatt auf 256 Bit Register. Erst seit Zen2 setzt AMD auch auf 256 Bit Register.

Bei wieviel AMD APUs wurden Floatingeinheiten der GPU für die Rechenleistung berücksichtigt?....
Was willst du?

Das mit dem BIG-Little von Intel kam echt überraschend(Ich hätte so einen versuch eher bei AMD erwartet da sie schon länger Multichips verwenden.), vor allem von Jahrelangen Generationen Mono Kernen zu Multichips gleich auf Big-Little zu gehen, hätte man so nicht wirklich vorahnen können. -sowas ist Innovation, hätten wir die auch schon dieses Jahr gesehen ohne AMD und den Erfolg durch ZEN und TSMC Fertigung? Möglicherwiese erst 2025 und nicht so früh, da man ja mit den letzten Generationen auch genug Leistung und Effizienz hätte liefern können um den Markt zu sättigen.
Dir ist aber schon bewusst, dass ADL nicht die erste Hybrid-CPU von Intel ist, sondern Lakefield und bereits 2018 angekündigt wurde?

Ich stelle mir bei dir oft die Frage, ob du einfach nur trollst oder wirklich so dermaßen ahnungslos bist..
 
Eben, so sehe ich das auch, denn wer immer wieder Aussagen macht die nicht belegt sind und sich als falsch herausstellen, dann aber im schlimmsten Whataboutism mit der falschen Behauptung kommt, ist kein Diskussionspartner.
Eben du hast weder meine Informationsquellen zum Wirkungsgrad gelesen noch hast du dich mit deiner eigenen Studie auseinandergesetzt, den Passus das man für 50% Wirkungsgrad unter anderem synthetische Kraftstoffe brauch wurde einfach überlesen und das man dort nur Entwicklungen wieder vorantreibt weil man spontan von alternativen Antrieben recht zügig überholt wird darf man auch nicht vergessen.
Um zum Fahrzeug zurück zu kommen, es hat sich am Motor nach wie vor nichts verbessert.
Alles zielt auf den Kraftstoff und das drum herum.
Also, vor 40 Jahren hatte ich einen Mercedes 200D /8 - 55PS, Höchstgeschwindigkeit 130 km/h, 26 sec. von 0 auf 100. Verbrauch bei 130 geschätzt 12l/100 km. Mein heutiger Diesel beschleunigt gut 5x so schnell, die Höchstgeschwindigkeit ist ca. doppelt so hoch und obwohl er eine Tonne mehr wiegt als der 200D, verbraucht er bei 130 ca. 7,5 l/100km. Heerscharen von Ingenieuren haben in den letzten Jahrzehnten daran gearbeitet, Motoren stärker, effizienter und sauberer zu machen - mit Erfolg.
Es haben sich die technischen Errungenschaften herum verbessert am Antrieb/Fahrzeug, wie z. B Reduktion der Gesamtmasse des Fahrzeugs, intelligentere Steuerungen usw. Aber der Motor selbst, das Funktionsprinzip da ist nix besser geworden. - nicht zu vergessen der Strömungswiderstand. Es sind alles Errungenschaften dank Materialforschung auch die Reifen sind besser geworden mit niedrigerem Rollwiderstand die Übertragung an der Achse usw. diese ganzen Dinge in Kombination haben zur Verbesserung der Werte insgesamt geführt.. aber wie man eben auch in den letzten Jahren am Dieselgate gesehen hatte, scheinen die Werte nicht alle so glaubhaft zu sein wie sie sollten.
Neue Instruktionen zu erstellen, ist aber ein Mittel, um die IPC zu steigern. Die Steigerung der IPC bei AMD resultiert u.a auch aus der Überarbeitung der AVX Register. AMD hat bei Zen die AVX2 Leistung noch verkrüppelt, da man dort auf 2*128 Bit Register gesetzt hat, anstatt auf 256 Bit Register. Erst seit Zen2 setzt AMD auch auf 256 Bit Register.
Das mag richtig sein, aber das hat zu dem Zeitpunkt nichts gebracht als Intel das eingeführt hatte, weil kaum bis wenig Anwendungen davon profitiert hatten.
Darauf wollte ich hinaus. Ich wollte nur unter anderem beleuchten das eben damals die Leistungssteigerung zwar da war aber magerer war, als die Sprünge in den letzten 3 Jahren die durch Wettbewerb hervorgerufen wurden. Sieht man ja anhand von Anandtech Benchmarks, wie mager die effektiven Sprünge waren - Wenn man Taktraten und ggf. Stromaufnahme und irgendwelche Boost Mechanismen die kurzfristig die Leistung erhöhen nicht berücksichtigt. (E-Autos analog dazu gibt es auch schon seit mehreren Jahren, aber ohne passende Infrastruktur dazu ist es nicht effizient 50km zum Tanken zu fahren - als Beispiel)

Und sollte es in dem Markt wieder keinen vernünftigen Wettbewerb geben, wird die Innovation wieder stagnieren.
Alle großen Unternehmen orientieren sich an dem Schema https://de.wikipedia.org/wiki/Produktlebenszyklus
und so lange da kein Druck vom Wettbewerb da ist, das die Produkte schneller "veralten" - weil ein anderer ein besseres Angebot machen kann, wird die Innovation immer gedrosselt. -siehe Telekom und Glasfaserausbau bis ins Haus.
Das heißt nicht das der Hersteller hinter den Kulissen nicht schon die Blueprints für die Produkte der Zukunft in der Schublade hat, sondern nur das die einfach nicht ausgespielt werden und der Kunde weniger fürs Geld bekommt als könnte.

Genau das hatte Intel in den Jahren nach Core2Duo bis Zen1 immer so gespielt. Ein Umstieg von einer Generation zu nächsten hatte sich effektiv weniger gelohnt, es sei denn man wollte die neuen Schnittstellen haben oder schnelleren Speicher -mehr Kerne hatte man im Konsumentenbereich eher nicht bekommen und eben die IPC Steigerung war eher magerer.
 
Ich wollte nur unter anderem beleuchten das eben damals die Leistungssteigerung zwar da war aber magerer war, als die Sprünge in den letzten 3 Jahren die durch Wettbewerb hervorgerufen wurden.
Was halt nachweislich totaler Bullshit ist und nicht stimmt.

Das heißt nicht das der Hersteller hinter den Kulissen nicht schon die Blueprints für die Produkte der Zukunft in der Schublade hat, sondern nur das die einfach nicht ausgespielt werden und der Kunde weniger fürs Geld bekommt als könnte.
Oder diese aufgrund von Problemen nicht bringen können. Sowie sich bei Intel alles durch die Probleme mit der 10nm Fertigung verschoben hat. Als Nachfolger von Kaby Lake war eigentlich Cannon Lake mit einer neuen Architektur, genannt Palm Cove, für 2015/16 vorgesehen. Was daraus geworden ist, wissen wir ja alle. Die geplante Erhöhung der Kernanzahl wurde dann notgedrungen mit Coffee Lake durchgeführt, aber immer noch dieselbe Architektur nur, halt noch einmal refreshed. Dann weitere Refreshes und der famose Backport..

Genau das hatte Intel in den Jahren nach Core2Duo bis Zen1 immer so gespielt. Ein Umstieg von einer Generation zu nächsten hatte sich effektiv weniger gelohnt, es sei denn man wollte die neuen Schnittstellen haben oder schnelleren Speicher -mehr Kerne hatte man im Konsumentenbereich eher nicht bekommen und eben die IPC Steigerung war eher magerer.
Nein, die IPC Steigerungen sind bis Kaby Lake im ähnlichem Maß wie auch heutzutage ausgefallen. Neue Architekturen haben größere Sprünge bei der IPC hingelegt, als die Refreshes. Nur kam dies halt durch die Fertigungsprobleme ins Stocken. Man sollte auch bedenken, dass zwischen Comet Lake und Golden Cove mehrere Schritte liegen. Namentlich wären dies: Palm Cove, Sunny/Cypress Cove, Willow Cove. Im Desktop sind die Zwischenschritte Palm Cove und Willow Cove entfallen, wodurch die Sprünge zu Cypress Cove und Golden Cove größer wirken.

Zudem solltest du bedenken, dass AMD nicht die einzige Konkurrenz von Intel ist..
 
Nur ist deine Begründung nicht sonderlich sinnig bzw. entzieht sich jeglicher Logik.
Mit Logik scheint er es nicht zu haben.

Ich stelle mir bei dir oft die Frage, ob du einfach nur trollst oder wirklich so dermaßen ahnungslos bist..
So langsam glaube ich wirklich er trollt nur, denn so ahnungslos kann man doch gar nicht sein, wenn man seit mehr als einem Jahr hier angemeldet ist.

Eben du hast weder meine Informationsquellen zum Wirkungsgrad gelesen noch hast du dich mit deiner eigenen Studie auseinandergesetzt, den Passus das man für 50% Wirkungsgrad unter anderem synthetische Kraftstoffe brauch wurde einfach überlesen
So ein Quatsch, die langsam laufende Schiffs-Zweitaktdiesel schaffen auch 50% Wirkungsgrad und deren Kraftstoff kann man wirklich nicht als synthetisch bezeichnen. Synthetische Kraftstoffe spielen bisher auch keine Rolle und der neue Mazda Motor braucht diese auch nicht. All das hast du nicht beachtet, sondern hängst dich alleine an einer Quelle auf, deren Informationen hier teils schon widerlegt sind.

Es haben sich die technischen Errungenschaften herum verbessert am Antrieb/Fahrzeug, wie z. B Reduktion der Gesamtmasse des Fahrzeugs
So ein Unsinn, ein /8 wog ab 1340kg, der aktuelle W213 wiegt ab 1575kg, die Autos sind auch wegen der Sicherheit größer und schwerer geworden, verbrauchen aber weniger, weil die Motoren heute viel effizienter geworden sind. Dies liegt eben auch an dem ganzen was um die Brennkammer drum herum ist und hilft den Wirkungsgrad zu optimieren. Diese hat auch Nachteile, die alten 55PS Diesel im /8 haben locker eine Million km gehalten und brauchen dazu nur ab und an einen Ölwechseln, bei modernen Dieseln dürfte es schwer werden dies zu schaffen, aber das ist nicht das Thema, sondern es geht eben darum zu widerlegen das sich bzgl. des Wirkungsgrades seit ihrer Erfindung nichts getan hätte. Hat es aber!

Ich wollte nur unter anderem beleuchten das eben damals die Leistungssteigerung zwar da war aber magerer war, als die Sprünge in den letzten 3 Jahren die durch Wettbewerb hervorgerufen wurden.
Die Sprünge der letzten beiden Generationen von Intels Desktop CPUs waren so groß, weil man vorher wegen der Probleme mit der 10nm Fertigung nicht die geplanten neuen Generationen im Desktop bringen konnte und daher immer wieder die Skylake Architektur gebracht hat, von Skylake bis Comet Lake hat sich ja an der Architektur nichts verändert. Im übrigen hat Intel neben AMD vor allem im Serverbereich auch andere Konkurrenten und würde auch ohne AMD genauso massiv entwickeln müssen wir würden dann aber vielleicht andere Modelle im Desktop sehen und mehr Kerne wären auch ohne AMD gekommen, einfach weil man mit immer kleineren Fertigungsverfahren auch den Platz hat diese auf einem kleinen Die unterzubringen.

Das heißt nicht das der Hersteller hinter den Kulissen nicht schon die Blueprints für die Produkte der Zukunft in der Schublade hat, sondern nur das die einfach nicht ausgespielt werden
Solche Entwicklungen dauern Jahre und die Kosten gehen schnell in die Milliarden, die lässt kein Hersteller in der Schublade vergammeln, wenn sie erfolgreich waren. Einfach weil es wirtschaftlich totaler Unsinn wäre sie dann nicht auch zu produzieren und natürlich sind die Hersteller intern schon weiter, Intel fertigt schon Meteor Lake:


Die Entwicklung braucht eben Zeit und wir wollen ja ausgereifte Produkte und auch wenn die Hersteller am Ende nicht alle Bedingungen testen können unter denen die Hunderte Millionen Kunden diese am Ende einsetzen werden, die also irgendwann auf den Markt bringen und dann doch noch Fehler gefunden werden, so hat man so etwa 2 Jahre Vorlauf vom ersten fertigen Chip bis man den als Kunden im Laden kaufen kann. Die großen Jungs bekommen neue CPUs von Intel etwa 1 bis 1½ Jahre bevor sie im Laden zu haben sind, die haben also Sapphire Rapids schon längst zum Testen, Validieren, Anpassen ihrer Software und teils auch schon produktiv im Einsatz. Das ist der normale Entwicklungsprozess und nicht die Schublade aus der neue Produkte gezaubert werden oder wo diese liegengelassen werden um die Kunden länger mit den alten abzuzocken. So eine Schublade gibt es nicht, wie man ja gesehen hat als Intel wegen der Probleme mit dem 10nm Prozess nichts anderes machen konnte als Skylake immer wieder neu zu bringen, mit mehr Kernen und ein wenig mehr Takt, den man eben bekommt je länger man einen Fertigungsprozess optimiert und komischerweise sind diejenigen die sowas behaupten dann meist die gleichen die sich lautesten beschweren es würden unausgereifte Produkte auf den Markt geworfen, wenn dann doch mal ein Bug gefunden wird.
 
Zuletzt bearbeitet:
Die Leistungssteigerung kommt aber hauptsächlich von den Turbos. Früher waren fast alle Motoren (im Straßenbereich) Saugmotoren. Nachdem man langsam verstanden hat, wie man Turbos auch im unteren Drehzahlbereich bzw über den gesamten Drehzahlbereich (bei Automotoren) nutz- und fahrbar macht. Bei niedrigdrehenden Motor (bspw. LKW) war dieses Problem nicht so vorhanden. Dazu kamen den weitere Techniker wie Direkteinspritzung, hohe Systemdrücke usw. was dazu dient den Kraftstoff so effizient wie möglich zu verbrennen.

Und nun BTT!
 
:unsure: ich lese hier nur was von Antrieben Motoren, ist das jetzt alles Umbenannt worden CPU = Antrieb / Board = Motor oder umgedreht?
 
So die Kurzfassung aller Threads.

Ich hab einen Vergleich zu anderen Monopolistischen Industrien gezogen, das sich am Grundprinzip unter Intels Monopolstellung bis AMD mit ZEN wieder effektiv Wettbewerbsfähig geworden ist und Intel seine Kartellstrafen und Entschädigungen an AMD zahlen musste, sich grundsätzlich nicht viel gewandelt hatte ~2008-2016 gab es als Intel meiner Meinung auch nachweislich durch Leistungsvergleiche "IPC" und durch kaum revolutionäre Design, was sich nur durch das shrinking in Leistung umgemünzt hatte... weniger Sprünge als in den letzten 3-4 Jahren als der Wettbewerb fahrt aufgenommen hatte.
Die Sprünge waren eher da in Form von Boost Algorithmen, Unterstützung neuer Schnittstellen und schnelleren Speicher etc.

Wenn man clever ist zieht man sich das Resümee aus der existierenden Sicherheitslücke, das ist der beste Nachweise um festzustellen das sich an der Architektur kaum was geändert hat und die Lücke von Generation zu Generation mitgenommen wurde, der Rest ist ja quasi bis zu einem gewissen grad Betriebsgeheimnis bis auf Struktur Verkleinerung.


Laut den Fanbois wäre die aktuelle Generation schon vor 3 Jahren gekommen und es wäre bei Intel schon in Stein gemeißelt gewesen etc.. ich glaube das leider nicht das hier nur die Probleme der Fertigung ein Problem waren.

Da kamen wir kurzum zur Auto Branche und den Motoren an deren Prinzip sich seit den ~60er grundsätzlich nichts geändert hatte, ja das drum herum hat sich gebessert aber der Wirkungsgrad ist viel zu wenig effizienter geworden im Vergleich zu Hybrid und alternativen Techniken und das ist auch nur dadurch passiert das die Hersteller sich auf ihrem "Monopol" ausgeruht hatten und eben effektiv kein Wettbewerb stattgefunden hatte.

Aber gut, wieder back 2 Topic hier geht es nur um die neue Gen.
 
Ich hab einen Vergleich zu anderen Monopolistischen Industrien gezogen
Nein, du hast hier einfach nur bewiesen, dass es dir nicht sonderlich leicht fällt Zusammenhänge zu erkennen bzw. Sachen zu verstehen. Auch bis du nicht sonderlich gut informiert und kennst dich auch nicht wirklich gut aus.

Intel seine Kartellstrafen und Entschädigungen an AMD zahlen musste
Schon wieder falsch: https://www.faz.net/aktuell/wirtsch...enstrafe-gegen-intel-aufgehoben-15185797.html

sich grundsätzlich nicht viel gewandelt hatte ~2008-2016 gab es als Intel meiner Meinung auch nachweislich durch Leistungsvergleiche "IPC" und durch kaum revolutionäre Design, was sich nur durch das shrinking in Leistung umgemünzt hatte... weniger Sprünge als in den letzten 3-4 Jahren als der Wettbewerb fahrt aufgenommen hatte.
Das ist nur deine Meinung und die ist nachweislich falsch. Siehe meine Beiträge dazu.

Wenn man clever ist zieht man sich das Resümee aus der existierenden Sicherheitslücke, das ist der beste Nachweise um festzustellen das sich an der Architektur kaum was geändert hat und die Lücke von Generation zu Generation mitgenommen wurde, der Rest ist ja quasi bis zu einem gewissen grad Betriebsgeheimnis bis auf Struktur Verkleinerung.
Nein, das ist dein Resümee aus den ganzen Sicherheitslücken, weil du es einfach wieder einmal nicht verstehst. Diese Sicherheitslücken wie Meltdown, Spectre und sämtliche Varianten davon sind nicht nur bei Intel zu finden. Eigentlich sind fast alle CPUs davon betroffen, die auf irgendeiner Form Speculative Execution setzen. Es war von den ganzen Sicherheitsforschern auch nie die Rede davon, dass andere Hersteller immun sind, sondern hieß es bei jeder Variante, dass noch weiter untersucht werden müsse, ob die Angriffe mit Anpassungen nicht auch bei anderen Herstellern auftreten könnten. Bei weiteren Untersuchungen ist dann auch gerne mal herausgekommen, dass bestimmte Varianten doch nicht nur bei Intel auftreten und AMD doch nicht so immun ist, wie manche Fanboys es gerne hätten oder dass AMD doch nicht so immun gegen Meltdown ist und sämtliche Modelle davon betroffen sind. Nach deiner abstrusen Logik dürfte sich dann bei AMD ja auch nicht viel an der Architektur getan haben..

Klar mag es bestimmte Angriffe geben, die so nur bei Intel möglich sind. Dies wird es genauso gut auch bei an anderen Herstellern geben.

Die Leute verdrängen bei der ganzen Geschichte immer wieder, dass Intel Forscher aktiv damit beauftragt, deren CPUs auf evtl. Sicherheitslücken zu prüfen. Bei den meisten Funden rundum Spectre und co, hat Intel die Forschungen dazu finanziert..
 
Zuletzt bearbeitet:
Dir ist aber schon bewusst, dass ADL nicht die erste Hybrid-CPU von Intel ist, sondern Lakefield und bereits 2018 angekündigt wurde?
Das war so erfolgreich, das man Alder lake unbedingt machen wollte...

Der Schritt zu Alder lake war nicht unbedingt rosig aufgrund des Vorgängers.
Ich vermute mal wenn AMD nicht auch Patente und nach dem Schema aufgebaute Prozessoren angekündigt hätte wäre das wohl möglicherweise auf Eis gelegt worden und zumindest aufgeschoben worden.
Der neue CEO scheint auch etwas mutiger und Wettbewerbsorienteiert zu sein wie der Vorgänger.

Das wollte ich damit aussagen. Das Big-Little hätte btw. Intel schon vor 6 Jahren machen können, damals gab es aber effektiv keinen Wettbewerbsdruck.
 
kann man immer von zwei seiten sehen. ich war als sandy-bridge besitzer ganz froh, dass ich über cpu-generationen hinweg mit ein bissel oc immer ne highend-cpu hatte :d
 
kann man immer von zwei seiten sehen. ich war als sandy-bridge besitzer ganz froh, dass ich über cpu-generationen hinweg mit ein bissel oc immer ne highend-cpu hatte :d
Das ist ja auch kein grundsätzliches Problem, nur gibt halt Leute die nicht anerkennen wollen das von Intel viele Jahre ohne echten Wettbewerb im CPU segment halt nicht soviel Innovation vorangetrieben wurde, von denen der Kunde wirksam profitierte.
Intel hatte nie und hat auch nix zu verschenken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh