Cascade Lake-X ist offiziell: Core i9-10980XE mit 18 Kernen für unter 1.000 USD

Gibt halt User die ihren HCC Refresh abschleifen um was den Takt angeht auch nur in die Nähe eines geköpften Skylake-X HCC kommen zu können.

Köpfen ist bei den Refresh nicht empfohlen weil die HS anders geformt sind und bei dem Vorgang Kondensatoren/Widerstände abgeschert werden.

Das Problem bei diesen HCC Dies sind vor allem die hohen Temperaturdifferenzen zwischen den Cores, das haste bei einem geköpften dann nicht so extrem.

Roman aka der8auer empfiehlt Übertaktern z.B. auch eher einen 7980XE statt eines 9980XE zu kaufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt halt User die ihren HCC Refresh abschleifen um was den Takt angeht auch nur in die Nähe eines geköpften Skylake-X HCC kommen zu können.

Naja, schon klar, es gibt immer "Perlen". Aber wie schaut die Regel aus?
Ich für meinen Teil kaufe das Zeugs nicht als Spielerei oder Spaß an der OC Freude - sondern nutze die Hardware idR über Jahre vor allem auch für produktiv Tasks oder Geschichten, wo die Leistung entsprechend notwendig ist. Ich muss nicht das letzte bisschen an MHz auf Teufel komm raus haben und mich dann übermorgen wundern, weil durch Alterung der Hardware die über Tage und Wochen ans letzte Prozent ausgeloteten Spannungen nicht mehr stabil sind. Brauch ich in der Form so nicht. Meine alte Lady läuft seit effektiv anfang an mit den selben Settings. Einmal eingenordet und fertig. 5 Jahre lang. Das das nicht mit dem aller letzten bisschen MHz und einer Spannung auf Kante geht, dürfte denke ich logisch sein.

Heist also, ob da wer seine CPU abschleift um seine Perle noch mehr pushen zu könne wäre für mich nicht entscheidend. Ich interessiere mich eher für Langzeit Erfahrungen und vor allem auch für echte Tests. (nicht P95 für 1-3h in 1344k) Damit rendert sich das Video nicht auf Stunden ohne Absturz. (das habe ich mühevoll gelernt)

Das Problem bei diesen HCC Dies sind vor allem die hohen Temperaturdifferenzen zwischen den Cores, das haste bei einem geköpften dann nicht so extrem.

Roman aka der8auer empfiehlt Übertaktern z.B. auch eher einen 7980XE statt eines 9980XE zu kaufen.

Das mit den Differenzen ist mir bekannt - ich hoffe, dass sich da perspektivisch was ändert. Zumal Intel ja auch Takt drauf drückt und ganz sicher die Spannung nicht deutlich senkt. Heist, normal müsste ihnen was dran liegen da die Temperaturen zu optimieren. Ob es was bringt, werden wir denke ich sehen.
 
Also bei den 9980XE ist das wohl eher die Regel, denn die Ausnahme. Ob sich daran etwas ändert bleibt abzuwarten.

Ich erwarte es aber eher nicht und rechne damit, dass das TIM das selbe sein wird wie bei den Refresh.
 
[...] Wie gesagt, nix für ungut. Denkt halt in eurer AMD Tellerranddenke, dass der Laden die Welt regiert. Den Markt stört es nicht, dass ein paar Fanatiker ihre Lieblinge pushen. Praktisch würde aber jeder ansatzweise rational denkende Mensch einen ernsthaften Konkurrenten zur Intel Dominanz in all den genannten Marktbereichen begrüßen. Denn das kann nur gut für den Kunden sein. Mit dieser "in die Taschenlügerei" und den Lobpreisungen ohne praktischen Bezug ändert sich aber leider effektiv gar nix an den Preisen geschweige denn am Fortschritt.

Diese Wutrede die dir sichtlich Spaß machte kann man auch gespiegelt wieder geben und um ehrlich zu sein hat mich dein Geschreibsel angesteckt aber zum Glück hab ich mich nicht verleiten lassen das so stehen zu lassen.
Da du nur auf die schwachen Gegenargumente eingegangen bist hier noch mal das ganze:

Was sind die prestigeträchtigen Image-CPUs, Server und (HE-)Desktop oder irgendwelche 3 Mark 50 Pentium D´s in nem Nas?
Was sind die Margenbringer, hochwertige sackteure Retail Desktop-CPUs, Server CPUs und Workstation CPUs oder millionenfacher Popelskram in Laptops?

Wir wissen alle das AMD ein kleines Licht ist, das brauchst du uns nicht erklären, v.a. nicht in dem Ton. AMD nutzt seine teuren 7nm Chiplets da wo es Kohle bringt. Sollen sie die in Laptops stecken? Sollen sie was extra dafür bauen? Skizziere mal kurz wie AMD denn praktisch vorgehen sollte um in den für dich so wichtigen Märkten etwas zu reißen. Ich möchte vorher daran erinnern, dass AMD in diesen Märkten noch nie was gerissen hat, dass die Märkte - v.a. bei Laptops sollte das bekannt sein - in den Händen von ganz wenigen Firmen sind die auf AMD noch nie viel gegeben haben und dass die Intelprodukte im Laptopmarkt auch einfach viel besser sind als in den anderen Bereichen, wo sie seit Jahren auf der Stelle hüpfen usw.
Man muss wollen was man kann, alles andere wäre töricht, frei nach Davinci mein ich.
 
Zuletzt bearbeitet:
Diese Wutrede die dir sichtlich Spaß machte kann man auch gespiegelt wieder geben und um ehrlich zu sein hat mich dein Geschreibsel angesteckt aber zum Glück hab ich mich nicht verleiten lassen das so stehen zu lassen.
Da du nur auf die schwachen Gegenargumente eingegangen bist hier noch mal das ganze:

Was sind die prestigeträchtigen Image-CPUs, Server und (HE-)Desktop oder irgendwelche 3 Mark 50 Pentium D´s in nem Nas?
Was sind die Margenbringer, hochwertige sackteure Retail Desktop-CPUs, Server CPUs und Workstation CPUs oder millionenfacher Popelskram in Laptops?

Ganz im Gegenteil, es macht hier einfach absolut so gar keinen Spaß mehr Meinungen auszutauschen oder Diskussionen zu führen, denn alle Nase lang kommt irgendwer daher mit irgend einer Tellerranddenke und behauptet, das wäre die Realität. Anstatt ganz einfach mal die Augen aufzumachen...

Was die Fragen von dir möchte, erschließt sich mir nicht. Ich habe nicht erklärt wo Prestige und Marge liegen. Ganz im Gegenteil. Ich sagte, dass noch weit weit mehr existiert als hier immer benannt werden. Märkte, die offenbar der geneigte Forenuser in 2019 nicht mal erahnt. Selbst wenn er mit der Nase drauf gestoßen wird, erkennt er nicht, dass da noch und nöcher CPUs verkauft werden, wo Intel drauf steht - aber AMD eben nicht.
Und bevor du es übersiehst - das ist lediglich eine Feststellung und zu verstehen im Kontext der Entwicklung von CPUs. Nicht mehr und nicht weniger. Märkte, die nebst bisschen Desktop und HighCoreCount Servern ganz andere Anforderungen setzen.

Wir wissen alle das AMD ein kleines Licht ist, das brauchst du uns nicht erklären, v.a. nicht in dem Ton. AMD nutzt seine teuren 7nm Chiplets da wo es Kohle bringt. Sollen sie die in Laptops stecken? Sollen sie was extra dafür bauen? Skizziere mal kurz wie AMD denn praktisch vorgehen sollte um in den für dich so wichtigen Märkten etwas zu reißen. Ich möchte vorher daran erinnern, dass AMD in diesen Märkten noch nie was gerissen hat, dass die Märkte - v.a. bei Laptops sollte das bekannt sein - in den Händen von ganz wenigen Firmen sind die auf AMD noch nie viel gegeben haben und dass die Intelprodukte im Laptopmarkt auch einfach viel besser sind als in den anderen Bereichen, wo sie seit Jahren auf der Stelle hüpfen usw.
Man muss wollen was man kann, alles andere wäre töricht, frei nach Davinci mein ich.

Bitte was? Wo ist jetzt der Zusammenhang? Frag das doch lieber die Nasen die hier permanent meinen, es gäbe nur Desktop und 64C Server CPUs... Und Notebook will auch keiner.

Es mag dir entfallen sein, vllt hast du es auch absichtlich ignoriert. Der Kontext hier war der Entwicklerfokus und nichts anderes! - es wurde in den Raum gestellt, dass es keine Entwicklung gäbe. Ich sagte, das sei Unsinn, die Entwicklung findet man nicht dort, wo AMD liefert, sondern überall dort, wo sie es nicht tun. Denn im Umkehrschluss liefert AMD eben gerade dort, wo Intel keinen Marktfokus (mehr) hat -> das war eine Anspielung auf die schon ausgelieferten Sunny Cove Arch. und 10nm im Mobile Bereich sowie die kommende Technik Foveros (ebenso Mobile). Darauf hin kam die Frage, ja wo liefert Intel denn noch? -> offensichtlich weil man hier eben nicht weis, wo überall noch CPUs verbaut sind. Also bitte, wenn du schon so kommst, dann bleib wenigstens bei der Aussage. Strohmann Argumente ziehen bei mir nicht.

Die traurige Realität ist nur, dass in den Foren immer das grüne vom AMD Himmel gelobt wird, praktisch aber davon nur ein Bruchteil über bleibt. AMD verdient mit diesen Behauptungen kein Geld. Vor allem wo doch ein großer Anteil einfach Intel weiter kauft weil ... (hier irgendwelche Gründe einfügen). Dabei wäre es eben gerade wünschenswert, dass AMD ihren Anteil bekommt. Das hilft mittel- bis langfristig dem Markt mehr als dieses Gesabbel.

Also bei den 9980XE ist das wohl eher die Regel, denn die Ausnahme. Ob sich daran etwas ändert bleibt abzuwarten.

Ich erwarte es aber eher nicht und rechne damit, dass das TIM das selbe sein wird wie bei den Refresh.

Na wenn das so wie bei den Preisen läuft, dann stelle ich die Wunschvorstellung, du äußerst deine Skepsis darüber und am Ende kommts dann so wie ich es mir vorgestellt habe? :d
Deal?? Ich mein, dann hättest du ja auch was von :fresse:
 
Von mir aus, wenn es Dir das Wochenende versüßt. :d

Mir kann es im Grunde auch gleich sein, da ich aktuell drei Skylake-X und einen Refresh hier herumliegen hab.

Was 2066 CPUs angeht bin ich erst mal versorgt. :fresse:
 
Hat zwar etwas gedauert, aber ich bastle grad an meinem WaKü Loop rum. Erstmal Danke für die sittliche Diskussionskultur von dir Bucho. :)

Wie Du schon schreibst kauft sich aber ein Sparfuchs-Zocker und wohl auch Kompromiß-Zocker bestimmt keinen 9900K oder 3700X. Gerade aber im Bereich der 144Hz (auch bei 1080p) muß die CPU aber schon ordentlich ackern um die FPS auch zu liefern und zu halten!

Und das ist das Problem im Preisbereich der Sparfuchs/Kompromiß-Zockern. Da gibts dann keine 2080Ti, sondern maximal ne 2070 Super/5700XT. Das ist okay für bis zu 1440p mit ~90FPS. Mehr muss die CPU da auch nicht können und da paßt der 3700X noch gerade so eben mit ins Budget.

Sparfuchs wäre dann alles in Richtung Ryzen 3600.

An diesem Punkt angekommen beißt sich halt der 9900k mit den angeblichen "Mehrleistungen". Ich kenne niemanden bei Sinnen, der sich nen 9900k für 1080p kauft.

Anders rum so wie ich es geschrieben habe kommt es bestimmt häufiger dazu daß ein Käufer eines 9900K sich später eine neue High End GPU zulegt und die Chance steht damit höher in ein CPU Limit zu geraten. Natürlich immer abhängig von Spiel/Engine und eben auch vor allem Auflösung und Hz.
Yo, das wäre dann 1440p auf 144Hz - wo wir dann schon im Bereich der 2080 Super wären. Das macht zusammen schon 1.500€ - da ist das Mainboard, der RAM und die NVMes noch nicht mit drin. Was Preis/Leistung angeht, haben wir hier schon den "sinnvollen" Bereich verlassen.

Gewinn werden die schon gemacht haben, aber nochmal ernsthaft, findest Du die 260 EUR für den schnellsten Prozessor auf dem Socker zu der Zeit schlecht? Oder eben die 180 EUR für den schnellsten Gaming Prozessor zu der Zeit?
Der 2600K hat alle anderen CPUs zu der Zeit in den Schatten gestellt, seine Vorgänger die i7-800er und auch die i7-900er (Ausnahme vielleicht die 6 Kern Gulftown wenn übertaktet), von den Phenom II und Bulldozer FX mal ganz abgesehen.
Und die Vorgänger haben auch alle nicht weniger als der 2600er gekostet, teils (die schnellsten Versionen der jeweiligen Generationen/Sockel) sogar deutlich mehr. Auch die Core2Quad davor haben jeweils in den schnellsten (non Extreme) Versionen mehr gekostet.
Ja - und was ist dann gekommen? Der gleiche Aufguss - 8 Jahre lang ohne irgendwelche nennenswerte Mehrleistung, dafür aber mit Inflationsaufschlag. Intel hat dort die Margen optimiert, nicht die Produkte.

Intels 6 Kerner am Mainstream kam ja schon ein halbes Jahr nach den 8 Kern RyZen und konnte gut mit denen mithalten. Und ja Intel hat den verfrüht rausgeschmissen, allerdings wäre der so oder so gekommen und nicht wie von vielen AMD Fanatikern behauptet daß der nur gekommen ist weil AMD auf einmal 8 Kern Zen CPUs hatte. Der hat ein ganz eigenes DIE (kein bestehendes kastriertes HEDT/Server DIE) das man nicht mal so auf die schnelle entwickelt und rausbringt.
Sehe ich nicht so. Intel hätte die Kunden so lange gemolken, bis die Kannibalisierung der eigenen Produkte grenzwertig geworden wäre und DANN hätten sie einen (bezahlbaren) 6-Kerner rausgebracht.

Gut möglich daß es noch keinen 8 Kerner am Mainstream geben würde, und ja Intel hat oft Wucherpreise gehabt. Die oben genannten Sandy Bridge zählen da aber definitiv NICHT dazu. Oder wo bekommst Du den schnellsten Prozessor eines Sockels für 260 EUR der noch dazu alle anderen mit Abstand an die Wand spielt? AM4 - nö ... 1151 / 1151v2 - nö.
Aber jetzt stell Dir mal vor Intel hätte zu Ivy Bridge Zeiten einen 6 oder gar 8 Kerner am Mainstream rausgebracht. Abgesehen davon daß das damals kaum einer ausgenutzt hätte (ist ja heute als Otto Normal bzw. Gamer schon schwer) was hätte AMD dann als Come Back mit Zen machen müssen?
Es ging ja darum, dass Intel das mal konnte und dann haben sie halt nur noch gemolken.

Und ja dank AMD bringt Intel nun anscheinend bald auch einen 10 Kerner am Mainstream. Wer braucht's??! Hände hoch!
Wie viele Leute wollen Videobearbeitung machen und konnten sich bis dahin so eine Kiste nicht leisten, weil die einfach mal so viel wie ein Auto gekostet hätte? Dreh den Schuh um: Jetzt, wo die Preise halbwegs normal sind, kommen die ganzen Semi-Pros raus und schlagen zu.

Und Hand auf's Herz, würdest Du Dir eher einen 3700X oder 3900X kaufen? Okay in Deinem Fall von einem 2700X kommend würde man vielleicht eher auf einen 3900X upgraden, aber im Falle von Neukauf von einem 4 Kerner kommend? Oder konkret in Deinem Fall, wirst/würdest Du auf einen 3900X upgraden?
Na ja, da ich eh ein Sonderling bin der Star Citizen zockt, hab ich mir den 3950X ausgeguckt. Aber: Wenn ich da nicht so ein Fanatiker wäre, würde ich zum 3700X greifen. (Vom 4-Kerner kommend) Logo.

Deswegen sag ich ja daß Intel das natürlich auch nicht will. Da duldet man lieber einen kleinen Mitbewerber der seine Preise etwas Richtung Intel hochschraubt und man hat gleichzeitig Ruhe von Kartell- oder Marktregulierungsbehörden.
Aber keine Ruhe vor den OEMs.


DAS ist ja das Problem. Du bekommst mehr Leistung, zahlst aber auch mehr. War ja bei den GPUs von nV ja genau so. Schön daß neue Generationen schneller sind (das erwartet man ja auch, oder) aber dafür dann analog mehr zahlen?
Fast. Du bekommst mehr Leistung fürs gleiche Geld und die Option nach oben steht jetzt auch. 16 Kerne auf ner Mainstream-Kiste. Ich sehe schon die Downloadserver von Videoverarbeitungstools rauchen.


Der 3700X kostet wirklich fast genau so viel wie der 2700X zum Release, und der 3900X und der kommende 3950X eine eigene Klasse (ähnlich wie Intel damals den i9 eingeführt hat), aber was ist mit dem 3800X, oder den 3600 und 3600X?
Was soll damit sein? Der 3800X und der 3600X sind Randprodukte, die AMD einfach mal mit in die SKUs geschoben hat. Die vergammeln entsprechend auch auf dem Regal. Der Rest paßt gut ins Bild. Das macht den 3900X jetzt auch nicht schlechter.

Vega war aber auch High End, und hat zumindest die 1080 angegriffen. Die RX 5700/XT sehe ich als besseren RX 590 Nachfolger welcher von einer 2080 geschweige denn Ti weit entfernt ist. Wohlgemerkt auch preislich, keine Frage, nV hat es ja mit den letzten Generationen immer wieder übertrieben.
Die 5700XT knackt die Vega 64. Aus *heutiger* Sicht isses "nur" ne (gute) Mittelklassekarte - aber mit der doppelten Leistung im Vergleich zu einer 580'er ist sie schon sehr attraktiv.

Und dann? Dann ziehen sie die Preise wieder an daß es keiner mehr kauft oder wie?
Nein, ab 50% Marktanteil müsste Intel dann billiger sein als AMD, weil AMD sich dann nicht mehr vor den Karren spannen lassen muss. Und das kann Intel dann machen oder nicht, mit den entsprechenden Konsequenzen. Bis dahin ist es aber noch etwas hin... ;)

Und vor allem, Marktanteil bedeutet ja nicht daß die Kunden dann dort bleiben(/müssen).
Marktanteil bedeutet, dass bestimmte "nur Intel" Optimierungen rausfliegen und AMD auf Augenhöhe entwickeln kann, ohne dass jemand durch Marktmacht bescheißen kann.

Aktuell haben die beiden wohl die Nase bei den Fertigungen vorne, ja. Wie viel ist halt die Frage ... Intel kämpft noch immer mit 10nm, aber wer weiß ob die das nicht endlich in den Griff bekommen bzw. wie lange Ihr eigener 7nm Prozess noch auf sich warten lässt?
Bis zum Desktop brauchen die mindestens so lange, wie AMD für Zen 3.

Warte ab, vielleicht fallen da auch bald die Preise bzw. bringt Intel mit der nächsten Gen andere Preise a'la Cascade Lake X.
Und wenn nicht, bleiben sie für die meisten Leute das schlechtere Produkt. Außer für ein paar hardcore-Jünger, die mit ner 2080Ti auf 1080p zocken. :d

Schönes Wunschdenken, aber leider sind bei Spielen zu viele Sachen voneinander abhängig als daß es frei skalieren kann.
Ähm... Star Citizen macht das schon. Nur ist der Aufwand halt exorbitant hoch. Nur AAA Engines der großen Publisher machen sowas nicht "mal eben", da dort mehrere Spiele parallel angebunden sind. Das geht da nur in Tippelschritten.
 
Zuletzt bearbeitet:
Ich sagte, dass noch weit weit mehr existiert als hier immer benannt werden. Märkte, die offenbar der geneigte Forenuser in 2019 nicht mal erahnt.

Ja, das stimmt, Zweck war aber lediglich AMDs Erfolge kleinzureden und genau darum ging es, also kannst du den ganzen Strohmannquatsch wieder einpacken.

Denn im Umkehrschluss liefert AMD eben gerade dort, wo Intel keinen Marktfokus (mehr) hat

Zum 3. mal, diesmal etwas deutlicher:
Prestigemarkt Nr.1 und die wichtigen margenträchtigen Server-Märkte interessieren Intel gar nicht. Die wollen da gar nicht mehr an der Spitze stehen? Achso! Wie kann man sich nur so einen Quatsch ausdenken?
"alle Nase lang kommt irgendwer daher mit irgend einer Tellerranddenke und behauptet, das wäre die Realität. ":wink:
 
Zuletzt bearbeitet:
Zu denken die eigene Meinung wird zu einem Fakt, wenn man diese niederschreibt oder laut ausspricht, ist doch an der Tagesordnung.
Ansonsten finde ich es immer noch prima, dass Intel mal etwas an den Preisen nach unten schraubt.
 
Das Problem ist weiterhin, dass einige wenige Forenprofis einfach nicht akzeptieren wollen in welcher Lage Intel wirklich steckt.
Und solange das nicht der Fall ist, wird eine sachliche Diskussion hier und woanders nur sehr schwer zu führen sein, leider. /:

Schaut man sich mal Abseits dieses threads um, so wird man unweigerlich feststellen, das sich die Experten wie Goldman Sachs zb sich in einem einig sind: Die Marktanteile für CPU Hersteller stehen eher kurzfristig als mittelfristig vor einer erdrutschartigen Verschiebung. :hust:

Das soll keine Drohung sein, sondern viel mehr Bitte objektiv an die Bewertung ran zu gehen, vielen Dank!
 
Hast Du mit denen telefoniert Holzi? Lass mal ne Quelle springen.
 
Du gehst sehr wenig differenziert an die Betrachtung zwischen Intel und AMD. Die News von Goldman Sachs ist von August2018.
Guck dir mal den Gewinn pro Aktie an und deren Entwicklung, dann kannst Du ja nochmal etwas tiefer gehen in deine Begründung.
Ansonsten müsste man das Ganze wohl so auseinander nehmen, dass man das sagt, es gibt Segment 1 bis 10 und einen prozentualen Vergleich von Segment 1 bis 10 von 2017,2018 und ytd durchführen, nebst Aktienkursentwicklung.
Solange hier sehr einseitig und mit "gefühlten hohen" Zahlen um sich geworfen wird, brauchen wir nicht von einer objektiven journalistisch korrekten Einordnung zwischen Intel und AMD sprechen.
Sicher ist aber auch, dass man AMD nicht klein reden sollte, aber bis AMD jetzt Intel eingeholt hat und überholt hat, da ist es noch ein weiter Weg. AMD stellt sich aber zumindest für die nächsten Quartale sehr gut auf und belebt das Geschäft der Desktop- und Server-CPUs nicht ganz unerheblich.

Was mich im Fazit nur stört, ist immer die viele Ahnungslosigkeit und Unfähigkeit eine Situation INSGESAMT zu beurteilen. Dafür müsste man sich deutlich mehr einlesen und offener in seiner eigenen Meinung sein, als es hier viele sind. Da liest sich Vieles so, als ob AMD morgen Intel kaufen würde.
 
Zuletzt bearbeitet:
Abseits der Schönfärberei oder auch "Drohkulisse" stellt sich das aktuell so dar:


Mal schauen wann es die Zahlen für Q3 2019 gibt, nach Erdrutsch schaut das vorläufig nicht aus.
 
Zuletzt bearbeitet:
Ja auch irgendwie komisch wo Q1, Q3 und Q4 aus 2018 sind.
 
Was beudeutet denn die Turbo 2.0 / Turbo 3.0 Taktrate? Werden bei dem Turbo nur ein paar Kerne hochgetaktet?
 
Wir haben die Kohle um euch AMD zu vernichten :d
 
Nach all den Jahren des Diskreditierens ("Das sind nur ein paar zusammengeklebte Kerne") und Testverfälschungen ( Intels 28-Kern-CPU-Demo - »Wir haben vergessen, die Übertaktung zu erwähnen« ) kommen sie wohl doch nicht umhin, offen einzugestehen, dass AMD mindestens gleichwertig ist - und müssen deswegen die Preise senken.

Dann hoffen wir mal, dass Zen3 nächstes Jahr wirklich anrollt - und Intel so weit überholt, dass wir einen neuen Opteron bekommen.
 
Wir haben die Kohle um euch AMD zu vernichten :d

Das könnte sogar so stimmen, aber wäre es nicht noch besser für uns alle, wenn sie das Geld in Forschung und Entwicklung stecken würden?
 
Das könnte sogar so stimmen, aber wäre es nicht noch besser für uns alle, wenn sie das Geld in Forschung und Entwicklung stecken würden?
Das stimmt. Wie bringen wir das Intel jetzt bei?
 
Was beudeutet denn die Turbo 2.0 / Turbo 3.0 Taktrate? Werden bei dem Turbo nur ein paar Kerne hochgetaktet?
Turbo 2.0 gibt es schon seit Sandy Bridge und taktet die Kerne je nach Last bis zur (max. Turbo 2.0) Taktrate (auch alle Kerne, je nach Art der Last). Welche Taktraten wie lange auf wie vielen Kernen gehalten werden ist unterschiedlich und eben von der Last, der TDP und diversen anderen Einstellungen im BIOS/UEFI und der Dauer abhängig.
Somit können zwei identische CPUs in verschiedenen Systemen auch unterschiedliche Leistungen bringen wenn diese anders ausgelegt sind (Kühlung bzw. TDP und max. Powerlimits etc.). Stark sieht man das bei Notebooks wo Modelle mit gleicher CPU unterschiedliche Benchmarkwerte liefern.

Turbo 3.0 ("Max") wurde erstmals mit den Broadwell-E (HEDT) eingeführt. Ursprünglich wurde das auch so beworben daß der 3.0 noch ein gewisses Plus über dem max. Turbo (2.0) darstellt und auf einem Kern erreicht werden kann. Seit Skylake-X gilt das dann für zwei Kerne, was wohl bei Cascade Lake-X auch noch so ist. Mittlerweile wird das aber stark so beworben daß es der absolute max. Turbo Takt der CPU ist. Daß das nur auf ein oder zwei Kernen gilt bzw. man dafür extra Support vom OS bzw. einen Treiber benötigt (angeblich kann Win 10 das neulich nativ???) wird aber nur im Kleingedruckten erwähnt.

Ähm das hat aber mit Cascade Lake-X gar nichts zu tun, außer daß es auch CPUs der 10. Gen sind.
In dem Fall sind das bereits die Ice Lake-U CPUs welche in 10nm gefertigt werden und mit den Sunny Cove Kernen die allerneuesten Kerne darstellen.

Intels 10. Generation wird über den gesamten Markt jede Menge unterschiedliche CPUs beinhalten ... im Laptopsektor eben Ice Lake (10nm) sowie Comet Lake (14nm +++?) welche eigentlich Sky Lake bzw. Kaby Lake sind nur halt wieder mit leichten Verbesserungen in der Fertigung.
Im HEDT Sektor sind das Cascade Lake-X (welche eigentlich noch Sky Lake-X sind, eventuell auch in verbesserter Fertigung).
Und am Mainstream Desktop werden es wohl auch am Sockel 1200 Comet Lake werden, welche wie Kaby Lake bzw. Sky Lake sind und auch noch in 14nm hergestellt werden. Hier wird von einer 10 Kern CPU gemunkelt.

... Erstmal Danke für die sittliche Diskussionskultur von dir Bucho. :)
Gleichfalls, ist mittlerweile leider nicht mehr selbstverständlich wenn es um AMD, Intel oder nV geht.

Ich setz die Diskussion mal in einen Spoiler da es nicht direkt um Cascade Lake-X geht

...
Und das ist das Problem im Preisbereich der Sparfuchs/Kompromiß-Zockern. Da gibts dann keine 2080Ti, sondern maximal ne 2070 Super/5700XT. Das ist okay für bis zu 1440p mit ~90FPS. Mehr muss die CPU da auch nicht können und da paßt der 3700X noch gerade so eben mit ins Budget.
Naja der 3700X ist da schon Hart an der Grenze, selbst bei "Kompromiß-Zockern" wie Du sie nennst, so wie Du schreibst wäre
...
Sparfuchs wäre dann alles in Richtung Ryzen 3600.

Mein Punkt war jedoch auf 144Hz bezogen und daß unter Umständen die leichte Mehrleistung die ein 9900K ggü. einem 3700X schon einen Unterschied machen kann.
An diesem Punkt angekommen beißt sich halt der 9900k mit den angeblichen "Mehrleistungen". Ich kenne niemanden bei Sinnen, der sich nen 9900k für 1080p kauft.
Ich kenne sogar einige die 1080p eben mit 120, 144 oder mehr Hz haben. Und da kann wie gesagt je nach Spiel, Einstellungen und GPU die flotteste Spiele CPU Sinn machen.

...
Yo, das wäre dann 1440p auf 144Hz - wo wir dann schon im Bereich der 2080 Super wären. Das macht zusammen schon 1.500€ - da ist das Mainboard, der RAM und die NVMes noch nicht mit drin. Was Preis/Leistung angeht, haben wir hier schon den "sinnvollen" Bereich verlassen.
"Sinnvoll" liegt immer in den Augen des Betrachters. Es gibt doch einige die bereit sind höhere 4 stellige Beträge für ein Gaming System hinzulegen, sonst gäbe es kaum Kunden für Titan oder eben 2080Ti GPUs (früher vor allem teils mit mehreren Karten) sowie die meisten HEDT Kunden - siehe Skylake-X Cascade Lake-X.
Und gerade wenn man die Gesamtkosten vergleicht wie Du sie beschreibst, ist jetzt ein gut ausgestattetes 9900K System mit eben passender GPU und passenden Monitor, NVMes etc. nicht weit entfernt von einem gut ausgestatteten 3700X System (vor allem mit X570 Board was man dann ja wohl haben will) sowie eben der Rest der gleich teuer ist wie RAM, SSD, Monitor, Netzteil, bliblablo.
HEDT legt halt nochmal etwas drauf da die CPUs (wenn man mehr Kerne will) nochmal teurer sind und die Boards auch. Ist aber auch bei Threadripper so. Der Rest kostet wieder gleich viel (auch RAM in 4 Modulen ist nicht wirklich teurer als in der 2 Modul Ausführung). Wobei HEDT für's Gaming sowieso nicht (mehr) das Nonplusultra darstellt. Für Gaming war man mit Mainstream eigentlich so gut wie immer besser und schneller dran und das ist auch jetzt so. Solange Spiele nicht von den vielen Kernen/Threads Gebrauch machen hat HEDT hier Nachteile. Skylake-X und bestimmt auch Cascade Lake-X ist hier langsamer als Coffee Lake aufgrund des Mesh Designs, und auch Threadripper hat das Nachsehen ggü. den AM4 RyZen CPUs aufgrund des NUMA Problems. Ob die 3000er Threadripper Serie das wesentlich besser macht muß sich erst mal zeigen. Allerdings ist ein Threadripper in meinen Augen sowieso kein Gaming System.

...
Ja - und was ist dann gekommen? Der gleiche Aufguss - 8 Jahre lang ohne irgendwelche nennenswerte Mehrleistung, dafür aber mit Inflationsaufschlag. Intel hat dort die Margen optimiert, nicht die Produkte.
Zwischen Sandy Bridge und dem 6 Kern Coffee Lake waren 6,5 Jahre. Aber ja - ist ne lange Zeit in der sich wenig getan hat.
Nicht "nennenswert" ist jetzt vielleicht übertrieben denn Sky Lake hat ggü. Sandy Bridge wohl etwa 20% mehr IPC, dazu dann halt einige andere technologischen Fortschritte in Sachen AVX, iGPU, PCI-E 3.0, DDR4, nativen Support für USB 3.x, M.2 NVMe, PCI-E 3.0 über Chipsatz und DMI etc. Taktmäßig (gerade inkl. OC) hat sich natürlich nicht viel getan und 6,5 Jahre ist ggü. damals eine lange Zeit wo sich jährlich die MHz verdoppelt haben.
Mehrleistung gab es schon - genauso wie mehr Kerne, aber eben nur im HEDT. Und ja die Preise waren dort immer recht saftig. Wer es brauchte und/oder wollte musste halt tiefer in die Tasche greifen.
Und nochmal, wer hat denn damals 2011 und danach unbedingt viele Kerne benötigt? Gamer? Nein, sogar heute nutzen bei weitem noch nicht sehr viele Spiele mehr als 4 Kerne und mit eben einem 2600K 4C/8T kann man heute auch noch ganz brauchbar spielen. Streamer? Damals? sehr wenige ... die meisten haben aufgezeichnet und "Let's Play" Videos gemacht. Hobby Renderer, Videoeditoren, Schachspielexperten, etc. gibt es wohl nicht unmengen, und wenn dann ist es dort auch sonderlich schlimm wenn ein Render-/Konvertier-/Berechnungsvorgang 3 Std. statt 1,5 dauert.
Und jemand der professionell oder beruflich Mehrkerner benötigt hat wohl sowieso ne Workstation oder Server die im Hintergrund laufen.

Und zu guter letzt - Inflationsaufschlag. Ist doch in 6,5 Jahren auch gerechtfertigt, oder? Zahlst Du heute noch den Preis von anderer Ware von vor 6,5 Jahren?
Der 2600K ist wie gesagt mit knapp 320 EUR released worden und hat sich kurz darauf bei 260 EUR eingependelt. Ein 7700K ist mit knapp 380 EUR released worden (die Mondpreise einiger Anbieter der ersten Tage/Wochen mal weggelassen) und hat sich dann langsam runter entwickelt.
Ist in meinen Augen also etwa der gleiche Preis (Dollar Kurs auch beachten!). Ja klar auch in etwa für das gleiche Produkt, also 4C/8T, aber immerhin schon ~ 20% mehr IPC, mehr standard Takt, eine bessere iGPU (wer's braucht), und halt neue Plattform Features siehe oben.

Ich möchte Intel hier nicht verteidigen und bestimmt haben die da nicht viel gemacht aufgrund fehlender Konkurrenz, aber ich bin gespannt wie es jetzt weiter geht, mit Intel und AMD. In zwei Jahren erwarte ich mir dann von beiden mindestens einen 32 Kerner am Mainstream mit mind. 20% mehr IPC und natürlich auch sehr hohen Taktraten (5+ GHz zumindest im Boost/Turbo). Ach und das alles natürlich im üblichen Bereich der 100W TDP. Danke. Ach und nicht über 400-500 EUR. Ach und die Boards sollen trotzdem billig sein, 60-70 EUR tun's bestimmt. Ach und PCI-E 5.0 und DDR5 (vielleicht gleich Quad Channel, wozu hab ich denn 4 Slots am Board?) natürlich auch gleich.

...
Es ging ja darum, dass Intel das mal konnte und dann haben sie halt nur noch gemolken.
Sie hätten es eher gekonnt, ja. Vielleicht nicht gleich nach Sandy Bridge denn in 32nm mehr als 4 Kerne mit hohen Takt waren auch nicht so leicht zu bändigen/Kühlen und die Boards müssen das ja auch erst mal standhalten.
Sie haben halt dort wo es tatsächlich Sinn machte viele Kerne und RAM Channels sowie PCI-E Lanes zu haben (Server) weiterentwickelt und das ohne viel Aufwand als HEDT verkauft. Für den normalen Mainstream Desktop hätte das wohl mehr Geld gekostet als es eingebracht hätte dafür Produkte zu entwickeln.

...
Wie viele Leute wollen Videobearbeitung machen und konnten sich bis dahin so eine Kiste nicht leisten, weil die einfach mal so viel wie ein Auto gekostet hätte? Dreh den Schuh um: Jetzt, wo die Preise halbwegs normal sind, kommen die ganzen Semi-Pros raus und schlagen zu.
Und mit den günstigeren Kisten damals konnte man keine Videobearbeitung machen, oder wie? Wie schon geschrieben für alle Hobby Pros sollte es doch egal sein ob ein Video jetzt 5 Stunden oder 2,5 Stunden rendert. Und so viel wie ein Auto ist übertrieben.
Ich denke eher jetzt werden auf einmal alle zu Semi-Pros und meinen das zu benötigen :fresse:

...
Na ja, da ich eh ein Sonderling bin der Star Citizen zockt, hab ich mir den 3950X ausgeguckt. Aber: Wenn ich da nicht so ein Fanatiker wäre, würde ich zum 3700X greifen. (Vom 4-Kerner kommend) Logo.
Gut das ist wohl eine Ausnahme. Aber wie oben etwas überspitzt dargestellt ... warte doch 2 Jahre dann kannst Dir gleich einen 5+ GHz 32 Kerner kaufen, für unter 500 EUR. Die braucht man dann definitiv, kannst ja heute nicht mal Star Citizen mit einem lausigen 8 Kerner spielen und Videobearbeitung geht schon mal gar nicht. :fresse:

...
Fast. Du bekommst mehr Leistung fürs gleiche Geld und die Option nach oben steht jetzt auch. 16 Kerne auf ner Mainstream-Kiste.
AMD erweitert die Palette nach oben und will dafür mehr Geld haben. Hat Intel im kleineren Stil (7700er -> 8700er -> 9700er) auch so gemacht.

...
Ich sehe schon die Downloadserver von Videoverarbeitungstools rauchen.
Ich nicht, wie gesagt wenn wer Videos bearbeiten wollte konnte er das vorher auch schon. Es ist nicht erst jetzt mit den CPUs mit mehr Kernen möglich und zuvor nicht.

...
Die 5700XT knackt die Vega 64. Aus *heutiger* Sicht isses "nur" ne (gute) Mittelklassekarte - aber mit der doppelten Leistung im Vergleich zu einer 580'er ist sie schon sehr attraktiv.
Doppelte Leistung ... bei aktuell mehr als den doppelten Preis :fresse:
Merkste was?
Nein im Ernst, die 580er (8G Version) kam im April 2017 um 269 EUR auf den Markt. Die 5700 XT nun im Juni 2019 um 419 EUR.
Lt. Computerbase Test (leider ist da ne 580er nur bei den 1080p Benches dabei) sind die Frametimes (99,8 Percentile) einer 5700XT um 173% besser. (FPS wären es 188%)
Tja dann rechne ... 269 EUR x 1,73 = 465 EUR. Also ist die 5700XT etwas günstiger als Ihre Mehrleistung. Aber das nach gut 2 Jahren! Und wenn man es genau nimmt ist ja ne 580er eigentlich nur eine höher getaktete 480er welche Juli 2016 um 269 EUR in der 8G Version auf den Markt kam.
Also 3 Jahre! In 3 Jahren haben sie es geschafft die doppelte Leistung (bei der 480er müsste es gut hinkommen mit doppelter Leistung) zu liefern bei 56% Aufpreis. *golf clap* [Men at work falls das noch wer kennt] Men at Work Golf Clap - YouTube

...
Nein, ab 50% Marktanteil müsste Intel dann billiger sein als AMD, weil AMD sich dann nicht mehr vor den Karren spannen lassen muss. Und das kann Intel dann machen oder nicht, mit den entsprechenden Konsequenzen. Bis dahin ist es aber noch etwas hin... ;)
Warum müsste Intel dann billiger sein? Falls Intel schnellere Produkte hat können sie ja nach wie vor teurer sein, oder?
Und falls AMD dann schnellere Produkte hat, hat auch AMD höhere Preise. Ich sehe da nicht direkt eine Abhängigkeit von Marktanteilen.

...
Marktanteil bedeutet, dass bestimmte "nur Intel" Optimierungen rausfliegen und AMD auf Augenhöhe entwickeln kann, ohne dass jemand durch Marktmacht bescheißen kann.
Wo gibt's die denn?
Ich denke eher wenn AMD mehr Marktanteile hat daß besser für AMD optimiert wird.

...
Bis zum Desktop brauchen die mindestens so lange, wie AMD für Zen 3.
Und dann sind bei beiden wieder die Karten gemischt ... ist das nicht schön?

...
Und wenn nicht, bleiben sie für die meisten Leute das schlechtere Produkt. Außer für ein paar hardcore-Jünger, die mit ner 2080Ti auf 1080p zocken. :d
... und dort Ihre 144+ Hz ausfahren wollen.
Als Zocker (zumindest schneller FPS oder Actionspiele) würde ich mir eher einen 1080p mit 144Hz kaufen als einen 1440p mit 60Hz.
Das ist auch der Grund warum ich aktuell niemanden aus dem Bereich einen UHD Monitor empfehle. Aktuell nur 60Hz bezahlbar und selbst da schwitzt eine Top GPU bei einigen Games.

Lt. Geizhals gibt es aktuell von ca. 2025 gelisteten Monitoren 517 die 1440p oder mehr haben.
Ebenfalls von diesen 2025 gibt es 278 die 144Hz oder mehr haben. So wenige sind das also im Vergleich gar nicht. Und die 144Hz zu befeuern ist je nach Spiel nicht einfach, weder für die GPU noch für die CPU.

...
Ähm... Star Citizen macht das schon. Nur ist der Aufwand halt exorbitant hoch. Nur AAA Engines der großen Publisher machen sowas nicht "mal eben", da dort mehrere Spiele parallel angebunden sind. Das geht da nur in Tippelschritten.
Star Citizen ist wie schon erwähnt wohl eines der ganz wenigen die jetzt schon gut mit vielen Kernen skalieren.
Aber gerade AAA Engines großer Publisher haben doch das Potential auf Optimierung für viele Kerne/Threads. Kleine Publisher/Entwickler können sich sowas ja kaum leisten.
Das Problem liegt da wohl eher daß die Publisher/Entwickler von AAA Games auf eine breite Masse abzielen. Möglichst viele Kunden. Und da kann man nicht mal eben 6+ Kerne voraussetzen (daß das Spiel überhaupt oder annehmbar läuft).
Bis wirklich mal mehr Leute 4+ Kerne haben dauert es noch lange.
 
Bei Cascade Lake-X gehe beim Turbo 3.0 4 Kerne hoch.

Was ich schon interessanter finde.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh