Spezifikationen zu Skylake-X: Intel packt den Core i9 für vier Prozessoren aus

Prestige - mehr werden die i9 nicht sein. "Dickschiffe", die kein Normalsterblicher braucht.

AMD kontert einfach mit dem 16-Kerner "Ryzen R9" auf dem X390/X399 und fährt später auf -24- und -32- Kerne hoch.

Während AMD da schön skalieren kann, muss Intel auf ein neues Design setzen. Auch wenn das CCX-Design von Ryzen seine Gaming-Nachteile hat.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jo. Laut der Seite werden es eher 670€. Da will ich gar nicht wirklich schätzen, da ich mir zu unsicher bei der Leistungsfähigkeit bin.
AMD RX Vega Nova Graphics Card: Even The Most Expensive GPU Is Cheaper Than The GTX 1080 Ti At $599 | SegmentNext



Na, also nur die Herstellungs- und Entwicklungskosten zu rechnen reicht ja nicht. Die müssen kapitalmäßig Boden gut machen, Wachstum finanzieren und weitere Entwicklungen tätigen. Zumal man auch sehen muss, dass die für ihre 4C 8 Zen Cores brauchen.
Bei Intel waren in den letzten Jahren die Gewinnspannen extrem. Bei AMD ist es halbextrem (gezwungenermaßen). :)

Ich hab grad mal etwas nachgeguckt, wie die US-Preise zu den EU-Preisen skalieren. Newegg und Hardwareschotte genommen, die gleichen Karten verglichen und ne RX 580 4GB von Gigabyte kostet in den USA 219 $, hier 224 €. Beides AMD, beides halbwegs aktuell und somit auch halbwegs auf Vega übertragbar.

Wenn die also mit 500 $ schätzen (die günstigste Big Vega - Eclipse, ich brauche keine AiO-WaKü), kommt die hier wohl auch für ungefähr 500 - 520 €. Und damit wären wir ziemlich nah an meiner Schätzung. ^^

Und was AMD angeht, glaub ich sind die erstmal froh, wenn die aus dem roten Bereich rauskommen. Sobald die ihren Laden stabilisiert haben, können wir weitergucken. Das bedeutet erstmal Kampfpreise mit hart kalkulierten Margen und die ab und an angebotene Sahnekrone für Verrückte. Wären die in Intels Position und hätten mehrere milliarden auf der lockeren Kante, könnten die auch andere Sachen machen und ne Art "Luxus-Markt" bedienen. Das kann sich AMD zur Zeit aber nicht leisten.
 
Ich hab grad mal etwas nachgeguckt, wie die US-Preise zu den EU-Preisen skalieren.
Deine Rechnung geht nicht auf.

Du vergisst das Wichtigste: die US-Steuer. Je kleiner der Preis in US-Dollar, desto geringer auch der Preis hier. Wenn du jedoch über den 500$-Bereich spekulieren möchtest, solltest du auch im 500$-Bereich nachsehen:

Gigabyte GTX1080 Gaming in USA ... 490$
Gigabyte GTX1080 Gaming in DE ... 549€

Also ca. 60€ bzw. US-D Unterschied. Und das ist ordentlich.

Man kann lediglich gar keinen Unterschied feststellen, wenn der Hersteller ein Preisdumping unterbinden möchte, also quasi eine Preisfestschreibung besteht. Das kannst du bspw. bei den CPUs, allen voran AMDs Ryzen beobachten. Der R7-1800X kostet sowohl hier als auch "drüben" seine 490$ bzw. 500€.
 
Wenn AMD mit 16 Kernen kommt, kann Intel für seine 8 Kerne keine 700€ verlangen.

Der 7700k wird im Preis etwas fallen und die Position wird vom 6 Kerner eingenommen.

Ich bin eher verwundert, das Skylake überhaupt noch mit 6 Kernen kommt.
Dachte eher der 8 Kerner wird zum Standard.
Unter 8 Kernen würde ich auch nicht mehr kaufen da die Konsolen mit ihren 8 Kernen vorlegen.
 
mal abwarten bis juni was die preise bei der positionsleistung angeht !

denn vega cut müsste über der gtx 1080 liegen damit die unter 500€ verlangen.

und big vega dann auf ungefähr +/- gtx 1080ti leistung liegen bei unter 650€.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Vega den Big Pascal schlägt, kontert NVIDIA mit Volta.

Ich denke NVIDIA ist sicher in der Lage Volta dieses Jahr zu bringen.
 
das ist klar, das nv früher oder später mit volta vorlegen muss um sich weiter zu positionieren damit sie ihren maximalen gewinnmaximierung beibehalten wollen.
 
Einerseits hatte ich ja sowieso mit dem Zehnkerner geliebäugelt, andererseits: Dass die jetzt sogar beim Achtkerner schon die PCIe Anbindung beschneiden ist mal richtig hart lächerlich.

Dann würd mich mal interessieren, was du mit den zusätzlichen 16 Lanes vorhast.

Mal ne Frage dazu: In der Tabelle sind für Kabylake-X 16 Lanes angegeben, da sind also die für den DMI schon abgezogen. Aber ist das bei Skylake-X auch so? Dachte immer, 28 und 44 wäre die absolute Anzahl und man müsse noch 4 für den DMI abziehen.
 
Aber ist das bei Skylake-X auch so? Dachte immer, 28 und 44 wäre die absolute Anzahl und man müsse noch 4 für den DMI abziehen.

Nö, die Chipsatz-Lanes kommen da noch obendrauf. Wenn man die übrigens zusammenzählt, landet man bei 32 bzw. 48, was ja auch deutlich typischere Zahlen bei Hardware-Spezifikationen sind.
 
Prestige - mehr werden die i9 nicht sein. "Dickschiffe", die kein Normalsterblicher braucht.

AMD kontert einfach mit dem 16-Kerner "Ryzen R9" auf dem X390/X399 und fährt später auf -24- und -32- Kerne hoch.

Während AMD da schön skalieren kann, muss Intel auf ein neues Design setzen. Auch wenn das CCX-Design von Ryzen seine Gaming-Nachteile hat.

Jo! Echt geil dass ENDLICH wieder Leben in den CPU Markt kommt. :)
 
Also die Plattform scheint Intel nach unten etwas zu öffnen bzw. mit der Consumerplattform zu überschneiden. Die Spitzenmodelle des einen sind die Einstiegsmodelle der anderen. Als Spieler ist man ja schon immer weit oben Eingestiegen und das Aufrüstpotential hat sich in Grenzen gehalten. Die Akzeptanz hängt nun vom wesentlichen am Preis der 4Kerner bzw. der Boards ab. Theoretisch müssten die 4Kerner recht billig sein da sie wohl keine igpu bieten und die Mainboards wohl wieder teurer ausfallen. Sollte Intel aber ein SkylakeX awesome Aufschlag für die 4Kerner verlangen sehe ich keine Chance für die kleinen da ja auch noch ein 6K für 1151 geplant ist.

Interessant wird wie der Umbau des L2 und L3 Caches sich auf die Leistung auswirkt. Wenn jeder Kern seperat 1MB spendiert bekommt auf Kosten des L3 Gesamtcaches und diese dadurch evtl. besser unabhängig Arbeiten.

Negativ für einige wird wohl der Wegfall der extra PCI Lanes für die kleinen 6 Kerner und sogar der 8 Kerner. Ein preislich zu stemmendes Multi GPU System mit 2x16 Lanes rückt damit schonmal in weiter ferne wenn man zum 10 Kerner greifen muss.
Auch klingt dies so als ob auch hier erst bei 10Kernen für intel der echte Profi Bereich beginnt nachdem Ryzen die Messlatte höher gezogen hat.
 
In de Kopf von Intel rein gedacht. Welche CPU von Skylake-X soll die meistverkaufte, der Platzhirsch werden? Ich denke Intel will den 8 Kerner mit 28 Lanes am meisten verkaufen und deshalb wird der 8 Kerner einen attraktiven Preis bekommen. Es bringt Intel ja nichts wenn der 8 Kerner mit beschnittenen Lanes zu teuer angeboten wird und deshalb nur von ein paar Nerds gekauft wird.

Was mich wundert ist, dass es in der Liste keine i9-7850X gibt. Also einen 8 Kerner mit vollen 44 Lanes, der dann 90-100 Euro mehr kostet.
 
Ja Preis wird schon passen.
 
Wundert mich auch das man nicht nur die 6k sondern auch die 8K verliert. Aber evtl. will Intel ein dicken Strich zu Ryzen ziehen und das "echte" Profisegment eben erst bei 10 Kernen beginnen lassen und unterstreicht das mit den PCI Lanes.
 
Intel nur noch als Statussymbol ? Ne, da weiß ich was besseres mit meinem Geld anzufangen. ;)

Wie immer gewinnt das bessere Preis/Leistungsverhältnis und da ist noch alles offen.
So sehr ich es auch begrüße, dass Intel endlich 6-Kerner in den Mainstream bringen will, was sie schon vor Jahren hätten tun können, so muss man innehalten, dass AMD hier und jetzt schon 8-Kerner anbietet.
Entweder Intel bringt ein akzeptables Preis/Leistungsverhältnis zustande oder sie werden Früher oder Später wieder um Kunden werben müssen.
 
Sorry für die Frage aber leider bin ich ein Dau wenns um solche Sachen geht:
kann mir jemand in einem einfachen Satz erklären was Lanes genau machen Bzw wo für sie da sind? Hab zwar google schon genutzt und auch was gefunden aber naja ^^
Und wenn man hauptsächlich nur zockt - macht dann der Unterschied zu 44 lanes viel aus?
 
Die sind zu da um Bsp. SLI mit 2x x16 zu fahren statt x8. Bei nur einer Karte ist es aber wieder egal ob das System insgesamt 24 Lanes hat.

Gesendet von meinem SM-G935F mit Tapatalk
 
@ExXoN: Zunächst denken viele bei Lanes nur an SLI/CrossfireX. Das konnte man auf der Mainstream-Plattform immer nur mit 2x8 oder seit Ivy Bridge mit x8/x4/x4. Nur mit mindestens 32 Lanes (früher nur bei den Top nForce- und AMD Chipsätzen sowie bei Intel X38/X48), dann eben mit 4x8 Lanes.

Es gibt aber zumindest bei Einzel-GPUs keinen Leistungsunterschied zwischen 16 und 8 Lanes, erst bei 4 Lanes ein kleines bischen (bei PCIe3.0, bei PCIe2.0, ca. halb so schnell, kannst du dir das ausrechnen) und auch bei Multi-GPU ist x8 kein wirklicher Nachteil und x4 nur ein bischen. Allerdings erlaubt Nvidia SLI AFAIK nur mit x8, für mehr als zwei GPUs brauchst du also entweder ein S2011-Board oder ein Mainstreamboard mit PLX Switch (der ist dann mit den 16 Lanes an die CPU angebunden und hat 32 Lanes für die GPU, die dann untereinander über den Switch kommunizieren, sich zur CPU aber immernoch 16 Lanes teilen müssen).
Crossfire geht theoretisch sogar in jedem x1-Slot, weshalb jetzt einige RIZEN-Boards sogar x16-Slots mit nru einer Lane haben.

Da SLI und Crossfire aber generell nur in sehr speziellen Fällen wirklich lohnen und auch mehr als zwei GPUs von DX12 nicht mehr unterstützt werden (weshalb es auch kaum noch neue Boards mit PLX-Switch gibt), fällt das Argument weg.

Ja nach Anwednungsfall gibt es aber noch weitere Verwendungszwecke für soviele Lanes. Karten für 10GbE und ähnliche Profinetzwerksachen brauchen generell mindestens PCIe3.0 x4, oft auch x8. Das gleiche gilt für Hardware-RAID-Controller, die jeder, für den ein RAID mehr als nur Spielerei ist, nutzen sollte. Außerdem brauchten schon immer fast alle nachträglichen Erweiterungen mit neuen Technologien mehr als PCIe x1 (z.B. ist SATA 6Gb/s, wofür es leider nur PCIE2.0-Controller gibt, erst ab x2 sinnvoll, USB3.1 auch, Thunderbolt brauchte immer x4, nur USB3.0 und ältere Technologien kommen mit x1 aus). Sogar professionelle GbE-Dual- und Quadport-Karten haben x4.
Zuguterletzt gibt es auch noch NVMe-SSD, die heute eigtl alle mit PCIe.30 x4 angebunden werden. S2011 war hier im Vorteil ggü. S1150, erst S1151 ist wieder besser, weil man hier sogar genug Lanes hat, um ein RAID aus 2-3 SSD am PCH zu betreiben (extrem sinnlos, aber es geht, bei SSD an der CPU geht das nicht).

Das alles über den Chipsatz anzuschließen, der auch bei S2011/2066 nie mehr Lanes hat als bei der Mainstreamplattform, ist ziemlich unmöglich. Einen X8-Slot kann der glaube ich garnicht haben, auch wenn inzwischen genug Lanes dafür da sind. Trotzdem muss man noch extrem genau hingucken, weil von den 13 (Z170) bzw. 17 (Z270/X299) LAnes, die man vom Chipsatz maximal effektiv zur Verfügung hat, soviele Slots, Zusatzchips und Ports versorgt werden müssen, dass man fast nichts irgendwo dranstecken kann, ohne das was anderes nicht mehr geht.

Daher kann man sich den ganzen o.g. Profikram fast nur auf einem S2011/266-Board erlauben.

Wenn du dich jetzt fragst, ob dir das was nützt, dann wahrscheinlich nicht. Leute, die davon profitieren, wissen das. Mehr als GbE ist z.B. zuhause derzeit kaum praktikabel, weil die Hardware auch nach über zehn Jahren am Markt noch immer viel zu teuer ist und du für eine 10GbE-Karte, einen Switch und ein NAS mit 10GbE wahrscheinlich doppelt soviel ausgeben müsstest wie für deinen ganzen PC sonst. Ähnliches gilt für RAID: Wenn du mehr als die vier bis sechs SATA-HDD, die am Chipsatz realistisch zu betreiben sind, ins RAID packen willst, dann kosten die HDD allein schon mehr als dein Rechner. Ähnlich kann man sich bei TB3 und USB3.1 fragen, was man damit will, weil Hardware, die davon profitiert, viel zu teuer ist.

Also, ich fände es nett, wenn die Mainstream CPU 4-8 Lanes bekämen, aber mit den Lanes der Enthusiastenplattform können denke ich die allerwenigsten was anfangen.
 
Trotzdem muss man noch extrem genau hingucken, weil von den 13 (Z170) bzw. 17 (Z270/X299) LAnes, die man vom Chipsatz maximal effektiv zur Verfügung hat

Warum ziehst du sieben Lanes ab?
 
Deine Rechnung geht nicht auf.

Du vergisst das Wichtigste: die US-Steuer. Je kleiner der Preis in US-Dollar, desto geringer auch der Preis hier. Wenn du jedoch über den 500$-Bereich spekulieren möchtest, solltest du auch im 500$-Bereich nachsehen:

Gigabyte GTX1080 Gaming in USA ... 490$
Gigabyte GTX1080 Gaming in DE ... 549€

Also ca. 60€ bzw. US-D Unterschied. Und das ist ordentlich.

Man kann lediglich gar keinen Unterschied feststellen, wenn der Hersteller ein Preisdumping unterbinden möchte, also quasi eine Preisfestschreibung besteht. Das kannst du bspw. bei den CPUs, allen voran AMDs Ryzen beobachten. Der R7-1800X kostet sowohl hier als auch "drüben" seine 490$ bzw. 500€.

Okay... aber warum hast du jetzt Nvidia Karten genommen, wenn wir auf AMD-GPUs schätzen wollen? Wäre es da nicht sinnvoller ne 580 zu nehmen und dann relativ zu skalieren?

Aber ich nehme mal deine Rechnung - dann würde Vega auf 560 € hinauskommen - falls sie auch die 1080 Ti egalisiert. Die Eclipse-Version wird aber wohl eher im 1080 Bereich landen, die Nova-version gegen 1080 Ti.

Vielleicht mal so: AMD ist bei gleicher Leistung gut und gerne mal 10 - 15% günstiger als Nvidia. Bei billigen Karten (1060 und Konsorten) schrumpft diese Marge aber gegen null. Ich denke, Vega wird irgendwo dazwischen landen - nehmen wir also mal konservative 7% an. Dann gehe ich zur 1080, sehe die im Preisvergleich auf 485 €, ziehe die 7% ab und wir landen bei ungefähr 450 €. Das wäre der Straßenkampfpreis für Eclipse.

Für die Nova... die kann gut und gerne auf 750 € raufgehen - keine Ahnung. Die gibts aber auch nur in limitierten Stückzahlen und ist AIO - also eher ein Sammlerstück für Liebhaber oder so. Die Masse an Leuten will big Vega für so günstig wie möglich und da sind wir bei der Eclipse-Version. Und hier sind wir bei aktueller Marktlage sogar schon unter 500 €.

edit: Und was meinst du mit US-Steuer. Ist die nicht wie alle Steuern auch relativ?
 
Zuletzt bearbeitet:
@FM4E: Weil, wie man hier sieht, sechs immer für SATA draufgehen und eine immer für GbE. Ich weiss, es ist komplizierter, es können und müssen offensichtlich auch SATA-Ports für NVMe-fähige PCIe-Lanes abgeschaltet werden, aber es entspricht eher der Realität wenn man beim Z170 von 13 frei verfügbaren Lanes ausgeht und beim Z270 von 17.
Ansonsten ist auch schwer vergleichbar.

Ich habe jetzt keine Übersicht über jeder einzelne Board, aber folgende beispiele: Beim Gigabyte GA-Z170XP-SLI scheint der M.2 die SATA-Ports nicht zu beeinflussen. Solange das M.2-SSD über PCIe läuft, sind alle verfügbar. Guck ich mir jetzt das wesentlich voller gepackte Z270X-Gaming 7 an, dann gibt es da kaum eine Möglichkeit, ein NVMe-SSD einzusetzen, ohne SATA-Ports zu verlieren. Wenn ich in dem M.2M-Port etwas einsetze, egal ob SATA, PCIe x2 oder PCIe x4, sind SATA-Port Nr. 5 und 6 weg. Setze ich etwas in den M.2P, egal was, arbeitet der PCIe x4 nurnoch mit x2. Nur der U.2 scheint mit nichts zu teilen, ausgerechnet der am wenigsten genutzte Anschluss.
Ganz extrem ist es beim Z170X-Designare: Nutze ich den U.2, sind SATA 3 und 4 weg, beim M.2 sind auch Nr. 5 und 6 weg, völlig egal, was ich da reinstecke. Wenn ich jetzt in den PCIe x4 auch eine x4-Karte reinstecke und nicht nur x1 oder x2, sind Nr.1 und 2 auch weg, ich stehe also völlig ohne SATA da.

Beim Z170X-SLI kann ich dir die Laneverteilung genau vorrechen: Von 13 Lanes nach Abzug von 1x für GbE und 6x für SATA geht eine für die PCI-Bridge ab, vier für den M.2, weitere vier für den PCIe x4, eine für einen x1 (der zweite x1 ist shared mit dem x4), eine für einen zusätzlichen USB3.0-Port vom PCH (jeder ab dem 7. kostet eine HSIO-Lane) und wohl zwei Lanes für den USB3.1-Controller von Asmedia (der kann ja mit 1xGen3 oder 2xGen2 angebunden werden, Gigabyte wirbt hier mit 10Gb/s, also ehe 2xGen2).
Das ist schon ziemlich ideal, wenn man jetzt den zusätzlichen USB3.0 und die PCI-Brigde weglässt hat man x3 PCIe x1, 1x PCIe x4 und 1xM.2 mit x4, bei einem Z270 könnte man noch einen M.2 oder U.2 machen.
Sobald jetzt aber noch TB3 oder zusätzliche SATA- oder USB3.1-Controller hinzukommen oder noch ein M.2-Port, muss intensiv sharing betrieben werden, wie man oben sieht, und dabei gehen halt SATA-Ports verloren.

Wenn ich das Schaubild richtig deute, können für NVMe nicht irgendwelche HSIO-Lanes verwendet werden, sondern beim Z170 nur die Nummern 15 bis 26 und auch nur vier jeweils zusammenliegende können zu einem x4 zusammengschaltet werden (genauer müsste es Holt wissen). Die einzige Möglichkeit für einen M.2 ohn Sharing mit SATA, wie beim Z170XP-SLI, sehe ich darin, dass SATA #0 und #1 auf HSIO-Lane 19 und 20 gelegt werden, so dass 15 bis 18 frei für den M.2 sind, GbE muss dann auf 10 liegen, damit 11 bis 14 für den x4 verwendet werden können, USB Port 7 liegt auf HSIO Lane 7, USB3.1 liegt entweder auf 8 und 9 oder 25 und 26 und der zweite PCIe x1 und die PCI Bridge eben auf den jeweils anderen beiden.

Ich kann mich auch irren und das Bild ist nur eine Empfehlung und in Wirklichkeit ist alles völlig frei konfigurierbar. Aber ich habe mich schon bei mehreren Board gefragt, wieso durch Einsatz von NVMe SSD gleich SATA-Ports wegfallen, obwohl genug PCIe-Lanes vorhanden wären.
 
Zuletzt bearbeitet:
edit: Und was meinst du mit US-Steuer. Ist die nicht wie alle Steuern auch relativ?

Preise auf US Websites sind immer Netto, da die Steuerhöhe abhängig vom Käufer Staat ist.
Deutsche Preis sind immer Brutto, beinhalten also schon 19% MwSt.
 
@ Tigerfox

Ok, war nur eben etwas irritiert. Wenn man es so rechnet, dann kommt das hin.
 
Preise auf US Websites sind immer Netto, da die Steuerhöhe abhängig vom Käufer Staat ist.
Deutsche Preis sind immer Brutto, beinhalten also schon 19% MwSt.

Alles klar - hab ich nicht auf dem Schirm gehabt. ^^ Macht Sinn, ja.
 
Danke bawder, iWebi und ganz besonders Tigerfox für die ausführliche Erklärung!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh