Intel stellt die 11. Core-Generation für den Desktop alias Rocket Lake-S offiziell vor

Die Preise sind tatsächlich niedriger als gedacht. Damit dürften die Prozzesoren der 11. Gen für einige interessanter werden. Allerdings muss man sich dann auch im klaren sein, dass es die letzte Gen auf dem Sockel ist.
Das war von vorneherein ja klar, bei Intel gab es in letzter Zeit nur 2 Generationen auf demselben Sockel.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aber die probleme bei der neuen strukturbreite sind einfach zu umfangreich um die gesamte weitere produktentwicklung davon abhängig zu machen.
So viele technische Probleme scheint es da nicht mehr zu geben, die Ice Lake-SP sind schon in der Massenfertigung:
Erste Mainboards dafür wurden auch schon angekündigt, die dürften also bald erscheinen. Notebooks mit Tiger Lake die bis 5GHz takten wie das MSI Stealth 15M A11UEK-024 Carbon Grey (001563-024) sind im Handel bei einigen Händler als lagernd verfügbar, die Taktrate wird also offenbar wirklich in der Praxis erreicht.
dann sind sie halt etwas bei der effizienz hinten dran.
Sind sie das wirklich? Wenn man nur die maximale Leistungsaufnahme misst, dann sieht es sicher so aus, aber wie ist die Leistungsaufnahme bei den jeweiligen Benchmarks, Anwendungen oder Spielen?
Rocketlake wird eher keinen direkten Nachfolger erhalten.
Doch, Alder Lake wird der Nachfolger von Rocket Lake und eben auch Tiger Lake werden.
In 10nm gibts ja schon eine Weiterentwicklung, die verkauft wird. Rocketlake basiert noch auf Icelake während wir in 10nm bereits bei Tigerlake sind.
So ein Backport dauert eben auch seine Zeit und inzwischen bleibt die Entwicklung ja nicht stehen, Leute hat genug Leute um sowas parallel zu machen und daher sollte nicht überrachten, dass die Jungs die die nächsten 10nm Architektur entwickelt haben, schneller waren als die die den Backport gemacht haben, zumal man damit sicher auch erst angefangen hat, nachdem man sicher war das Sunny Cove auch final war, um nicht noch die Korrekturen zum finalen Design ebenfalls backporten zu müssen, also erst angefangen hat, nachdem Tiger Lake schon in der Mache war. Außerdem hat Tiger Lake noch größere Caches, die hätten in 14nm noch mehr Platz gebraucht. Das ist ja der Punkt an der Weiterentwicklung der Architekturen, man bekommt nur mit mehr Transisitoren auch mehr IPC und um diese unterzubringen, braucht man mehr Platz oder eine kleinere Fertigung. Sunny Cove war eben für 10nm geracht und in 14nm sind die Kerne so groß, dass man von 10 auf 8 runtergehen musste, hätte man von Willow Cove einen Backport gemacht, hätten vielleicht nur noch 6 unter den HS gepasst, den Aufschreib hätte ich aber mal höhren wollen, der dann passiert wäre.
Dafür die bekannten Probleme mit der Kühlung wegen kleinerer Oberfläche.
Eben, die kleineren Strukturen sind nicht ohne Probleme, besonders bei Chips bei denen man den maximalen Takt rausholen will, wie es eben bei den Desktop CPUs der Fall ist. Bei den mobilen und Server CPUs kommt es hingegen vor allem auf die maximale Effizienz an, da bei diesen die Taktraten sowieso fast immer nur von der Leistungsaufnahme beschränkt werden.

Bei Teillast, insbesondere bei Games, ist die Effizienz der 14nm-Intels oft gleichwertig und zum Teil sogar besser.
Eben, nur wird dies gerne übersehen, weil die meisten einfach nur die maximale Leistungsaufnahme bei Prime95 betrachten, die bei Roket Lake wegen seiner AVX512 Eineheiten besonders hoch ist, aber die meisten Reviewer messen eben die Leistungsaufnahme auch nur so. Würden diese bei jedem Benchmark und jedem Spiel auch noch gemessen und angegeben, wäre dies hoffentlich mehr Leuten klar.

Letztlich bleibt die Kritik am Prozess aber sinnlos. Intel hat in Bezug auf die maximal Performance derzeit keinen besseren Prozess zur Hand.
Da wäre ich nicht so sicher, bei TIger Lake kommt man ja auch schon auch maximal 5GHz, der 10nmSF scheint recht taktfreudig zu sein und Willow Cove hat nochmal mehr IPC als Sunny Cove, man hätte vermutlich mit Tiger Lake eine ähnliche Leistung wie bei Rocket Lake erzielen können. Aber wahrscheinlich hat Intel einfach nicht genug Fertigungskapazität in 10nm, die haben ja vorher eine massive Knappheit in 14nm gehabt und die 14nm Kapazität erheblich ausgebaut und dann lange mit einem schnellen Umstieg auf 7nm gerechnet. Nun wurden aber schon sehr viele 10nm Produkte vorgestellt und angeboten, bei den mobilen CPUs hat nach Ice Lake mit Tiger Lake schon die zweite Generation auf dem Markt. Auch die Massenfertigung von Ice Lake-SP läuft inzwischen, es dürfte einfach nicht genug Kapazitäten geben auch noch die Desktop CPUs in 10nm zu fertigen.

Die Preise sind tatsächlich niedriger als gedacht.
Nicht als gedacht, als die Gerüchteküche berichtet hat. Die angebliche geleakten Preislisten waren aber schon in der Vergangenheit nicht viel wert und meist überhöht, so wie bei den Vorgängern:
Die tatsächlichen Preise waren dann aber:
Natürlich leaken die Händler vorab höhere Preise, sie verlangen ja auch höhere Preis als Intels Preisempfehlung und vielleicht sind bei den geleakten Preisen schon Steuern enthalten, die sind in den USA ja für jeden Bundesstaat anderes und werden daher von den Herstellern bei ihren Preisangaben nicht berücksichtigt. Das hatte ich aber schon im Februar geschriebem und wie erwartet hat sich nun gezeigt, dass die geleakten Preise wieder einmal komplett überzogen waren und wenn man davon ausgeht das die Preise in Deutschland nach erreichen der breiten Verfügbarkeit etwa so aussehen das die Zahl vor dem € nur leicht größer als die von dem $ in Intels Preisliste ist, dann hat auch MF den 11700K mit Aufschlag verkauft, wenn auch nicht mit einem so unverschämten Aufpreis wie man sie teils bei anderen neuen CPUs gesehen hat, als deren Nachfrage das Angebot noch deutlich überstieg.
 
Zuletzt bearbeitet:
Na das hast du laut System bei dir auch noch verbaut, was interessiert dich dann das Intel bei 14nm stuck ist?

Versteh das rumgeweine ohnehin nicht, Intel ist mit 14nm bei der gleichen Leistung wie AMD bei 7nm, so what?
Inb4 Intel braucht mehr Strom als AMD, dafür hat AMD schon im Winter die 80-100°C. :fresse:


same, ka ob das aber am nächsten Launch ende des Jahres liegt.
Zu diesem Kommentare fällt mir nur eins ein: Fanboys sind so lächerlich.
 
Wieso sind die Intel CPUs bei der Speicherlatenz eigentlich so viel besser, als aktuelle Ryzen?
Weil AMD irgendwie doch geahnt hat, daß man das lieber primär sicher und sekundär schnell bauen sollte. Bei intel ist es umgekehrt. Nach dem Massaker davor scheint nichtmal Ringbus ohne Tadel zu sein
 
Zu diesem Kommentare fällt mir nur eins ein: Fanboys sind so lächerlich.
Was hast das mit Fanboy zu tun?
Es ist mir (und wohl vielen anderen auch) vollkommen egal, in wieviel nm gefertigt wird.
Vergleich doch den 5800X mit dem 10700K oder 11700K, performancetechnisch mal rot, mal blau besser. (games, keiner holt sich einen drauf runter weil er ne zip schneller entpackt als der andere)
Wann genau hast du hier nun ein vorteil, dass der AMD in 7nm gefertigt wurde? (außer, dass er in 7nm gefertigt wurde, und man hier fortgeschrittener ist als intel :fresse: )

Ob deine CPU groß oder klein ist, juckt auch keine sau, oder hast du den immer in der Hosentasche dabei? das Teil kann von mir aus auch doppelt so groß sein wie momentan.

Unter vollast ist der AMD 42 Watt effizienter als der 11700K, das macht dann ganze 9 Cent am Tag, wenn du volle 8 Stunden unter vollast spielst/etwas renderst, was auch immer.
9 Cent vs 30°C, im Winter ganz nett, im Sommer zahl ich dann lieber die 9 Cent mehr.

1616068259449.png
1616068228715.png


Und nochmal: Mir ist vollkommen wurscht welcher Hersteller wie klein fertigt, ich würde auch einen AMD mit 32nm nehmen, wenn er mein 14nm Intel überlegen ist.
Ich sitz momentan auf dem 8700k und komm vom 1700x, seh einfach generell keinen Grund den CPU zu wechseln, da die Games die momentan rauskommen ohnehin multiplayertechnisch beschissen sind, es nur Valorant/CS zu spielen gibt und alle anderen Games im GPU limit hängen.
 

Anhänge

  • 1616067382938.png
    1616067382938.png
    8,5 KB · Aufrufe: 91
Zuletzt bearbeitet:
Unter vollast ist der AMD 42 Watt effizienter als der 11700K, das macht dann ganze 9 Cent am Tag, wenn du volle 8 Stunden unter vollast spielst/etwas renderst, was auch immer.
9 Cent vs 30°C, im Winter ganz nett, im Sommer zahl ich dann lieber die 9 Cent mehr.
Man sollte noch dazu sagen das Intel und AMD was Spiele angeht beim Verbrauch ziemlich gleichauf sind. Unter Volllast sinds dann die 42W... Wobei das halt auch nicht 8h am Tag vorkommt.

Für mich ist AMD dort interessant wo mehr als 8 bzw. 10 Kerne gebraucht werden. Es ist einfach der Wahnsinn, das man sich ne 16 Kerne Workstation in ITX auf den Tisch stellen kann :d
 
Man sollte noch dazu sagen das Intel und AMD was Spiele angeht beim Verbrauch ziemlich gleichauf sind. Unter Volllast sinds dann die 42W... Wobei das halt auch nicht 8h am Tag vorkommt.

Für mich ist AMD dort interessant wo mehr als 8 bzw. 10 Kerne gebraucht werden. Es ist einfach der Wahnsinn, das man sich ne 16 Kerne Workstation in ITX auf den Tisch stellen kann :d
Ja, das möchte ich damit ja auch sagen, aber es macht einfach KEINEN sinn auf Intel rumzuhacken, weil sie noch 14nm nutzen (müssen :fresse: ).
 
  • Danke
Reaktionen: Tzk
Unter vollast ist der AMD 42 Watt effizienter als der 11700K, das macht dann ganze 9 Cent am Tag, wenn du volle 8 Stunden unter vollast spielst/etwas renderst, was auch immer.
Renderst ja, aber bei Spielen wird keine der CPUs so viel Strom ziehen, schon weil diese nie alle Kerne voll auslasten werden. Außerdem ist bei Spielen die Leistungsaufnahme der CPU im Vergleich zu der der Graka meist sowieso wenig relevant.
 
Man sollte noch dazu sagen das Intel und AMD was Spiele angeht beim Verbrauch ziemlich gleichauf sind. Unter Volllast sinds dann die 42W... Wobei das halt auch nicht 8h am Tag vorkommt.

Für mich ist AMD dort interessant wo mehr als 8 bzw. 10 Kerne gebraucht werden. Es ist einfach der Wahnsinn, das man sich ne 16 Kerne Workstation in ITX auf den Tisch stellen kann :d
Asrock hat ein SP3 miniITX Board im Portfolio. 64 Kerne in ITX :fresse:

816F0FD9-D71C-43F0-8831-5567A637CE66.jpeg
 
  • Wow
Reaktionen: Tzk
Für mich ist AMD dort interessant wo mehr als 8 bzw. 10 Kerne gebraucht werden. Es ist einfach der Wahnsinn, das man sich ne 16 Kerne Workstation in ITX auf den Tisch stellen kann :d
Rein technisch gesehen (!) ist/war der 3300X genauso Wahnsinn 😁 Was der mit B-Dies bei welchem Verbrauch ballert ist schon ne Wucht.
 
  • Danke
Reaktionen: Tzk
Das ist leider nicht vollwertiges mITX, weil tiefer. Und leider nur 4 Slots für Ram und damit kein Octachannel. Aber hey, einen Tod muss man sterben :d
Kannst auch schlecht kleiner machen, der Sockel ist ja schon fast so lang wie ein miniITX Board :d
 
  • Haha
Reaktionen: Tzk
Mal ne kurze Frage rein interessehalber, weil ich gerade kurz die Folien im Artikel durchgeklickt hatte:

Warum wird in den 3 Benchmarkfolien Sysmark 25 gegen den 5900X gezeigt, im hauseigenen Vergleich mit der 10th Gen. aber außen vorgelassen?
 
Kommt das nur mir suspekt vor?
 
Warum wird in den 3 Benchmarkfolien Sysmark 25 gegen den 5900X gezeigt, im hauseigenen Vergleich mit der 10th Gen. aber außen vorgelassen?
Weil sie es vllt einfach nicht gemessen haben, die Werte nicht besser werden oder sonstwas?
Ich frag mich dabei viel eher, warum wird im Photo Creation Punkt einmal das Nero Logo und einmal das Photoshop Logo gezeigt!? ;)

Wirkt generell wie ein Herstellerbench - sie suchen sich die Konstellation, die am Besten dasteht. War doch immer so!?
 
@Don

Gibt eine neue Version vom Performance Optimizer:



Hinweis für die Testwilligen: Additionally, disable any BIOS overclocking optimizations if they are enabled by default.
 
Weil sie es vllt einfach nicht gemessen haben, die Werte nicht besser werden oder sonstwas?
Ich frag mich dabei viel eher, warum wird im Photo Creation Punkt einmal das Nero Logo und einmal das Photoshop Logo gezeigt!? ;)

Wirkt generell wie ein Herstellerbench - sie suchen sich die Konstellation, die am Besten dasteht. War doch immer so!?

Das ist exakt das, was ich meinte.

Es impliziert zum einen sehr offensichtlich, dass man sich in einem verständlicherweise sehr guten Licht darstellen will, ist aber gleichzeitig ebenso bescheuert, weil das Plus gegenüber dem 5900X hier a) deutlich am geringsten ausfällt und sich eben b) fast gezwungenermaßen die Frage aufdrängt, ob das hauseigene Neuprodukt in diesem konkreten Fall nicht tatsächlich schlechter darsteht, als der Vorgänger aus den eigenen Reihen das tut.

Das schreit doch geradezu danach, das sobald als möglich auszutesten.
 
Zuletzt bearbeitet:
Wieso unterstützen die kleinen Chips von Intel kein ECC mehr. Ich finde diese Entscheidung sowas von dumm und kann sie nicht nachvollziehen :wall:
Das verstehe ich auch nicht. Die Tage habe ich für einen Kunden einen Fileserver zusammengestellt. 1G LAN reicht dem. Also nichts schnelles notwendig. Was muss man kaufen. Einen Vorgänger Pentium Gold / i3 und bald wäre es schon der Vorvorgänger, weil der halt der letzte mit ECC Support ist. Das ist schon eine komische Situation. Und auch wenn AMD es nicht offiziell unterstützt, wirkt es bereits so als könnte man sich ab nächstem Jahr auf Ryzen 4xxx / 5xxx einstellen. Zumindest wenn es da auch mal was günstigeres gibt. Eventuell ist das auch der Grund warum Intel das noch durchziehen kann. Die haben ja keine sparsame CPU für unter 200 € mit ECC Support, wenn ich jetzt nicht falsch liege. Daher ist Torvalds Aussage auch so witzlos. Gut, der hat jetzt AMD, aber weniger als für einen Xeon hat er jetzt auch nicht bezahlt?!
 
Eventuell ist das auch der Grund warum Intel das noch durchziehen kann. Die haben ja keine sparsame CPU für unter 200 € mit ECC Support, wenn ich jetzt nicht falsch liege.
Bisher gab es aber von Intels solche CPUs und wenn Intel diese eingestellt, dann sicher nicht weil sie die einfach so nicht mehr anbieten wollen, sonden wohl eher weil der Markt dafür fehlt. MicroServer wie die kleinen von HP und füher auch Fujitsu verschwinden immer mehr, bei den Fertig NAS werden nur sehr teure Modelle mit ECC angeboten und dann gibt es noch die Xeon-D und die Atom C Modelle die ebenfalls ECC RAM unterstützen und einen viel größeren Leistungsbereich abdecken. Das die Nachfrage nach dem Xeons für den Mainstreamsockel einfach zu klein ist, kann man doch schon an der Umbenennung von Xeon-E in Xeon-W mit Comet Lake erkennen, welcehs klar macht, dass es keine Einstiegs Xeons mehr sind, sondern sie nur noch auf das Workstationsegment zielen, also auch von der offiziellen Anwendungsunterstützung her eingeschränkt sind, auf welcher Workstation läufen Serveranwendungen wie z.B. ESXI, was Validierungskosten spart und im Worstationsegment spielen die kleinen CPUs mit geringer Performance eben keine Rolle.

Vergiss nicht das Intel ein Unternehmen ist und jedes Unternehmen will vor alle Geld verdienen. Dies geht nur, wenn die Stückzahlen stimmen um die Kosten der Entwicklung und Validierung reingeholt werden können und man die Resourcen nicht woanders gewinnbringender einsetzen kann. Gerade im Serversegment sind die Kosten für Zertifizierungen für bestimmten Serveranwendungen und auch OS nicht günstig und gerade was die OS angeht, inkl. der Vertualisierungshosts, gibt es da viel mehr als im Dektop (da vor allem Windows und auch nur noch Win 10 eine Rolle, nachdem MS neue Plattformen nach Skylake nur noch mit Win 10 unterstützt) und auch bei Workstations. Diesen Aspekt ignorieren Heimanwender zwar gerne, dürften sie dann aber auch über Probleme nicht wundern, während Enterpriseanwender da sehr wohl genau drauf achten.
 
(games, keiner holt sich einen drauf runter weil er ne zip schneller entpackt als der andere)
Ah, ich weiß nicht... was ist wenn in der ZIP Datei ein Porno steckt? :shot:

Und ja sry, ich weiß der war schlecht. Aber er musste irgendwie raus ^^
 
Vorfreude ist zwar die schönste Freude, aber unter dem Aspekt hatte ich diesen Spruch noch nie gesehen :rofl:
 
9 Cent vs 30°C, im Winter ganz nett, im Sommer zahl ich dann lieber die 9 Cent mehr.
Dir ist schon klar, dass die CPU welche mehr Strom verbraucht nicht nur mehr Stromkosten verursacht, sondern auch deine Bude mehr heizt?

Du zahlst also gerne 9ct mehr, um im Sommer zusätzliche 42W Abwärme in deinem Zimmer zu haben. Das macht natürlich Sinn. 👍
 
Dir ist schon klar, dass die CPU welche mehr Strom verbraucht nicht nur mehr Stromkosten verursacht, sondern auch deine Bude mehr heizt?

Du zahlst also gerne 9ct mehr, um im Sommer zusätzliche 42W Abwärme in deinem Zimmer zu haben. Das macht natürlich Sinn. 👍
Bist du doof?
Schonmal gesehen wie Kühl der 11700K im vergleich zum 5800X bleibt, obwohl der Intel mehr frisst? :fresse2:

Und mir gehts nicht um hitze im Zimmer zu haben, sondern um das Throtteln das der Ryzen evtl haben wird, wenns draußen mal 30 Grad und es im Zimmer nicht mehr nur 21 Grad hat.
 
Fängt ja schon gut an. Glashaus, Steine und so...
Schonmal gesehen wie Kühl der 11700K im vergleich zum 5800X bleibt, obwohl der Intel mehr frisst? :fresse2:
Und? Du bläst trotzdem mehr Abwärme in den Raum als mit dem 5800X, was logischerweise den Raum auch mehr aufwärmt...
Und mir gehts nicht um hitze im Zimmer zu haben, sondern um das Throtteln das der Ryzen evtl haben wird, wenns draußen mal 30 Grad und es im Zimmer nicht mehr nur 21 Grad hat.
Macht im Endeffekt eigentlich keinen Unterschied, da das größte Problem mit der Transistordichte bei 7nm das Entziehen der Wärme aus dem Chip ist, macht effektive bei meinem 3900X und 5950X keinen Unterschied ob mein Loop mit den Lüftern auf 1000RPM oder 1900RPM läuft...
 
wenn Intel diese eingestellt, dann sicher nicht weil sie die einfach so nicht mehr anbieten wollen, sonden wohl eher weil der Markt dafür fehlt.
Ja aber das ist doch nur ein "Schalter" im BIOS, der es erlaubt. Der i3-10100E kann zb ECC, wird aber ausschließlich an OEM geliefert. Intel hat doch keinen Nachteil das zu erlauben. Eher den Nachteil, dass jetzt welche zum Ryzen 4350G/GE greifen. Und Validierung brauche ich nicht. Ich will einfach nur eine möglichst günstigen und sparsamen Mini PC mit ECC RAM.
 
Intel hat doch keinen Nachteil das zu erlauben.
Klar wäre es technisch möglich allen CPUs deren RAM Controller auch ECC unterstützt, bei Modellen von denen es auch einen Xeon Ableger gibt kann man dies annehmen, einfach auch ECC freizugeben. Ich würde mich auch extrem freuen wenn sie das machen würden, zumal ich ECC RAM für sehr wichtig halte und künftig keinen Rechner mehr ohne kaufen werde. Aber Intel hat ja damals schon vor Jahren die Xeons schon aus den Boards mit Consumer Sockeln verbannt, wohl um das Image der Xeons nicht zu verwässern oder um die Trennung der Unternehmensbereiche zu verstärken. Offenbar will das Marketing also nicht, dass alle CPUs ECC unterstützen und wird dafür seine Gründe haben, auch wenn wir diese nicht kennen und daher auch nicht nachvollziehen können.

Eher den Nachteil, dass jetzt welche zum Ryzen 4350G/GE greifen.
Bei den APUs hat AMD eben ECC offenbar ebenfalls unterbunden, nur bei den Pro Modelle nicht, aber da gibt es unterschiedliche Aussagen, ggf. also Ausnahmen wo vergessen wurde die ECC zu deaktivieren. Ich würde aber auf jeden Fall empfehlen bei den AMD APUs eine Pro Version zu nehmen, wenn man ECC haben möchte, obwohl dies bei denen auch kein offiziell unterstütztes Feature ist! Offiziell wird ECC RAM bei AMD aktuell nur bei EYPC (3000 und 7000er) und TR Pro unterstützt.

Aber mit DDR5 kommt dann ja On-Die-ECC, wenn auch nur optional und da muss man schauen wie häufig dies tatsächlich auf den Riegeln implementiert wird und gut es dann funktioniert. Wobei es weiterhin die klassichen ECC Riegel mit mehr als 64 Bit Datenbreit geben wurd. Das man aber überhaupt eine On-Die-ECC vorgesehen hat, zeigt dass Bitfehler im RAM offenbar so langsam zu einen solchen Problem werden, dass man eben nicht mehr sagen kann das die meisten Rechner die meiste Zeit trotzdem problemlos laufen. Die Übertragung der Daten zum RAM Controller wurde ja schon ab DDR4 mit einer CRC abgesichert, womit Übertragungsfehler zwar nicht korrigiert werden können, aber man kann sie erkennen und die Übertragung wiederholen. Auch hier wurden bei den gegenüber DDR3 nochmal erhöhten RAM Takten die Fehler wohl zu häufig um weiterhin ohne jegliche Fehlererkennung auszukommen.
 
obwohl dies bei denen auch kein offiziell unterstütztes Feature ist! Offiziell wird ECC RAM bei AMD aktuell nur bei EYPC (3000 und 7000er) und TR Pro unterstützt
Ja, aber irgendwo gab es ein offizielles Statement in Richtung "das überlassen wir den Board-Herstellern". Ich weiß jetzt nur noch mehr wo. Aber indirekt offiziell ^^
 
Es ist auch nicht "indirekt offiziell", es ist nicht deaktiviert, aber ob es funkioniert wird von AMD nicht garantiert. Auch die Unterstützung durch die Boardhersteller sollte natürlich über das Verbinden der zusätzlichen Datenleitungen zu den RAM Slots hinausgehen, man erwartet ja eigentlich auch eine ordentliche BIOS Unterstüzung damit Fehler an das Betriebssystem weitergemeldet und idealerweise auch im BIOS registriert werden, getrennt nach korrigierbaren und nicht korrigierbaren Fehlern. Für die meisten Heimanwender wird dies aber sicher reichen und besser als nichts ist es sowieso, keine Frage. Würde Intel das auch anbieten, dann würde ich dies klar begrüssen, zumal die Xeon im Einzelhandel schlecht verfügber sind, aber zuhause stelle ich mir keinen Fertigrechner hin, zumal ich den Support sowieso nicht brauchen und daher auch nicht bezahlen möchte.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh