Ausfallende Intel-CPUs: Crash-Reports zeigen 50 Prozent Ausfallrate

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Äquivalent könnte Intel auch einführen -> Problem gelöst!
Haben sie im Prinzip, Intel verwendet stattdessen eine andere Technologie für seine Prozessoren, die als Intel Management Engine (ME) bekannt ist.
Die Intel ME ist ein eigenständiger Mikrocontroller, der in Intel-Prozessoren integriert ist und Funktionen wie Fernverwaltung, Sicherheit und Systemüberwachung bietet.
 
Ja, ist mir geläufig mit Intels ME. Aber scheinbar reicht diese Implementierung nicht aus, um klare Richtlinien aufzustellen oder aber Intel möchte es einfach nicht. ;)
 
die ME ist nicht nur ein Microcontroller, auf dem Teil läuft ein vollwertiges OS (Unix). Intel könnte locker alle Parameterwerte festsetzen, wenn die wollten. Genauso wie Intel den Spielraum für die Hersteller nach Belieben begrenzen kann.

Wer glaubt das sich die Hersteller ohne Intels Duldung an den Bioswerten auslassen, der ist sehr naiv.

Hardware​

Starting with ME 11 (introduced in Skylake CPUs), it is based on the Intel Quark x86-based 32-bit CPU and runs the MINIX 3 operating system.
 
Ich erinnere mich noch an die Zeiten zurück, wo ich über AMD CPUs gelacht habe :lol:
"So einen ***eiß-Schrott würde ich mir nie kaufen!!!!!1"
Jetzt sind AMDs x3D-CPUs der King für mich :)

Was ich sagen will:
Irgendwann wird der Wind vielleicht auch mal in die andere Richtung wehen und ich bin grundsätzlich für beide Systeme offen.
Wart's ab.

Sollten die neuen AMD-CPUs oder deren Boards irgendwelche, und seien es auch nur die kleinsten, Macken haben, gibt's hier ein Schlachtfest.^^
 
Ich erinnere mich noch an die Zeiten zurück, wo ich über AMD CPUs gelacht habe

In meinem Zimmer standen als ich noch Schüler war schon 3x 386 AMD, und 1x 486 AMD.
Meine ersten eigenen X86 CPUs kamen ausschließlich von AMD.
Wir haben hier auch einen Ryzen 12-Kerner stehen auf dem Proxmox-VMs mit GPU-Passthrough fürs LLM training laufen.

Die Intel ME ist ein eigenständiger Mikrocontroller, der in Intel-Prozessoren integriert ist

Der "Mikrocontroller" steckt im PCH und nur bei SoC in der CPU, basiert AFAIK auf ARM Cores.
 
Natürlich nicht… /s
Siehe zum Beispiel:
Und wo soll das meine Aussage widerlegen ? Ich sagte keine so große Kontrolle wie AMD, nicht das sie überhaupt keine Kontrolle haben.
AVX512 wurde bei späteren Alderlake Steppings ja auch unterbunden, allerdings nicht per Microcode, sondern per Fertigungsschritt.

Tatsache ist und bleibt das es Vorgaben seitens Intel gab, an die sich aber wohl einige Retailer nicht gehalten haben. Hätten die CPU selbst die Probleme, hätten wir massenhaften Aufschrei von HP, Lenovo, Dell, Fujitsu-Kunden usw. gehört. Intel fabriziert schon auch genügend eigenen Bockmist (siehe I-225V NIC Debakel, oder vor ein paar Jahren das Puma6 Desaster), hier sehe ich das größere Problem aber wo anders.
 
Herrlich, wirklich. :popcorn:

Zum Glück ist die Rechtsabteilung bei Intel gut und ihr Geld auf jeden Fall wert. Wie's weitergeht entscheidet kein Produktmanager und erst Recht kein Ingenieur. Der Drops ist gelutscht. Wahrscheinlich dauert eine Lösung so lange, weil das legal department alles immer 7x prüfen muss und dann ablehnt, weil für die Firma zu teuer. Die Lösung existiert intern garantiert bereits, es wird aber vermutlich tägliche Meetings geben, wie teuer der ganze Spaß werden könnte oder werden wird.
 
Nein, denn da sieht man die Anforderungen die für Desktop Hardware gelten. Aber dir scheint es echt am Verständnis für vieles zu fehlen. Nur weil es keine beweglichen Teile gibt, bedeutet dies nicht das Desktop Hardware auch für Dauerlast geeignet ist, es gibt auch beweglichen Teile in Enterprise HDDs und die sind dafür gemacht.

Hast du mal überlegt, wieso die Xeon-E2400er maximal (beim E-2488) bis 5,6GHz takten, währen der ebenfalls in Q4 2023 erschienen 14900K bis 6GHz freigegeben ist?

Und du meinst, es macht rein auf Prozessor-Ebene einen Unterschied, ob ein 14900K nun auf einem W680- oder Z790-Board sitzt und jeweils unter Berücksichtigung nach Intels Spezifikationen arbeitet und in beiden Fällen Workstation-Aufgaben durchgeführt werden?
Nein, aber da Intel die gleichen CPUs eben dafür freigibt, bedeutet dies das sie eben für Workstationeinsatz geeignet sind. Das ASUS die dann auch in einem W680 Board übertaktet betreibt, ist natürlich pervers und wurde dabei sicher nicht berücksichtigt. Der Unterschied ob W680 und Z790 Board sollte sein, dass die CPUs in einem W680 eben nach Intel Vorgaben betrieben werden und in einem Z790 eher nicht, da diese ja eben die Übertakter als Zielgruppe haben.

Wobei solche Angaben auch nicht 100%. Ernst zu nehmen sind, wie viele da draußen betreiben silikon Lotterie und schicken CPUs zurück weil der Asus Wert zu klein ist
Natürlich sind die Zahlen ungenau, aber egal ob nur die Hälfte wirklich defekt ist oder Doppelt oder auch dreimal so viel, manche werfen mit Zahlen von 50% umher und davon ist man dann immer noch sehr weit weg.

Auch weiß wahrscheinlich keiner wie viele da draußen sind die ihre CPUs zusatzlich zum Auto Board übertakten noch übertakten
Bei denen manche ich mir eher weniger Sorgen die wissen ja, dass sie ihre CPU übertakten und sollten sich damit auch bewusst sein, dass dies der Stabilität schaden kann. Schlimmer sind diejenigen, die sich nicht bewusst sind, dass eben das Mainboard die CPU oft auch in den Defaulteinstellungen schon übertaktet betreibt. Schau nur wie viele in Foren @Stock schreiben und dabei Benchmarkswerte oder Leistungsaufnahmen haben, die klar auf dem Betrieb außerhalb der Spezifikationen hinweisen. Manche von denen mögen dies bewusst unterschlagen, aber ich fürchte den meisten ist halt nicht bewusst das sie die CPU außerhalb der Vorgaben betrieben und glauben die Defaulteinstellungen des BIOS wären nach Intel Vorgaben.

Nur so lassen sich auch die endlosen Kommentare zu Intel CPU bzgl. hoher Leistungsaufnahme, geringer Effizienz und Hitzkopf erklären. Dabei liegt dies eben nicht an der CPU selbst, sondern halt der automatischen Übertaktung die das Mainboard macht.

hatte denen ein 13900kf zu rma eingeschickt, der wurde mir dann als io zurück geschickt, darauf habe ich ein neues Mainboard gekauft mit der selben CPU betrieben und da das selbe Fehlverhalten wie auf Mainboard a gehabt, neue CPU gekauft 13900k und siehe da system läuft...
Dies könnte eben auch die Folge vom Betrieb außerhalb der Spezifikationen in der Defaulteinstellung des BIOS sein. Wenn sie in dem Mainboard mit dem MF getestet hat, dann halt mit anderen Einstellungen gelaufen ist, war sie dort eben in Ordnung. Intel dürfte sie aus Kulanz getauscht haben, dies machen viele Firmen wenn es nur wenige Fälle sind, des Images wegen. Wäre aber interessant zu wissen ob Deine CPU dann in der RMA Statistik bei MF mitgezählt wurde.

Mehr traust du einem 14900K bei Dauerlast/betrieb nicht zu?? Wäre ein Armitszeugnis für Intels Qualität.
Ein Armutszeugnis für dein Verständnis der Sachverhalte.

Die Segmentierung Client/WS/Server erfolgt *nicht* über die Haltbarkeit der CPUs.
Doch, denn die Haltbarkeit der CPUs ist auch eine Frage der Betriebsbedingungen. Wie oben schon geschrieben, 5,6GHz maximal für den Xeon statt 6GHz für den i9 14900K.

Reden wir hier ernsthaft darüber, dass eine Desktop CPU nicht mit %beliebige workload% belastet werden darf, weil sie sich sonst verrechnet?
Von Verrechnen ist hier nicht die Rede, sondern von Abstürzen und die müssen kein Hinweis auf Rechenfehler sein.

Reden wir hier ernsthaft darüber das eine CPU nicht für %beliebiger Zeitraum% belastet werden darf, weil sie sonst degraded?
Jeder Halbleiter altert und ändert dabei seine Eigenschaften ein wenig, schlimmstenfalls so, dass er nicht mehr funktioniert. Schau dir nur an, wie lange Wechselrichter für Solaranlagen halten, da muss man auch damit rechnen, dass man während der Nutzungsdauer der Anlage mindestens einen neuen Wechselrichter braucht, eben weil die Halbleiter darin irgendwann schlapp machen.

Ich glaube das CPUs die bereits geschädigt sind auch kaputt bleiben.
Geschädigt sind gealterte CPUs nur dann, wenn sie nicht mehr stabil laufen, selbst wenn sie innerhalb der Intel Vorgaben betrieben werden. Aber wie viele sind das? Man erfährt dies eben nicht, da die Leute die darum so viel Wirbel machen, diese kritische Information eben unterschlagen.

Bei diesen CPUs helfen die neuen Vorgaben dann nicht mehr.
Woher nimmst du diese Vermutung? Auch so, aus den Fingers gesogen! Sonst zeige mir seriöse Belege dafür!
eine CPU die sich verrechnet
Wo sind die Belege das die CPUs sich verrechnen?
Armes machtloses Intel, denen die Hersteller auf der Nase herum tanzen?
Ja, die tanzen Intel auf der Nase rum, schau nur was ASUS damit mit dem OC S-2011-3 gemacht hat, da haben sie sogar die Pinbelegung geändert oder das BLCK OC bei Skylake, dem Intel dann per Microcode Update einen Riegel vorschieben musste. AMD ist da seit Zen in einer anderen Position, die liefern mit dem AGESA das komplette BIOS und der Mainboardhersteller macht nur noch sein Interface dafür. Bei Intel ist das aber eben anderes, aber vielleicht ändert sich das ja in Zukunft. Hier wäre aber die Frage, was in den jeweiligen Verträgen steht, denn Intel braucht ja eben die Mainboardhersteller, da sie keine CPUs verkaufen können, wenn es dafür keine Mainboards gibt und Intel seine eigene Mainboardsparte eben leider vor Jahren aufgegeben hat.
Meteor Lake ist DoA
Nein, es gibt genug Geräte mit Meteor Lake, Notebooks und auch "NUCs" und für andere Bereiche war Meteor Lake nie vorgesehen.

Es betrifft ja alle Mb Hersteller
Wo sind die Belege für diese Aussage? Wir erfahren ja nicht einmal von den Server Anbietern die über 50% Problematische Systeme klagen, welche Systeme dies genau sind, außer welche CPU sie haben. Aber zum Mainboard oder ob es ein OEM Rechner ist, erfahren wir nicht, dies wäre aber eben sehr relevant! Dann wie sch4kal schon schrieb:

Halten wir also fest, OEMs sind scheinbar Stand jetzt nicht betroffen und machen wohl alles richtig. Daraus schlussfolgernd tragen also die Retail Mainboardhersteller die Hauptschuld an dem ganzen Dilemma.
So ist es!

Supermicro hat eine ganze Reihe an Retail/Client Boards, inklusive OC Möglichkeiten.
Und was sagt das darüber wie die Defaulteinstellungen sind? Nichts!

Aber scheinbar reicht diese Implementierung nicht aus, um klare Richtlinien aufzustellen oder aber Intel möchte es einfach nicht. ;)
Was heißt Richtlinien? Harte Grenzen kann Intel nicht in die ME einbauen, dann wäre z.B. OC nicht mehr möglich und dies ist ja gerade bei den K Modellen ein bewusst vorhandenes Feature. Richtlinien in Sinne von, die sie Defaulteinstellungen sein sollen, gibt es in den Datenblättern schon lange, die Mainboardhersteller haben sich aber nicht daran gehalten und wie gut sie es mit ihren jüngsten BIOS Update machen, wird man abwarten müssen, aber technisch und offenbar auch auf anderen Wegen, kann Intel dies eben kaum erzwingen, wenn man sieht wie sich die Mainboardhersteller bei dem Thema auf die Hinterbeine gestellt haben.

Aber wird drehen uns hier so langsam echt im Kreise und AMDs 50ct Army bringt hier so lang so viele sich immer wieder wiederholende Beiträge, dass ich keine Lust mehr habe und keine Chance mehr sehe hier Vernunft reinbringen zu können.
 
Nein, aber da Intel die gleichen CPUs eben dafür freigibt, bedeutet dies das sie eben für Workstationeinsatz geeignet sind. Das ASUS die dann auch in einem W680 Board übertaktet betreibt, ist natürlich pervers und wurde dabei sicher nicht berücksichtigt. Der Unterschied ob W680 und Z790 Board sollte sein, dass die CPUs in einem W680 eben nach Intel Vorgaben betrieben werden und in einem Z790 eher nicht, da diese ja eben die Übertakter als Zielgruppe haben.
Egal ob W680 oder Z790, Intels Spezifikationen sollten generell eingehalten werden. Wer hinterher (natürlich auf eigene Gefahr) übertakten möchte, kann das dann manuell tun und gut ist.
Was heißt Richtlinien? Harte Grenzen kann Intel nicht in die ME einbauen, dann wäre z.B. OC nicht mehr möglich und dies ist ja gerade bei den K Modellen ein bewusst vorhandenes Feature. Richtlinien in Sinne von, die sie Defaulteinstellungen sein sollen, gibt es in den Datenblättern schon lange, die Mainboardhersteller haben sich aber nicht daran gehalten und wie gut sie es mit ihren jüngsten BIOS Update machen, wird man abwarten müssen, aber technisch und offenbar auch auf anderen Wegen, kann Intel dies eben kaum erzwingen, wenn man sieht wie sich die Mainboardhersteller bei dem Thema auf die Hinterbeine gestellt haben.
Empfohlene Spezifikationen sind für mich keine Richtlinien. Richtinien sind für mich Regeln, die nicht umgangen werden können. Und sofern das in ME nicht einprogrammiert werden kann, muss ein anderes System her, mit dem das eben ordnungsgemäßg funktioniert, ohne, dass die Mainboard-Hersteller machen können, was sie wollen. AMD kriegt das doch auch hin. Natürlich sollte berücksichtigt werden, dass im Falle eines Z-Mainboards und einer K-CPU manuelle Übertaktung möglich ist. Und da gibt es sicherlich einen Weg, man (Intel) muss es nur wollen. Wenn Intel dies nicht macht, wird sich rein gar nichts ändern, auch nicht mit Arrow Lake-S und folgenden Produkten.
 
Egal ob W680 oder Z790, Intels Spezifikationen sollten generell eingehalten werden.
Wurden sie aber bei den Z790 mehr oder weniger durch die Bank per Default Einstellung des BIOS bisher nicht. Erst jetzt mit den Updates mit Intel Profilen ist dies dann hoffentlich anderes und zumindest von den ASUS W680 Boards sehen wir im Changelog des neusten BIOS auch, dass diese die CPUs vorher nicht nach Intel Spezifikationen betrieben hat. Aber wie gesagt, wir drehen uns hier im Kreis, denn das hatten wir alles schon.
Richtinien sind für mich Regeln, die nicht umgangen werden können. Und sofern das in ME nicht einprogrammiert werden kann, dann muss ein anderes System her, mit dem das eben ordnungsgemäßg funktioniert, ohne, dass die Mainboard-Hersteller machen können, was sie wollen.
Hoffen wir, dass Intel dieses andere System aufbauen kann und künftig dann alle Mainboards die Intel CPUs per Defaulteinstellung streng nach Intels Vorgaben betreiben und nicht mehr mit Einstellungen die sie nach eigenen Vorstellungen "optimiert" haben.
 
Richtlinien sind keine festen Grenzen, da es nur eine Annäherung bedeutet... vergleichbar mit Richtgeschwindigkeit und Tempolimit, oder Vorschrift und Gesetz!
 
Und wieso hat Intel sich da in den letzten 10 Jahren nichts ähnliches einfallen lassen?
Warum takten sie nicht einfach jede betroffene SKU 400MHz runter und ändern die specs,bzw schieben eine 14850k nach wenn der 14900k zu nah an der Sonne fliegt? ( vgl. 10900k und 10850k)?

2 Optionen:
1) kein Interesse dass der Balken kürzer wird. Lieber den board Partner unter den Bus werfen als zugeben dass die Chips max 5,6 GHz können.
2) damit allein ist das Thema nicht gelöst

Und Intel könnte die Chips grundsätzlich limitieren können sie bei kleineren Modellen und nicht-K chips auch.

Das ist halt die Intel Ambivalenz aus "Wir wollen den längsten Balken, Koste es was es wolle" und "jetzt haben sie es übertrieben und brauchen Sündenböcke für dieses misslungene Experiment" entstanden durch Brechstange und jahrelange nicht-Performance/Stagnation in den Fabs.

Und in dieser Gemengelage aus Ambivalenz, Schwarzer Peter, Börsenrecht, Aktionärsinterssen usw. Kommt halt der Eiertanz zu Stande der grade aufgeführt wird.

Und das nervt mich an. Es werden Opfer unter den Bus geschmissen, B2B und B2C, die nichts dafür können. Die Ursache liegt bei Intel, egal wie man es dreht und wendet.

Entsprechend braucht es eine eindeutige konsistente Kommunikation zur Lösung des Themas, welche nicht zu Lasten der B2B und B2C Kunden geht.
( und keine Kakophonie über alle Kanäle mit inkonsistenten Botschaften und wo Kunden unter den Bus geworfen werden)
 
Zuletzt bearbeitet:
Richtlinien sind keine festen Grenzen, da es nur eine Annäherung bedeutet... vergleichbar mit Richtgeschwindigkeit und Tempolimit, oder Vorschrift und Gesetz!
IT vs. Autobereich -> nicht vergleichbar. Im IT-Sektor sind Richtlinien festgeschrieben.
 
Tatsache ist doch, dass auch CPUs, die auf Supermicro W680 Boards gelaufen sind, betroffen sind. Und Supermicro Boards halten sich an alle Specs.
@IronAge hat oben ein (viel zu langes, aber sehr interessantes) Video verlinkt. Dort wird vermutet, dass zu hohe Spannungen bei zu hohen Frequenzen (bis über 1,5V bei 6 / 6,2 GHz) die CPUs beschädigen. Ich halte diese Theorie für richtig. Da spielen hohe Ströme und Temperaturen eine untergeordnete Rolle.
 
IT vs. Autobereich -> nicht vergleichbar. Im IT-Sektor sind Richtlinien festgeschrieben.
Hmmm... Im IT-Sektor finde ich nur Richtlinien in Bezug auf Sicherheit und Datenschutz... für die Technik sind die VDI-Richtlinien am besten passende: Teilzitat aus https://de-academic.com/dic.nsf/dewiki/1444838

"Grundsätzlich haben VDI-Richtlinien den Charakter von Empfehlungen. Ihre Anwendung steht jedem frei, das heißt, man kann sie anwenden, darf aber die Einhaltung des Stands der Technik auch auf andere Weise sicherstellen. Die Anwendung einer VDI-Richtlinie entbindet den Nutzer nicht von der Verantwortung für eigenes Handeln und sie geschieht damit rechtlich auf eigene Gefahr."

Der letzte Satz ist auf diese Desktop/Workstation/Server-Problematik gut abbildbar 8-)
 
Gut, dann eben anders: Einstellungen, die im BIOS getroffen werden, sind ebenfalls Richtlinien. Wird eine Komponente eingeschaltet? Enabled! Wird sie ausgeschaltet? Disabled! Das sind ebenfalls Richtlinien. Und das ist nur ein Beispiel. ;) Im Software-Bereich fällt mir spontan der Gruppenrichtlinien-Editor in der Pro-Version von Windows ein. Die dort gewählten Einstellungen sind fix!
 
Ich fi..e meinen 13900k seit ich den habe. Vcore und Takt. Probleme hatte ich bis jetzt keine. Und ich habe den seit Release
 
Nvidiea hat beim mining gezeigt Produkte zu fertigen die 24/7 funktionieren sind möglich:)

Da fürs Mining zweckentfremdete Gaming GPUs zu höheren RMA Quoten führten, haben zahlreiche Hersteller die Garantie-Bedingungen dahingehend erweitert, dass die Garantie bei 24/7 Nutzung hinfällig ist.

Das steht übrigens in den Garantie-Bedingungen für NV FE Grafikkarten:

Warranted Product is intended for consumer end user purposes only, and is not intended for datacenter use and/or GPU cluster commercial deployments ("Enterprise Use"). Any use of Warranted Product for Enterprise Use shall void this warranty.

Wird also auch von NV wird zwischen consumer und 24/7 bzw. Unternehmenseinsatz unterschieden. So viel dazu ... auch wenn es Off-Topic ist. :sneaky:
 
Alderon Games behauptet ja dass bei ihren Tests fast 100% der Intel CPU's wegen Instabilitäten Durchfallen. Also entweder machen die irgendwas falsch oder sie haben einen Bug gefunden. Kann ja sein dass ihre Software irgendwas macht was die Raptor Lake Architektur wegen eines Hardware Fehlers nicht verträgt. CPU Bugs also Errata gibt es bei jeder CPU egal wer die Herstellt.

Aber wenn man derartige Behauptungen aufstellt sollte man auch veröffentlichen wie man getestet hat und wie die CPU's betrieben wurden. Aber dazu haben sie sich nicht geäußert und deshalb kann man das ganze anzweifeln.
 
IT vs. Autobereich -> nicht vergleichbar. Im IT-Sektor sind Richtlinien festgeschrieben.
Auch im Autobereich gibt es Richtlinien, die quasi Gesetzescharakter haben. VdTÜV 751 zum Beispiel und dort ganz konkret die Mindestbodenfreiheit von 80 bzw 110mm. Die ist in Deutschland kein Gesetz, aber so wohl Polizei (allg. Verkehrskontrolle) als auch TÜV prüfen danach. Die RiLi ist bindend, ganz einfach.

VDI ist auch so ein Thema, wenn man davon abweicht, dann kann das durchaus Probleme geben.
 
Tatsache ist doch, dass auch CPUs, die auf Supermicro W680 Boards gelaufen sind, betroffen sind. Und Supermicro Boards halten sich an alle Specs.
@IronAge hat oben ein (viel zu langes, aber sehr interessantes) Video verlinkt. Dort wird vermutet, dass zu hohe Spannungen bei zu hohen Frequenzen (bis über 1,5V bei 6 / 6,2 GHz) die CPUs beschädigen. Ich halte diese Theorie für richtig. Da spielen hohe Ströme und Temperaturen eine untergeordnete Rolle.

Wenn es allgemein der Fall wäre, dass die CPU´s die hohe Vcore einfach nicht vertragen, dann bringt es die Intel Profile zu nutzen aktuell recht wenig , weil man nicht ins PL kommt und
dann halt hohe Spannungen unter Gaming Last weiter hat. Erst wenn man ins PL kommt und der Takt sinkt geht auch die CPU Spannung mit nach unten.
Somit müsste man den Turbotakt bei diesen CPU soweit absenken bis diese sich in einer ungefährlichen Spannungskurve befindet.

Das traurige ist ja auch, dass man über die CPU die Instabil sind nicht einmal ne Info über die SP der CPU bekommt oder ein Bild von der Spannungskurve.
Daher aktuell alles nur Spekulation.
 
Naja wenn der nur 80% zulässt und nicht 120% wie die z Serie, ist es doch ein Anfang wo man gucken kann.
 
Danke, aber so richtige Beweise lese ich da nicht.
Sind alles nur Vermutungen und Hörensagen ohne irgendwelche Details dazu zu nennen.

Der W680 Chipsatz unterstützt Overclocking also wer weiß wie die CPU's betrieben wurden? Seltsamerweise werden keine Details dazu genannt sondern einfach nur vermutet dass der W680 Chipsatz weniger Probleme macht.
 
Dass ihr euch da so intensiv mit beschäftigt.
Mir ist das vollkommen egal, mein 14900KS rennt fehlerfrei und wenn er das nicht mehr machen sollte, gehts eben zur RMA, denn dafür ist die da.

Alles Lebenszeit, die hier geopfert wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh