Software kann Prozessoren gezielt schädigen und altern lassen (Update)

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.021
<p><img src="/images/stories/logos-2015/cpu-logo.jpg" width="100" height="100" alt="cpu logo" style="margin: 10px; float: left;" />Auch wenn Prozessoren bzw. Halbleiterbauelemente auf den ersten Blick keinerlei mechanischer Bauteile vorzuweisen haben, können sie dennoch altern. Maßgeblich dafür verantwortlich ist die <a href="https://en.wikipedia.org/wiki/Negative-bias_temperature_instability" target="_blank">Negative-bias Temperature Instability (NBTI)</a>. Die Alterung innerhalb der MosFET äußert sich in längeren Schaltzeiten, einer höheren Schwellspannungen und niedrigeren Drain-Strömen. Aber auch andere Effekte sorgen für eine gewisse Alterung von Halbleiterbauelemente. Mit den immer kleinere Fertigungstechnologien haben sich diese Effekte weiter verstärkt.</p>
<p>Der nicht...<br /><br /><a href="/index.php/news/hardware/prozessoren/36949-software-kann-prozessoren-gezielt-schaedigen-und-altern-lassen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
WOW! 11% Leistungsverlusst ist echt krass!

Die Sache mit der gewollten Obsoleszenz macht mir echt sorgen...
 
Naja. Die Dinger altern halt. Für die geplante Obsoleszenz gäbe es deutlich einfachere Wege, gerade da eine CPU normalerweise eben _nicht_ open source ist.
 
Ist doch allgemein bekannt das Prozessoren altern. Mit hoher Last und viel Spannung dann auch schneller...
 
Ja altern tut sie ja schon, indem sie halt ne höhere Spannung braucht um den Takt zu halten aber normalerweise rechnet da doch nix langsamer?!
 
Frage an die Experten: Wie viel Leistung könnte denn eine CPU theoretisch nach knapp 40.000 Arbeitsstunden eingebüßt haben?
 
Ja altern tut sie ja schon, indem sie halt ne höhere Spannung braucht um den Takt zu halten aber normalerweise rechnet da doch nix langsamer?!

Meine hardwarekenntnisse sind sehr begrenzt.. aber so wie ich das verstanden haben werden die Speicherzellen der Pipeline geschädigt. D.h. die fgunktionieren nicht mehr so zuverlässig wie am Anfang. Das führt wohl zu mehr Fehlern. Da dies aber immer vorkommen kann (und Rechenfehler quasi tödlich wären), haben CPUs umfangreiche Überprüfungsmechanismen. Steigt aber die Fehlerrate an, erfordert das mehr Neuberechnungen, d.h im Schnitt über mehrere Millionen Rechnungen, wird insgesamt mehr zeit benötigt --> Geringere Leistung.
Ähnliches kennt man ja auch von HDDs. Altern diese, dauern sowohl Lese- als auch Schreibvorgänge (mit Überprüfung) länger.

Leicht beunruhigende Sache das ganze auf jeden Fall.


Frage an die Experten: Wie viel Leistung könnte denn eine CPU theoretisch nach knapp 40.000 Arbeitsstunden eingebüßt haben?
Das kann man wohl kaum sagen...
Bei normalem Betrieb ist es außerdem eher unwahrscheinlich dass überhaupt die heir genannten Effekte, sich auf die Leistung auswirken.
 
Meine hardwarekenntnisse sind sehr begrenzt.. aber so wie ich das verstanden haben werden die Speicherzellen der Pipeline geschädigt. D.h. die fgunktionieren nicht mehr so zuverlässig wie am Anfang. Das führt wohl zu mehr Fehlern. Da dies aber immer vorkommen kann (und Rechenfehler quasi tödlich wären), haben CPUs umfangreiche Überprüfungsmechanismen.

Wenn die CPU sowieso schon weiß, was richtig und was falsch ist, warum rechnet sie dann überhaupt noch?
;)


Das altern bezieht sich auf das Schaltverhalten der Transistoren und der daraus resultierenden maximal möglichen Frequenz. Diese bildet sich aus der Laufzeit, die für den längsten Pipeline abschnitt gebraucht wird. Durch das altern wird diese Zeit eben größer, da langsamer geschaltet wird, und die maximale Frequenz sinkt.

Also das schwächste Glied in der Kette finden und extra belasten, bis es bricht. Im Normalenbetrieb sollte das eigentlich zu keinen Problemen führen, da es eben einen "Sicherheitsabstand" gibt, mit OC sieht es ggf. anders aus.
 
Naja so eine cpu weiß nicht wirklich was richtig und falsch ist als ergebniss, sondern es geht vielmehr um den Speicher in der CPU, also dem Cache. Dieser wird ECC geprüft wie der Ram in Servern. Dies geschieht über eine paritätsbit berechnung, also vereinfacht gesagt - es kommt ein Datenstrom an und wird in den cache zwischengelagert. Genau in diesen moment wo er gespeichert wird, wird eine prüfsumme gebildet von den daten. Wenn alle daten drauf sind, und diese verarbeitet werden wird anhand der prüfsumme gecheckt, ob die daten eigentlich noch Konsistent sind welche da gerade fürs rechnen genommen werden. Liegt da nun ein fehler vor, weil sich die nachträglich errechnete prüfsumme geändert hat, weis die cpu, bzw. der Ecc Mechanismus nicht direkt wo genau der fehler ist, er fängt einfach nochmal von vorne an und versucht es nochmal.

Rechenfehler entstehen in den ALU, also der eigentlichen recheneinheit der CPU... Diese weiß nicht was richtig und falsch ist, daher entstehen z. B. beim übertakten rechenfehler bei Prime95... Das kommt nicht vom cache der CPU.

Daher ist es auch möglich das trotz übertakten, eine cpu oder eine gpu langsamer rechnet, weil cache fehler ermittelt werden und alles wieder neu angefordert und geschrieben werden muss...jenachdem wie grenzwertig das gamze gerade läuft.



Mit manchen Mainboards ist es auch möglich diese EEC cache prüfung abzuschalten, dadurch wird das system auch etwas leistungsfähiger - kann dafür aber instabiler werden...
Auch darum ist gleichgetakteter Ecc serverram etwas langsamer als normaler Desktop ram.
 
Zuletzt bearbeitet:
Gerade falsche nebenspannungen bei haswell schaden der CPU erheblich. Da ist eine falsche vcore (z.B. 1.4 statt 1.3V) nicht so schlimm. Wichtig ist auch dass man die loadline auf standard hält, dieses lässt leider auch viele CPUs innerhalb kürzester Zeit kaputt gehen.
 
Der Artikel bekommt von mir ein Wow! Ich glaube das wird noch ein sehr großes Thema in den Medien werden.
 
Gerade falsche nebenspannungen bei haswell schaden der CPU erheblich. Da ist eine falsche vcore (z.B. 1.4 statt 1.3V) nicht so schlimm. Wichtig ist auch dass man die loadline auf standard hält, dieses lässt leider auch viele CPUs innerhalb kürzester Zeit kaputt gehen.
Ähh.. hast du ein par praktische Quellen?
Theoretisch hast du ja recht, aber wir kennen die Toleranzen nicht.
Von kaputt gehenden CPUs hört man ja doch so gut wie nie. Selbst hier in OC Foren.
Erst über 5-6 Jahre alten Phenoms hab ich vereinzelt gelesen dass die jetzt mehr Spannung brauchen für die selben OC Werte. Die heutigen CPUs scheinen da aber noch deutlich stabiler zu sein, immerhin wird ihnen eine deutlich höhere tJmax zugesprochen (~67° vs ~105°).

Das altern bezieht sich auf das Schaltverhalten der Transistoren und der daraus resultierenden maximal möglichen Frequenz. Diese bildet sich aus der Laufzeit, die für den längsten Pipeline abschnitt gebraucht wird. Durch das altern wird diese Zeit eben größer, da langsamer geschaltet wird, und die maximale Frequenz sinkt.
Also das ergibt nicht so viel Sinn. Eine CPU hat einen Referenztakt. Z.B. die 4Ghz o.ä. Wenn dieser Wert wirklich vom momentanen Zustand der Pipeline abhängig wäre, müsste er doch ständig schwanken.
Wäre schön wenn CPUs ihren Takt bei Rechen/Zugriffsfehlern selbstständig senken würden (bzw. umgekehrt automatisch immer am Rechen-Limit laufen). Dann wäre händisches OC mit Stunden voll Prime, Geschichte (bis auf reine Spannungserhöhungen) :d

Denke AssassinWarlord hat es auf den Punkt gebracht, danke!
 
Zuletzt bearbeitet:
Also das ergibt nicht so viel Sinn. Eine CPU hat einen Referenztakt. Z.B. die 4Ghz o.ä. Wenn dieser Wert wirklich vom momentanen Zustand der Pipeline abhängig wäre, müsste er doch ständig schwanken.
Wäre schön wenn CPUs ihren Takt bei Rechen/Zugriffsfehlern selbstständig senken würden (bzw. umgekehrt automatisch immer am Rechen-Limit laufen). Dann wäre händisches OC mit Stunden voll Prime, Geschichte (bis auf reine Spannungserhöhungen) :d

Denke AssassinWarlord hat es auf den Punkt gebracht, danke!

Wer sagt, dass der Referenztakt auch der maximal möglicher Takt der Pipeline ist? Ich nicht, siehe oben! Denn das würde zu einer großen Instabilität führen und Fehler gerade zu provozieren. Und eben wie du sagst nicht mal OC erlauben.

Und wenn man sich das Whitepaper zu deren Software durchliest ist es eben genau das, was ich beschrieben habe.
https://drive.google.com/file/d/0B9i8WqXLW451MTIyM2lqR1lpZ3M/view?pli=1
 
Zuletzt bearbeitet:
Der Artikel bekommt von mir ein Wow! Ich glaube das wird noch ein sehr großes Thema in den Medien werden.

Von mir auch ein WOW, aber mal ehrlich.

Das Thema wird klanglos untergehen in den Medien, zumindest in den normalen Medien.

Ich hab gestern erst mehrere Seiten (englisch) gelesen um rauszufinden, was NBIT ist und wie der Vorgang hier funktioniert zum Schädigen der CPU. :stupid:

Da haben mir auch 15+ Jahre Hardwarespielerei etc. nicht weitergeholfen.
 
Na hoffentlich gelangen die CPU Pläne von AMD/Intel nicht an falsche Leute. Sonst wird die nächste Generation von Schadsoftware einem die Hardware zerlegen. Dann ist nichts mehr mit System platt machen und alles ist wieder gut...
 
Auch von mir Daumen hoch für diesen Artikel :bigok:

Und noch ein Grund mehr früher zu neuer Hardware zu greifen :xmas:
 
Zuletzt bearbeitet:
Passiert das auch bei Apple Geräten oder nur bei Windows?

Ein Freund hat mit gesagt, dass Apple ein Patent darauf gemacht hat, dass ihre Hardware nicht altert. Deswegen halten die Akkus auch länger.

Bei Android ruckelt deswegen auch alles.

Ich bin deswegen gerne bereit, für mein neues iPhone 50€ im Monat abzuzahlen.

Apple ist einfach das beste Handy und die Leute sind neidisch.

Bei ipad, iPod, MacBook und watch ist es das gleiche.
IMac auch. Aber da ist der Vorteil gegenüber Windows desktop nicht so heftig, weil ja kein Akku drin ist.

Alle sollten einfach Apple kaufen und es gibt keine Probleme mehr.

Die Fotos vom iPhone sind auch die besten. Und der Unterschied wird mit der Zeit echt sehr stark, weil die Kamera und die CPU nicht altert.
Bei Android lassen sie Kameras schnell nach. Nach 3 Monaten ist alles nur noch matschig.
IPhone überholt nach ca 1 Jahr sogar Spiegelreflex, weil die auch altern.

Ich habe das schon immer vermutet.
 
Ohm mein Gott XD

Ich glaube hier haben einige mehr Panik vor dem Thema wie man eigentlich haben sollte. Da sollte lieber der USB Stick im Auge behalten werden^^.
Nun mal im Ernst, wie kommt es, dass von so vielen Hardwarehacks geschrieben wurde? Zufall oder gerade gestiegenes Interesse an solche Geschichten?
 
@AssassinWarlord
Deine Erklärung geht zumindest in die richtige Richtung. ;)
ECC beinhaltet schon die Korrektur, es gibt auch Multi-Bit ECC da können mehrere "bit flip" Fehler Korrigiert werden, Standard ECC kann nur 1 Bit Fehler erkennen und korrigieren.
Das was du meinst, hängt mit dem Turbo zusammen. Es wird so lange der Takt erhöht bis Rechenfehler entstehen und dann wieder eine Stufe zurück getaktet und die Berechnung die den Fehler hatte nochmal durchgeführt.
 
Passiert das auch bei Apple Geräten oder nur bei Windows?

Ein Freund hat mit gesagt, dass Apple ein Patent darauf gemacht hat, dass ihre Hardware nicht altert. Deswegen halten die Akkus auch länger.

Bei Android ruckelt deswegen auch alles.

Ich bin deswegen gerne bereit, für mein neues iPhone 50€ im Monat abzuzahlen.

Apple ist einfach das beste Handy und die Leute sind neidisch.

Bei ipad, iPod, MacBook und watch ist es das gleiche.
IMac auch. Aber da ist der Vorteil gegenüber Windows desktop nicht so heftig, weil ja kein Akku drin ist.

Alle sollten einfach Apple kaufen und es gibt keine Probleme mehr.

Die Fotos vom iPhone sind auch die besten. Und der Unterschied wird mit der Zeit echt sehr stark, weil die Kamera und die CPU nicht altert.
Bei Android lassen sie Kameras schnell nach. Nach 3 Monaten ist alles nur noch matschig.
IPhone überholt nach ca 1 Jahr sogar Spiegelreflex, weil die auch altern.

Ich habe das schon immer vermutet.

Vollkommen richtig. Dafür verursacht Apple als Nebenwirkung Krebs.
 
Und anscheinend akute Hirnlosigkeit. Zumindest bei einigen Nutzern :d

IPhone überholt nach ca 1 Jahr sogar Spiegelreflex, weil die auch altern.

Und wenn dein iPhone dann 3 Jahre alt ist, ist ihm sogar aus dem nicht alternden Akku ein Spiegel für die Spiegelreflexfunktion gewachsen.
 
Zuletzt bearbeitet:
Und ihr reagiert dafür auf einen offensichtlichen Trollpost von dem :shot:
 
@AssassinWarlord
Deine Erklärung geht zumindest in die richtige Richtung. ;)
ECC beinhaltet schon die Korrektur, es gibt auch Multi-Bit ECC da können mehrere "bit flip" Fehler Korrigiert werden, Standard ECC kann nur 1 Bit Fehler erkennen und korrigieren.
Das was du meinst, hängt mit dem Turbo zusammen.

Nein seine Erklärung geht nicht in die Richtige Richtung. Ja er hat einen paritycheck erklärt und das fälschlich sogar als ECC bezeichnet, ECC geht aber noch weiter und kann eben die Fehler in einem gewissen Maße, wie du ja auch schreibst, selbst korrigieren.

ABER wenn man sich mit dem Whitepaper, also der Quelle von der Quelle dieser News, befasst wird schnell klar, das es nicht um den Cache geht, sondern um die Pipeline. Mag sein, dass es eine Architektur gibt, bei der der Cache das schwächste Glied ist, um die geht es aber in dem Artikel nicht und der Cache dürfte sich eben wegen den ganzen Sicherheitsmechanismen weniger daran stören.

Wie gesagt aus dem Whitepaper eine Grafik, die das ganze wunderbar beschreibt
Anhang anzeigen 339591

Den rest hab ich oben schon geschrieben, aber ja das stimmt natürlich nicht, denn es hat was mit dem Cache zu tun... :stupid::wall:

Es wird so lange der Takt erhöht bis Rechenfehler entstehen und dann wieder eine Stufe zurück getaktet und die Berechnung die den Fehler hatte nochmal durchgeführt.

Das ist vollkommener Käse, der Takt ändert sich nicht und der Rechenfehler bleibt ein Rechenfehler, der entweder "nicht auffällt" bis hin zu "sich mit einem Bluescreen bemerkbar macht".
 
Schöne Theorie, wird aber wohl nicht eingesetzt. Skylake produziert zB. immer noch Fehler in Prime, wenn er zu hoch getaktet ist und das soll die Technik ja verhindern.
 
Schöne Theorie, wird aber wohl nicht eingesetzt. Skylake produziert zB. immer noch Fehler in Prime, wenn er zu hoch getaktet ist und das soll die Technik ja verhindern.
Ob es genutzt wird oder nicht kann ich dir leider auch nicht beantworten.
Allerdings ist die Erkenntnis, dass Prime Fehler macht kein Indiz das es nicht genutzt wird.
Die Fehlerkorrektur ist eben auch begrenzt*, wenn es zu viele Fehler sind steigt das System nach wie vor aus. :)

*
Bei maximal 1,4 Millionen Fehlern pro Sekunde konnte man dabei die Bilder sehr schnell nicht mehr erkennen, wenn die Fehlererkennung ausgeschaltet war. War diese jedoch aktiv, so fing der Palisades-Prozessor die Fehler ab und die finale Bilddarstellung glich jener guter Bildverarbeitungsprogrammen.
 
Schöne Theorie, wird aber wohl nicht eingesetzt. Skylake produziert zB. immer noch Fehler in Prime, wenn er zu hoch getaktet ist und das soll die Technik ja verhindern.
Ich denke mal du redest hier von Fehlern bei Betrieb außerhalb der Spezifikationen?

Also ich betreibe demnächst den 6700k mit 10 GHz, die Fehler rechnet mir der Controller schon wieder raus. :banana:
 
Zuletzt bearbeitet:
Ich denke mal du redest hier von Fehlern bei Betrieb außerhalb der Spezifikationen?

Also ich betreibe demnächst den 6700k mit 10 GHz, die Fehler rechnet mir der Controller schon wieder raus. :banana:

Ja wie komm ich nur darauf über so etwas zu reden, zum Glück geht es hier ja nicht darum, sondern um ECC im Cache und wunder Pipelines, die Fehler automatisch korrigieren...

Ich hab keine Ahnung von was ich rede und das steht auch nicht in dem WHITEPAPER von den Wissenschaftlern, auf dem diese News beruht. :stupid:


PS: der Beitrag enthält leichte Spuren von Sarkasmus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh