Mal so allgemein gefragt, ab welcher Temperatur takten denn Gpu's und CPU's runter und wie teilen die das einem mit?
Da hast du zwei Arten, wenn man so will.
Einmal hast du den ganz normalen Boost, der bei immer niedrigerer Temperatur immer mehr Spannung und Takt gibt, weil ja alles im tiefgrünen Bereich ist und die Hardware mit Kälte noch etwas schneller wird. Da einen Booststep zu verlieren, bezeichnen manche schon als Runtertakten.
Dann hast du das eigentliche Temperaturlimit. Das sind dann je nach Hardware 84, 95 oder 100°C. Bei Nvidia-Karten 84°C, was aber noch auf 93°C angehoben werden kann oder konnte. Das ist dann die harte Grenze, wo die Hardware mit Gewalt die Bremse zieht und den Takt richtig reduziert, um bloß kein °C wärmer zu werden.
Dazwischen gibt es noch sozusagen eine Grauzone. Ungefähr bis 60°C ist der Einfluss der Temperatur sehr gering und man hat mit niedrigeren Temperaturen nur sehr wenige Vorteile. Die Boostschritte liegen weit auseinander und zwischen 40 und 60°C liegen vielleicht 25 MHz, die es zu gewinnen gibt. Über 60°C fällt der Takt dann aber deutlich schneller, der Sprung auf 70 sollte schon grob aus dem Kopf 50 MHz kosten, der auf 80 dann deutlich über 100. Das ist, soweit ich es für Nividia-Karten im Kopf habe.
Und dann kommt ja die Grenze, wo die Hardware mit Gewalt die Temperatur zu reduzieren versucht. Irgendwo kommt dann noch die Abschaltgrenze, wo die Hardware dann ihren Dienst einfach einstellt.
Das teilt einem die Hardware übrigens gar nicht direkt mit, höchstens mit einem Treibercrash bei Grafikkarten. Man selbst wird es aber merken, weil die Leistung dann ordentlich einbricht. Der Unterschied zwischen 5 und 0,8 GHz ist eben doch spürbar. Sonst erfährt man natürlich vom Überwachungsprogramm seiner Wahl davon.