@Igor THG Über welche Größenordnungen sprechen wir denn hier? Angenommen, du misst einmal die mittlere Leistungsaufnahme mit 250ms und einmal mit 1ms. In welchem Bereich variiert das? Das muss ja schon bei über 5% liegen, damit man überaupt anfangen kann zu meckern!?
Selbst eine ms ist bei diesen Sensoren eigentlich schon zu hoch. Wobei man jetzt trennen muss. Das, was man vom Sensor bekommt, ist eine Momentaufnahme, kein wirklicher Durchschnittswert. Trifft man zufällig in den Intervallen immer nur auf Extreme in einer Richtung hin, kann das extrem aweichen und man weiß nie, wie. Da sind wir schon im zweistelligen Prozentbereich. Was bekommt man denn? Nvidia nutzt Monitoring-Chips, um die 12V-Rails zu überwachen. Aus dem Spannungsabfall an den Shunts erreichnet die Firmware die jeweiligen Samples. Allerdings sind das keine wirklich Durchschnittswerte, weil dort eh nichts synchronisiert wird. Man setzt hier meist auf Momentwerte, weil es zur Einhaltung der Power Limits dient und kein Average abbildet. Das pasiert in der Firmware und kann nicht real-time ausgelesen werden.
@def
Die 20 Watt für Navi sind grundfalsch und das weißt Du sicher auch. Ich halte das echt für eine Irreführung, sorry. Denn die Gläubigkeit der Anwender in solche Tools ist erschreckend. Damit wirst Du die ganzen Diskussionen nur noch anfeuern anstelle zu klären. Allein die Lüfter können bis zu 16 Watt vernaschen, wenn sie mal voll drehen, im Schnitt sind es aber meist zwischen 7 und 10 Watt bei Last. Den Speicher und das restliche Gebammel zu schätzen ist sehr grob möglich - aber nur anhand von Modellklassen.
Und dann ist das, was als GPU-Power ausgelesen wird, u.U. auch sehr zweideutig. Hat man echte Smart Power Stages und somit eine saubere MOSFET DCR, mag das für VDDCR_GFX noch recht genau und zeitnah hinkommen. Einfachere Boards setzen aber nur auf Inductor DCR, also eine Kalkulation der Ströme über den (auch sehr temperaturabhängigen) induktiven Widerstand der Glättungsspulen. Allein deren Toleranzbereiche bei der Induktivität sind mir ein Graus. Und Du bekommst nur den Wert für VDDCR_GFX, der SoC bleibt außen vor, VDDCI auch (hier geht auch ein Teil für den Memory-Controller drüber), MVDD kannst Du nur schätzen, VPP ist zu vernachlässigen, aber die restlichen Teilspannungen summieren sich auch auf ein paar Watt. Das ist NIE konstant. Ich habe all diese Diskussionen mit TPU hinter mir und es ist nur folgerichtig, dass sie dort solche Spielereien wie pauschale Schätzungen generell ablehnen. Auf vielen Karten sind noch ARM-Chips drauf (aRGB Steuerung, M-BIOS), ggf. eine individuelle Lüftersteuerung und sonstige Verbraucher.
Der Nvidia-Wert stimmt auch nicht ganz - hier sind es im Mittel um die 2-5%, je nachdem, ob Boardhersteller tricksen. Nicht nur MSI kann mit gewissen Kniffen locker 280 Watt nuckeln lassen, auch wenn die Firmware eigentlich ein Limit von 250 Watt setzt. Das sind, rechne selbst, über 10% Differenz, die das Tool leider verschweigt.
Wenn man sich auf dieses sehr dünne Eis begibt, sollten die Werte auch stimmen. Mit Demoskopie kommt man leider nicht weit, so schön das auch wäre