naja, das iss zu einem gewissen ausmaß der sogenannte "CYA"-Faktor, der Cover-Your-Ass Faktor. nVidia übertreibt maßlos mit ihren empfehlungen damit man sie nicht verklagen kann.
Außerdem hängts vom netzteil ab. ein gutes 350W netzteil was halt mal seine 22A aufm 12V liefert, der liefert die auch sicher und beständigt und reicht allemal für fast jede karte, auch für eine 8800GTS.
Betrachtet man andererseits ein noname crap 550w netzteil das für seine 12V line 24A angibt, aber diese nur bei zimmertemperatur liefern kann. sobald das netzteil dank 200W stromkonversion auf 40 grad aufheizt sinkt die leistung von den angegebenen 24x12=288W auf was weiß ich nur noch 150W.
Auch wenn solche Sachen nicht in der Schuld von nVidia liegen müssen sie so etwas dennoch berücksichtigen, da nicht jeder kunde so genau weiß ob sein netzteil wirklich hergibt was es behauptet.
Das andere ist, CPU.
Die von nVidia für die 7600GT empfohlenen 20A belaufen sich ja auf 240W.
Jedoch verbraucht die 7600GT gerade mal
36 Watt unter voller last.
Wofür sind dann die restlichen 204Watt? Naja einerseits eben sicherheit, andererseits auch CPU-puffer.
Der (meines erachtens) heißeste CPU aller zeiten ist die 8er serie des Pentium D, die bei voller last
150W(!!) ziehen. (
Quelle)
Somit haben wir bereits 186W und sind damit schon ziemlich nah an den 240W auf der 12V schiene.
Aber da ich sehe dass du keine tragbare heizung (830D) hast, sondern ein kühler Core2Duo, wie auch die meisten die sich eine schnelle grafikkarte kaufen wollen, müssen wir mit anderen zahlen rechnen.
Die e6300 zieht bei last gerade mal
44 Watt, übertaktet vll n paar watt mehr.
44W+36W = 80W
80W / 12V = ~7A
Plus noch n bissl verbrauch für motherboard, noch n bissl mehr für hdds, müssten dir eigentlich 10 oder 12 Ampere auf der 12V schiene LOCKER reichen für ne 7600GT+E6300.
Klar, die 8600 wird n bissl heißer, aber trotzdem wohl weit entfernt von den 150W die es bräuchte um deine 20A Schiene zu saturieren.
Ich hoffe das war erleuchtend