Beim übertakten kommt halt die Spannung mit drauf...
Je nach GPU zumindest. Das ist sehr gut zu beobachten bei CPUs, denn da bist du mit den Spannungen idR deutlich freizügiger. Da gibts auch diverse Diagramme zur Verbrauchssteigerungen durch CPU OC, wo sich das gut beobachten lässt. GPUs verhalten sich sozusagen quasi analog, nur das du die Spannung häufig gar nicht so einfach drehen kannst.
Bei der 780 zur 780TI ist es halt so, das der Verbrauch mit dem Takt 1:1 steigt, die Spannung aber ähnlich ist. Die 780TI hat glaube ich minimal mehr vGPU Spannung auf der Uhr. Deswegen kommt auch der Mehrverbrauch. Der absolute Unterschied zwischen den beiden Karten durch die mehr Ausführungseinheiten sollte aber eher gering ausfallen. Normal gilt, um so breiter die Chips, desto effizienter das ganze. Also hoher Takt und hohe Spannung bei schmalem Chip ist häufiger ineffizienter als breiter Chip mit weniger Takt und gleicher Leistung. Die 780TI ist sozusagen auch effizienter bei gleicher Leistung wie die 780 non TI. Nur kostet halt der Performanceboost aufgrund des mehr Taktes, des höheren Speichertaktes und auch der minimalen mehr vGPU Spannung ne ganze Ecke mehr Verbrauch.
Bei der 780TI hast du es halt aktuell so, wenn du ein Ref. Bios nimmst, stehen da "quasi" fixe 1,187V Lastspannung. Damit kannst du das Ding OCen... Bei mir geht das bis ~1220-1230MHz stabil. Teils auch mehr... Aber leider wird die Karte vom Powertarget gedeckelt, und dann kann es dir passieren, das das gute Stück einfach mal den Takt oben hält, die Lastspannung aber bis zu 1,050V runter dropt.
Wenn du hingegen untertakten würdest (was quasi keiner macht), die Spannung aber gleich bleibt, dann gewinnst du ziemlich genau 1:1 weniger Verbrauch mit dem sinkenden Takt auf der GPU.
@Berni_ATI
weniger Verbrauch oder allgemein gesteigerte Effizienz bei gleicher oder ähnlicher Leistung wirkt sich ja nicht nur im Geldbeutel aus. Den meisten dürfte das wohl ziemlich egal sein, ob da 200W oder 250W stehen bei den Kartenpreisen, wo wir aktuell sind.
Interessant wird das Ganze dann viel eher bei der notwendigen Kühlleistung und auch bei Lautstärke und OC Potential
Wer schonmal ne anständig übertaktete Fermi GPU sein eigen nannte, der weis, das sich einfach mal 300W+ deutlich beschissener betreiben lassen als nur 200W oder gar nur 150W...
Ich hatte den Schritt ja schon durch. Zwei GF100 Chips als GTXen 470 mit anständig erhöhter vGPU Spannung nebst Takt im SLI. Das war im Endeffekt ca. die Spieleleistung einer GTX 680, wenn SLI wirklich gut skalierte, etwas über dieser. Aber die 680er säuft hingegen keine 600W+ sondern nur ein Drittel davon
Und das merkst du ziemlich enorm in Sachen Raumtemperatur, Lautstärke und notwendigem Kühlaufwand... Ich kenne Innenraumtemperaturen von 40°C und da macht das Spielen dann einfach keinen Spaß mehr. GPU Temps von 105-110°C auf den Fermis waren auch möglich.
GK110 ist da schon eher wieder etwas Fermi like. Wenn auch nicht ganz so schlimm. Per default deckelt dir GK110 bei 265W mit PT von 106%. Mehr ist halt einfach nicht. Aber selbst diese 265W heizen schon eine ganze Menge mehr als die einer bis ans Limit getriebenen 680er, die dann real irgendwo bei vllt 200-210W steht.