Bud Spencer
Enthusiast
- Mitglied seit
- 04.03.2006
- Beiträge
- 1.831
LokiKater schrieb:ich hoffe es wird nie dazu kommen das die grakas extra strom brauchen.
die cpus werden doch auch immer besser und stromsparender. wieso schaffen es die hersteller nicht auch bei gpus? das verstehe ich nicht!
mfg
Edit: (Etwas falsche Aussage, siehe daher etwas unten. Gespräch ist zwischen Golem.de und ATI verlaufen und es ist nichts über abschaltbare Kerne gesagt worden)
Es gab ein Gespräch von TomsHardware mit ATI. Da wurde diese Thematik auch erwähnt.
ATI äußerte sich, dass für den Nachfolger vom R600 geplant ist, dass stromsparende Techniken eingeführt werden (z.B. Ausschalten von bestimmten Regionen des Chips). Warum erst so spät? Vermutlich, weil die Hersteller nicht bedacht haben, dass ein hoher Stromverbrauch die Leute ggf. vom Kauf von Hardware abschrecken.
Dies ist aber natürlich nicht der einzige, denkbare Grund, warum die Hersteller auf einmal auf dem Stromspar-Tripp sind:
Denn vllt. würden die Regierung auch ein Wörtchen mitreden, wenn der Stromhunger wächst: Z.B. werden die Autohersteller gezwungen umweltfreundlichere Motoren zu schaffen und müssen mitziehen, auch wenn sie sich sträuben. Denn sonst können sie sich einen anderen Absatzmarkt suchen. Wenn nun der Stromhunger von Hardware zu groß wird, könnte es ähnliche Folgen haben. Denn die Hardware wird schließlich auch an riesige Rechenzentren verkauft. Und 50 Watt mehr bedeutet bei dieser Masse viel Verbrauch von Strom.
Ein bedeutender Grund ist auch die Kostenfrage. Gerade Google & Co. mit riesigen Rechenzentren würden sich über stromsparende Hardware sehr freuen.
Night<eye> schrieb:hmm @ spencer dein post hat in mir einen gedanken geweckt der mir sorgen macht.
wäre es möglich das der G80 mit nur einem strom anschluss kommt aber über das mitgelieferte NT zb 100W über diesen einen anschluss zieht ? weil dann wäre die möglichkeit mit seinem NT zb 2 x pci e stecker anzuschließen nicht gegeben, wäre echt scheiße wenn dies so währe...
Anarchy schrieb:So genaue überlegungen aufbauend auf gerüchten sind zur zeit sinnlos ...
Ich bin leider nicht einer der Ingenieure dieser Grafikchips Keine Ahnung, sry...
Man kann nur Gedankenspiele zur Zeit machen... Denn möglich wäre Vieles.
Zuletzt bearbeitet: