Stromfresser Grafikkarte

man man piefke, du scheinst ein echtes problem zu haben! Ich bin nicht gefrustet, ich habe jetzt mien Abi in der Tasche und habe noch mein Leben vor mir. Guck dich doch einfach nur mal an und mache dir jetzt endlich mal Gedanken darüber was gleich kommt:
warum haben wir hier in Deutschland solche Unmengen an "Sozialkosten"? Weil es nicht nur einen sondern tausende von Piefkes gibt, die sich sagen.... na den rest kannst du dir ja schon denken, kennst dich ja hoffentlich selber gut genug!

also, fazit das du daraus ziehen solltest: wenn du Frust hast, such nicht das Forum hier auf und schreib so einen Mist hier hinein. Es gibt doch auch tausende schöne andere Sachen, z.B. Sport...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

lasst doch mal das kindische Gezanke, hier gehts um den Stromverbrauch von Grakas und nich wer wie alt ist und wann was arbeitet. Auch wenn Piefke nicht unbedingt mit den geistreichsten Posts zu Werke geht muss hier nicht bei jeder Gelegenheit auf ihm rumgehackt werden. Immerhin versucht er etwas passendes beizutragen.

@topic

Ich bin wie viele andere der Meinung das ein sparsamer 2D Modus viel ausmachen würde bei geringem technischem Aufwand.

grüsse Peter
 
es ist ja technisch möglich, das sieht man ja bei den notebooks. Aber warum gehen nv und AMD denn nicht den gleichen weg bei den desktop produkten. Dass muss doch irgendjemandem einen Nutzen verschaffen...?
 
Ich glaube das da tut sich jetzt etwas bezüglich sparsame Graka, denke die HD 2600 wird diese Richtung gehen, allerdings angeblich nur 128 bit Auflösung zwar sagt mir das nichts was für nachteil dadurch man bekommt, soweit bin ich noch nicht aufgeklärt.:rolleyes:
 
Ich würds begrüßen wenn man quasi onboard grafik mit einer grafikkarte koppeln könnte bei Windows arbeiten (surfen/office/filme) reicht ja eine onboard lösung völlig aus und bei 3d oder rendern sollte sich dann die grafikkarte selbsttändig einschalten das problem wird einfach nur sein einen gemeinsamen standard zu finden und es software/hardware mäßig so umzusetzen das es auch funktioniert bei all möglichen grafik/mainboard herstellern da ja jeder hersteller gern sein eigenes süppchen kocht. Die technische umsetzung wäre sicher derzeit problemlos möglich aber ich denke hardware hersteller haben angst vor dem schritt weil es nicht 100% immer funktionieren könnte und man damit nur schlechte kritik bekommt wenn sich die "neue 500€" graka garnicht einschaltet
 
Zuletzt bearbeitet:
IDie technische umsetzung wäre sicher derzeit problemlos möglich aber ich denke hardware hersteller haben angst vor dem schritt weil es nicht 100% immer funktionieren könnte und man damit nur schlechte kritik bekommt wenn sich die "neue 500€" graka garnicht einschaltet

wo ist denn da bitte die Innovation?

Gab es alles schon mit 3DFX & Co. Aber wahrscheinl. habt ihr ein schlechtes Gedächtnis.

Ausserdem möchte ich möglichst wenig Komponenten, den je mehr Teile, desto mehr Treiber und leider unter Windows desto mehr Probleme!
 
wo ist denn da bitte die Innovation?

Gab es alles schon mit 3DFX & Co. Aber wahrscheinl. habt ihr ein schlechtes Gedächtnis.

Ausserdem möchte ich möglichst wenig Komponenten, den je mehr Teile, desto mehr Treiber und leider unter Windows desto mehr Probleme!
Hab ich ihrgendwas von Innovation geschrieben :hail: ? Mich würds jedenfalls nicht stören wenn Mainboards eine art 2D karte drauf hätten für den idle betrieb wer es nicht brauch kanns ja ausschalten. Und ich wuste bisher nicht das 3dfx mainboards mit grafikchips ausgestattet hatte die mit ihrgen vodoo karten zusammen liefen bzw sich ergänzten :wink: !
 
Mal eine andere Sache dazu:

Warum schlucken die Karten noch im 2D Betrieb so viel?

Ich sag euch mal, wie man das ganze enorm ändern könnte.

1. Auf 45nm umstellen
2. Dynamische Taktungsfunktion > Daraus resultiert, dass die Grafikkarte im Desktop Betrieb z.b. auf das absolute Minimum runtergetaktet wird.
3. Intelligente Taktungsfunktion in Games: Wenn ich z.b. ein altes Spiel spiele, welches keine großen Anforderungen mehr hat, taktet die Grafikkarte ingame enorm runter so das es framemäßig immer flüssig ist aber vom Takt immer weit unten...
4. Und eine solche Technologie auch bei modernen Games & 3D Anwendungen.

Dann wären Grafikkarten wesentlich effektiver.
 
Zuletzt bearbeitet:
Is ja echt die Arschkarte.....

wenn man denn ma aufn Zocker PC ne Hausarbeit schreibt
so 10 Tage a 6 Stunden, das is so als wenn du aufm Klo
60h ne 100Watt Glühbirne anläßt......und keiner sitzt drauf....völlig umsonst....

Da lohnt es sich gebraucht ne 6200 TC reinzustecken und wenn ZockerWochenende ist umzubauen......
 
toll, und nach 10.000 mal umbauen muss man feststellen, dass die Goldbeschichtug auf der Karte und die Kontakte im PCIe-Slot total abgenutzt sind und gar kein Kontakt mehr da ist. Das ist doch auf Dauer auch keine Lösung! Ich kann mir gar nicht vorstellen dass die Hersteller damit solche probs hätten, wenn die in die GPU so ein art standby integrieren würden, so dass sich z.B. bei der 8800er serie paar Teile deaktivieren und bei bedarf reaktiviert werden. Möglich wäre es...
 
Ich verstehe immernoch nicht, warum die modernen ATI / NVIDIA Karten nicht einfach im 2D Betrieb die Spannung und den Takt drastisch senken.

Bei 2D Anwendungen braucht eh keiner eine schnelle Graka also kann die auch ordentlich runtertakten.

Die AMD/Intel Prozessoren können doch auch im Desktop Betrieb schön die Spannung senken und runtertakten... Warum klappts bei den Grakas nicht?
 
toll, und nach 10.000 mal umbauen muss man feststellen, dass die Goldbeschichtug auf der Karte und die Kontakte im PCIe-Slot total abgenutzt sind und gar kein Kontakt mehr da ist. Das ist doch auf Dauer auch keine Lösung! Ich kann mir gar nicht vorstellen dass die Hersteller damit solche probs hätten, wenn die in die GPU so ein art standby integrieren würden, so dass sich z.B. bei der 8800er serie paar Teile deaktivieren und bei bedarf reaktiviert werden. Möglich wäre es...

naja 100.000 umbauen....da lohnt ja fast ein stromsparendes Zweitsystem zum Surfen und Office.......für 100watt wenigerverbrauch

kann man nicht die Karte auch untertackten und undervolten?
 
Die AMD/Intel Prozessoren können doch auch im Desktop Betrieb schön die Spannung senken und runtertakten... Warum klappts bei den Grakas nicht?

Warum hat z. B. der zukünftige Mobil-Penryn bessere Powerstates, wie Deeper sleep, und die Möglichkeit, komplette Kerne abzuschalten, wenn sie nicht gebraucht werden, der Desktop-Prozesser nicht?

Warum können mobile Grafikkarten sich weiter runtertakten und PCIe-Lanes abschalten, wenn sie nicht gebraucht werden und Desktop-Karten nicht?

Warum kann man z. B. bei der 8800er nicht einfach Shader-Einheiten abschalten. wenn man sie nicht braucht?

Ganz einfach: Der Aufwand ist relativ hoch und die Managementeingriffe komplizert. Warum Geld für etwas ausgeben, das die Mehrheit der PC-Nutzer nicht wirklich interessiert?
Ich hab letztens in einem Mac-Forum gelesen, das dort ein paar Leute ihren Mac mal ausgeschaltet haben, anstatt ihn wie sonst auch einfach im Standby laufen zu lassen... Und ihr redet hier über Grafikkarten... Macs sind immer an. Und das finden alle gut, nein mit Leopard und dem Lan-über-Internet-Feature ist es sogar Pflicht.
 
was soll den da kompliziert sein? verstehe ich irgendwie nicht! wenn die das bei den mobile serien können, dann geht das genauso bei desktop varianten.
 
Is ja echt die Arschkarte.....
wenn man denn ma aufn Zocker PC ne Hausarbeit schreibt
so 10 Tage a 6 Stunden, das is so als wenn du aufm Klo
60h ne 100Watt Glühbirne anläßt......und keiner sitzt drauf....völlig umsonst....

Da lohnt es sich gebraucht ne 6200 TC reinzustecken und wenn ZockerWochenende ist umzubauen......




Kann Dir da nur Recht geben, wobei in meinem Fall die 6800er einfach rausfliegen und dann durch ne 6200er ersetzt würde.
Bin echt am überlegen, ob in meinem Fileserver wirklich ne 6800 GT (zwar 2D nur @200/400 MHz) die ich noch übrig hatte laufen muß, oder ob es net auch z.B. ne billig 6200 oder so sein kann?!? Das geht ja richtig ins Geld! :shake:
... vorallem, wenn man es selbst bezahlen muß! :(
 
Zuletzt bearbeitet:
Macs sind immer an. Und das finden alle gut
ach geh... im apple-land entwickelt sich doch gerade erst einmal so etwas wie umweltbewusstsein. aber es wird schnell gehen und ich bin mir fast sicher, dass die macianer schon rasch das stromsparen lernen.

das gilt aber auch für den pc: effektive stromspartechniken sind für sämtliche pc-komponenten längst verfügbar. die preisfrage wird hier wie anderswo über nachfrage beantwortet werden. das thema nachhaltige energiewirtschaft hat über die co2-debatte neuen auftrieb erhalten. nicht zuletzt haben es die wichtigsten absatzmärkte asien und usa für sich entdeckt. wir werden deshalb nächstens auch vermehrt "grüne" pc-bauteile sehen.
 
Zuletzt bearbeitet:
würde mal interessieren ob man die x1950xt untervolten kann??
 
man kann so ziemlich jede graka undervolten, ist nur eine Frage in wie weit und wo das absolute minimum ist. kann man aber sehr leicht selbst aus probieren
 
Ist doch TOP: Wenn du als Gamer 24/7 365/Y zockst, lebst du eh nicht lange genug um Pleite zu gehen. :lol: Sollen ja ein Paar Asiaten schon getestet haben.

Lächerliches Thema(bzw. die Aufmachung). Ist ja schön und gut, dass die extremsten Boliden inzwischen über 250W ziehen, aber wer bitte betreibt die denn 24 Stunden am Tag mit Vollast. Selbst die anderen Werte sind auf's ganze Jahr gerechnet wohl übertrieben. Schließlich gibt's noch Urlaubsreisen usw. usw...
Ausserdem: Wer 500,-EUR oder dergleichen für die Karte ausgibt, den juckt's normalerweise auch ned, wenn er in 2 Jahren (da hat er eh schon lange wieder ne neue Karte) den kompletten Kaufpreis an Stromkosten braucht.

Man kann wirklich jedes Thema aufbauschen, wenn man sich nur genug anstrengt. Ich hab ja nix dagegen, dass man das Thema behandelt, aber dieses Bildzeitungsberichtersattung. Nee.

Nivea mit "u" müsste man halt haben.
Ein bisschen weniger reisserisch und dafür etwas realitätsnaher getestet, hätte schon geholfen.
 
seit die neusten energiepreise offiziell sind, ist mein rechner viel öfter im standby als vorher :p zum glück gibts diese funktion!
 
am besten für den inet bedarf (da der bei mir fast 24/7 auf dem netz ist) ein mobil prozzi und ne sparsame graka, der dürfte bestimmt sehr wenig verbrauchen
 
was soll den da kompliziert sein? verstehe ich irgendwie nicht! wenn die das bei den mobile serien können, dann geht das genauso bei desktop varianten.

Weil die gesamte PC-Infrastruktur das Feature unterstützen muss, damit es was bringt. Grafikkartenintern sollten bei der Shaderabschaltung die zugehörigen PWMs mit abgeschaltet werden, dann Teile des Speichers und aufwachen müssen sie ja auch wieder können. Wenn es nun an die PCIe-Lanes geht, reicht es ja nicht, daß die Grafikkarte was sagt, der Chipsatz muss zuhören.
Ganz zu schweigen von der notwendigen Treiberunterstützung für ALLE zusammenspielenden Komponenten.

Ein Notebook ist immernoch ein recht einfach zu kontrollierendes System, da ändert sich so schnell nichts und oft kommen die Treiber vom Hersteller des NB, die speziell angepasst wurden.

Für den Desktop ginge das auch, aber dann würden die ganzen Aldi-PCs 100€ teurer, was dann wiederum dazu führt, das keiner kauft.

Desweiteren sehe ich das so wie celemine1Gig: Highend soll Leistung bringen, aber nichts verbrauchen dürfen? Mein PC verbraucht weniger Strom als meine Espressomaschine und die ist auch immer an. Entweder man will das Eine oder das Andere. Nice to have sind die Stromsparsachen aber dennoch.
 
Desweiteren sehe ich das so wie celemine1Gig: Highend soll Leistung bringen, aber nichts verbrauchen dürfen?

Warum bauen die Automobilhersteller 12 Zyl. die im Teillastbereich 6 Zyl. abschalten ? Warum sollen Highendkarten im 2D Bereich nicht einfach auf Minimum laufen? Vollen Takt braucht niemand im 2d Bereich in dem Fall.

Ja, auch ich goenne mir techn. Spielerein, die einfach nur Luxus sind. Mein Kaffeevollautomat macht ueber 2KW, Heimkino, automatische Steuerung der Klimaanlage, PCs mit 8800HTX usw, aber irgendwann habe ich keine Lust mehr ueber 200 Euro/Monat zu zahlen, bei Abrechnung alle 2 Monate, nur weil Energiekonzerne der Meinung sind, die Bürger weiter abzuzocken. Und wenn ich sehe, wieviele Stunden mein PC am Tag im 2d laeuft und wieviel im 3d...
 
Zuletzt bearbeitet:
OMG, wenn ich mir überlege das früher immer ein 300W Deckenfluter beim zoggen an war, der hat mehr verbraucht als mein ganzer Rechner

Ein Glück hab ich den Abgeschafft.

Und wenn ich auf den Fön meiner Freundin schaue, da wird mir richtig schlecht .. 1500W .. sie hat blonde Haare bis zum Arsch ... da kann ich ja stundenlang zoggen bis ich sie eingehohlt habe mitm Verbrauch...
Mein Staubsauger schluckt übrigens auch 1000W, das Waffeleisen und den Herd ... keine Ahnung, aber der Durchlauferhitzer hat sogar 15KW (!). Vielleicht sollte ich doch nicht mehr jeden Tag zwei mal baden.


Ich würd mich wirklich erst mal um die großen Stromfresser kümmern, und dann die kleineren angehen.
Aber ich wundere mich wirklich... da sitzen die ganzen Hardware-Cracks zusammen, überlegen ob sie jetzt ein 600Watt-Netzteil oder ein 1KW-Kraftwerk einbauen und wundern sich dann über die Stromrechnung? DAS kanns ja nun wirklich nicht sein.
Zitat aus dem Forum "Nö, ich nehme lieber 700W, dann bin ich gerüstet für die Zukunft, könnte ja sein das ich mir mal SLI anschaffe"
 
Zuletzt bearbeitet:
oh nein! wenn man eine 40w glühbirne 24h/365d brennen läßt, so verursacht diese kosten von 70euro jährlich!! thg hat mir die augen geöffnet und ich werde sämtliche elektronischen geräte von der stromversorgung kappen. wasser werde ich auch nicht mehr aus dem wasserhahn beziehen sondern aus dem naheliegenden freibad.

in der tat gibt es im haushalt viele möglichkeiten strom zu sparen. geräte auf stand-by oder besser komplett ausschalten, alte stromfressende durch sparsamere neue geräte ersetzen, stromsparlampen die wirklich nur da brennen wo und mit welcher leistung (über dimmer) man sie braucht etc.

ein normaler high-end rechner fällt da nicht sonderlich aus dem rahmen bei normaler benutzung (beispiel: 180w idle, 300w last bei 8h laufzeit pro tag, davon 6h idle und 2h volllast macht 122€ jährlich bei 20cent/mW/h).
die g80 karten lassen sich übrigens bequem und automatisiert über den rivatuner runtertakten im 2d betrieb und verbrauchen gleich ein paar watt weniger dadurch.
Hinzugefügter Post:
Ich würd mich wirklich erst mal um die großen Stromfresser kümmern, und dann die kleineren angehen.
Aber ich wundere mich wirklich... da sitzen die ganzen Hardware-Cracks zusammen, überlegen ob sie jetzt ein 600Watt-Netzteil oder ein 1KW-Kraftwerk einbauen und wundern sich dann über die Stromrechnung? DAS kanns ja nun wirklich nicht sein.
Zitat aus dem Forum "Nö, ich nehme lieber 700W, dann bin ich gerüstet für die Zukunft, könnte ja sein das ich mir mal SLI anschaffe"

wichtiger als die "richtige" wattzahl ist ein guter wirkungsgrad. ein lc power wird mehr saft aus der steckdose ziehen als ein 80+ 1kw nt.
 
Zuletzt bearbeitet:
srry wenns ein bisschen OT ist und nicht ganz so zum Thema gehört, aber sinkt eigentlich der Wirkungsgrad umso mehr ich das NT belaste, oder bleibt der bis zu einem geweissen Grad konstant? Das würde bie mir heissen, dass mein 420W NT tatsächlich nur die 420W als Spitzenleistung hat und dann auch nur ein Wirkungsgrad von 50-60% in diesem Bereich und sonst mit 380 -390W arbeitet...?
 
Normalerweise haben die Netzteile ihren besten Wirkungsgrad im Volllast-Bereich. Darunter werden sie schlechter. Deshalb ist es ja so behämmert sich ein 1KW Netzteil in den Rechner zu zimmern, wenn der nur 200Watt aus der Dose zieht.
 
also ehrlichgesagt wenn ich mir den arbeitsmarkt in deutschland so angucke ob abi hin oder abi her kannste es dir klein einrollen und .........

lese hier mit genuss 3 seiten lang wo ihr alle über den hardwarekenner herzieht und er trotz ettlicher unverschämtheiten die ruhe bewahrt.

soviel zum thema intelligenzallergiker.
 
Hi,

habe gestern versucht das Bios meiner 7900GT zu verändern, sodass im Idle Modus nur 0,8Volt an der GPU anliegen. Mit NiBitor war die Veränderung im Bios kein Problem, aber leider musste ich feststellen, das die Grafikkarte gelockt ist.
Warum stellen die Grafikkarten Hersteller das nicht schon von Werk ein, sodass die Grafikkarte im Idle Modus mit viel weniger Spannung betrieben wird?

Wenn ich die GPU im IDLE von 450MHz auf 250MHZ und den RAM von 1320MHz auf 800MHz senke, ist die Verlustleistung dann geringer?

mfg Bangie
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh