Inno3D präsentiert GeForce-9-Energy-Save-Edition

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.238
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="inno3d_logo" src="images/stories/logos/inno3d_logo.jpg" width="100" height="100" />Die grüne Welle reist nicht ab. So nahm nun auch <a href="http://www.inno3d.com/" target="_blank">Inno3D</a> mit seiner neuen Energy-Save-Edition insgesamt drei stromsparende Grafikkarten der <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a>-GeForce-9-Reihe in seinem Produktportfolio auf. Dank einer geringeren Kernspannung soll die Leistungsaufnahme um bis zu 60 Prozent geringer ausfallen, als bei den herkömmlichen Modellen des kalifornischen Grafikkartenherstellers. Auch auf den zusätzlichen 6-Pin-PCI-Express-Stromstecker konnte verzichtet werden. So liegt die maximale Leistungsaufnahme der GeForce 9800 GT E-Save...<p><a href="/index.php?option=com_content&view=article&id=11969&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meiner Meinung nach sind die ganzen Green-IT Produkte schön und gut, nur sollte das bald als selbstverständlich angesehen werden wenn man wirklich an der Umwelt interessiert ist...
 
stimmt, einen auf Green IT machen, und dann eine GTX295 am Markt haben !
Sind meiner Meinung nach aber auch zwei Paar Stiefel.

Gerade in den unteren Preisregionen wird das Geld verdient und heutzutage schaut der Kunde nunmal nicht nur auf Preis und Leistung, sondern häufig auch auf den Stromverbrauch. Da sind solche Karte doch ein willkommenes Fressen.

Auf der anderen Seite ist es auch gut die schnellste Grafikkarte zu verkaufen. Stichwort: "Ich kauf ne NVIDIA, weil die derzeit auch die schnellste Karte haben!" Image! :)

Gruß
:wink:
 
KFA² bietet das selbe ebenfalls in ner Green Edition an,
Laut werten wurde der Chiptakt bei diesen abgesetzt auf 550MHz von 600MHz, Shadertakt wurde von 1500MHz auf 1375MHz gesenkt,also meines erachtens verkraftbar.
Die Karten klingen wirklich sehr Interessant,wenn jemand mit den erfahrung hat oder event.
gleich zuschlägt wer ein post super,bin nemlich am überlegen mir was davon zu holen!!!

Hier habe ich die beiden gesehen:
512MB http://www.zkmediastore.net/epages/...=/Shops/61636757/Products/kfa9800gtgreenit512

1024MB http://www.zkmediastore.net/epages/...hops/61636757/Products/kfa9800gtgreenit1024mb
 
Zuletzt bearbeitet:
Stegan schrieb:
Die grüne Welle reist nicht ab.

Ein Glück, dass die grüne Welle noch ein bisschen länger bei uns Urlaub macht und ihre Abreise verschoben hat! :d

Bitte ändern ;)
 
stimmt, einen auf Green IT machen, und dann eine GTX295 am Markt haben !

Einen Ferrari fährt man nunmal nicht mit 3liter super u highendgrafikkarten kann man nun wirklich nicht auf die green it schiene schieben.


So war es u so wird es in der autoindustrie u auch in der computerbranche noch lange bleiben,solange niemand das "perpetuum mobile" erfindet in den industriezweigen:coolblue:

Ganz im gegenteil,wir können froh sein,wenn die pcie spezifikationen im highendsegment auf dem level gehalten werden können,wenn der leistungsanstieg bei den grafikkarten so weitergehen soll wie bisher:)

Green IT ist schön u gut u auch begrüßenswert,nur ist sie für den bereich,wo die 295GTX,4890 oder oder angesiedelt sind nicht realistisch
 
Zuletzt bearbeitet:
Vielleicht sollte man auf Ferrari, GTX295 & Co verzichten. Oder zumindest solange verzichten bis man diese Produkte mit der Leistungsaufnahme eines VW Polo 1.1l oder einer HD4770 anbieten kann.

Wobei ich zugeben muss hier ein wenig heuchlerisch zu sein, was Autos angeht möchte ich auch nichts unter 150PS fahren. Bei den Grafikkarten ists mir aber egal, da rüste ich meine 7900GT seit Jahren einzig aus dem Grunde nicht auf weil mir die neuen Grakas zuviel Strom verbrauchen. Versteh das einer. :fresse:
 
"Dank einer geringeren Kernspannung soll die Leistungsaufnahme um bis zu 60 Prozent geringer ausfallen"
-> Vgpu @ 0,6V? :hmm:
 
naja auf jeden fall ein schritt in die richtige Richtung.

wenn sowas für den Massenmarkt entwickelt wird etabliert es sich auch bei anderen Herstellern und Karten.

Finde es wenigstens mal rigeros durchgesetzt, konsequent.
Nicht wie in der Autoindustrie wo heutige Autos immer noch 6-8 Liter brauchen sobald sie größer als ein Polo sind...
 
Ich bin mal auf den Idle-Verbauch im Desktop/2D Mode gespannt. Mal gucken ob die Karten der ATI 4670 das Wasser reichen können.
 
Naja, wie schon erwähnt, ist ne GTX295 auf Leistung getrimmt und daher nichts für nen Büro-Rechner, der Hauptsächlich zum Briefe schreiben benutzt wird. Wer allerdings nicht spielt und den PC nur für I-Net, Bildbearbeitung und zum schreiben benutzt reicht so eine GraKa völlig aus. Ich konnte es die ganze Zeit auch nicht verstehen, dass manche Leute sich nen Disount-PC für 1000 Euronen mit ner einigermaßen großen GraKa und ner starken CPU kaufen und sich dann beschweren, dass er so viel Strom verbraucht. In den meisten Fällen tuts da auch schon einer für 600 Euro inkl. Monitor, wenn man weiß, dass man eh nicht zockt.
Wenn ich jemandem ein Sys zusammenstelle, ist die erste frage: "Was willst Du mit dem PC machen ?" - Oft kommt dann schon die Aussage:"Ich will ins Internet und die Bilder von meiner Digitalkamera ansehen können. Es sollte noch Solitair und Minesweeper laufen."
Das ist dann mein Beitrag zu "Green-IT".
 
Ich halte von diesem ganzen Umwelt Geschichen eigentlich überhaupt nix... So eine Karte ist mehr oder weniger überflüssig muss ich sagen, denn seien wir mal ehrlich, die Leute die wirklich ernsthaft zocken wollen, die werden ne größere Karte kaufen bzw. kaufen idR P/L und sehen weniger auf den Stromverbrauch.
Die Leute die nur seltenst zocken, werden durch so ein Produkt sicher nicht von ihrer jetzigen Lösung umsteigen. Und die Leute, die gar nicht zocken, sind mit ner OnBoardlösung sowieso besser bedient.

Also für wen soll die Karte gut sein? Ich sehe da keinen Sinn drin.
Das bisschen was sich allein durch die GPU sparen lässt ist derart gering, das würde über Jahre den Kaufpreis nicht rechtfertigen.


Ein nächster Punkt, ich verstehe die Entwicklung auch net so recht, einerseits schreien die Leute bei jeder Generation nach mindestens ner Verdopplung der Leistung und andererseits darf die Kiste nix verbrauchen... (ist irgendwie ein Widerspruch)

Ein nächster Punkt den viele vergessen, die Effizienz der GPUs steigt massiv mit jeder Generation. Sprich die Pro Watt Leistung steigt stark.
Klar könnte man die Entwicklung umkrempeln, aber seit mal ehrlich, würdet ihr ne Karte kaufen die die gleiche bis minimal bessere Leistung eurer alten Karte hat, aber dafür nur 3/4 des Stroms brauch? Je nach Kaufpreis der Karte müsste die neue dann schon extrem lange laufen um den Kaufpreis durch die Stromkostenersparniss wett zu machen.
 
@fdsonne: da kann ich dir in Puncto Leistung und Stromaufnahme nicht wirklich zustimmen. Es ist möglich, einen Chip zu entwicklen, der eine enorme Lesistung pro Watt hat (P4 --> C2D, Intel Atom...). Wenn aber der Kunde nicht danach verlangt, oder es zu wenig sind, wird sich der Hersteller umschauen wie er das meiste Geld ohne große, unnötige Kosten verdienen kann.
Das ganze GreenIT ist mMn nur ein Versuch der Industrie, dem Kunden mittels "Umweltschutz" und "umweltbewussten" Grafikkarten etwas zu verkaufen. Ich erinnere nur an das Thema FCKW damals. Es wurden alle Geräte "verbannt" die damit in irgendeiner Weise damit zu tun hatten. Aber wirklich beweisen konnte man nicht, dass das Ozon-Loch nur kleiner geworden ist. Im Gegenteil, man kann es heutzutage noch nicht einmal richtig messen! Genau das selbe in grün mit dem CO2...
 
Es ist möglich, einen Chip zu entwicklen, der eine enorme Lesistung pro Watt hat (P4 --> C2D, Intel Atom...).

Das war aber nur möglich weil intel nicht mehr auf die pentium architektur gesetzt hat,sondern eher eine abwandlung der alten p3 reihe mit dem core2 wieder ins leben gerufen hat.

Mit anderen worten es war ein positiver nebenefekt(glücksfall) das die leistung mit der architektur wieder viel,aber innerhalb der chip familie core2 oder auch I7 ist die leistungsaufnahme mit jeder neuen generation wieder angestiegen nicht gefallen;)

Leistung/watt hingegen hat sich mit jeder generation verbessert,aber das sieht man halt beim ersten blick auf den verbrauch nicht.

Es ist einfach schlichtweg unmöglich mit der leistungssteigerung wie bisher extrem viel strom bei jeder neuen generation einzusparen.

Und wie fdsonne schon sagte ein chip der vom verbrauch her sich 50% weniger genehmigt bei gleicher leistung wie der alte,würde nur bei wenigen die kauflust wecken;)
 
Zuletzt bearbeitet:
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Stromverbrauch ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...
 
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Stromverbrauch ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...

guck dir doch die GPUs aktuell an...
Man nehme 2900XT und setze HD4870 dagegen, macht ca. 100% Mehrleistung bei ca. 30W weniger Stromaufnahme

Gleiches zur 8800GTX zur 280/285GTX.
ebenso ca. 100% Mehrleistung bei ca. 20W mehr Leistungsaufnahme.


Also die Punkte sind nach wie vor gegeben, nur sind wir eben langsam an dem Punkt, wo die Leistungsaufnahme nicht weiter in die Höhe schreiten kann (was Dual GPU Karten betrifft)
Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)
 
@fdsonne: dazu habe ich schon was im folgenden Thread geschrieben:

http://www.hardwareluxx.de/community/showpost.php?p=11992843&postcount=434

Es hat einfach viel zu lange gedauert bis diese Entwicklungen kamen. Es ist mir schon klar, dass man so eine Technologie nicht innerhalb von 1 Monat auf den Markt bringen kann, aber zwischen der 2900XT und der HD4870/90 sind doch schon mehr als ein paar Monate vergangen. Und so viel an revolutionärer Technik ist da nicht gekommen (wie damals beim G80, die Mehrleistung war der Hammer)
 
schau dir doch einfach an, was die Vergangenheit gebracht hat.

Du bekommst mit jeder echten neuen Generation ca. 100% Mehrleistung, im Schnitt gesehen zum Vorgänger bei nem in etwa Wechsel pro Jahr.

Neben den neuen Generationen bekommst du immer mal wieder nen Refresh dazwischen geschoben.

Aber auch egal, ich weis auch gar nicht, was für Quantensprünge der G80 gemacht haben soll? Mal abgesehen, das es die erste DX10 Karte was, die Mehrleistung von der Top G71 Karte oder ner X1950XTX waren nichtmal 100%... Und sind nach wie vor keine 100% (wenn den alten Karten der Speicher nicht ausgeht)


Wir sollten aber mal wieder :btt: kommen, geht ja hier schließlich um Stromsparen und die neue Karte. ;)
 
@fdsonne: der G80 war im Vergleich zu dem G71 schon ein Monster aus leistungstechnischer Sicht...

@Topic: Stromsparen hin oder her, mMn ist es möglich selbst High-End Chips zu konstruieren, die wesentlich weniger aufnehmen als die jetzigen Grakas, aber wozu, wenn der Markt es nich aufnimmt. Und da liegt das Problem...
 
Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)

Hoffentlich nicht sonst haben wir irgendwann pcie stecker im rechner die nen durchmesser von starkstromkabeln haben und mit 20pins belegt sind:d

Ich denke allein schon die kühlung setzt den herstellern hier die magische grenze zum glück:p
 
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten

aber wir wollten ja eigentlich :btt: :fresse:

€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.
 
Zuletzt bearbeitet:
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten :fresse:

Sollen dort auch die leistung die die karte ziehen darf über den bus u die stecker selbst erhöht werden?

Ich hoffe doch nicht u es geht bei pcie 3.0 ausnahmsweisse mal nur um die bandbreite:haha:
 
Zuletzt bearbeitet:
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...

€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.

Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.
 
Zuletzt bearbeitet:
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...



Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.

die 7950GX2 ist ein Sonderfall :fresse:
ich ging bei meiner Betrachtung von der 7900GTX aus; dafür war das revolutionär!

In puncto Stromaufnahme drastisch reduzieren und dabei auch noch mehr Lesitung bereit stellen: es geht, technisch ist das für die Entwickler kein Problem (wenn sie an einer Karte 5 Jahre basteln könnten :d )
Nur wird das am Markt nicht bezahlt; also stellt sich der Hersteller auf den Markt ein, der recht kurzlebig ist. Wenn rein theoretisch jeder 2.te Kunde nach einer stromsparenden und schnellen Graka schreien würde, so wären nVidia und ATi (vllt. auch Intel) daran bemüht schnellstmöglich diesen Markt zu bedienen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh