Nvidia GeForce 260 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
Mal so eine Frage: Werden beim Stromsparmodus von nvidia auch Teile vom Chip deaktiviert oder die Spannung vom RAM gesenkt oder wird hier nur die GPU-Spannung und die Taktfrequenzen gesenkt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meines Wissens nach nur die Spannungen und Takte. Bei ATI ist es anders darum auch noch die Probleme mit dem PP , das ist neuland für die Jungs. Ich denke das wollte Nvidia vermeiden und lieber erstmal nen funktionierenden Stromsparmodus bringen eh sie sich auf Experimente einlassen. Ist ja bei ATI pauschal erstmal in die Hose gegangen.
 
Jetzt wäre noch interessant zu wissen, in welchem Betriebsmodus die Karte steckt, wenn zwei Monitore angeklemmt sind: 3D oder Extra? Wenns ersteres ist, dann kann man da ja leicht mit einem BIOSFlash auf 1,03V nachhelfen, der Takt sollte da noch keine Probleme machen.

@stiffmaster: Kannst du mal im HW-monitor vom RT nachschauen, was für eine Spannung bei dir anliegt (oder hattest du bei deinem Flashvorgang alle auf 1,06V gesetzt)?
 
Das mit dem funktionierenden Stromsparmodus bei nV ist auch so eine Sache ...
 
Meines Wissens nach nur die Spannungen und Takte. Bei ATI ist es anders darum auch noch die Probleme mit dem PP , das ist neuland für die Jungs. Ich denke das wollte Nvidia vermeiden und lieber erstmal nen funktionierenden Stromsparmodus bringen eh sie sich auf Experimente einlassen. Ist ja bei ATI pauschal erstmal in die Hose gegangen.

Dann sollte die das auch mal tun. Kann mir echt keiner erzählen das die Nasen beim Testen nicht auch mal 2 Monitore rangehängt haben :motz:

Man ist als User/Verbraucher nur noch ein Beta tester, ob es bei HW oder bei SW ist :wall:

Jetzt wäre noch interessant zu wissen, in welchem Betriebsmodus die Karte steckt, wenn zwei Monitore angeklemmt sind: 3D oder Extra? Wenns ersteres ist, dann kann man da ja leicht mit einem BIOSFlash auf 1,03V nachhelfen, der Takt sollte da noch keine Probleme machen.

@stiffmaster: Kannst du mal im HW-monitor vom RT nachschauen, was für eine Spannung bei dir anliegt (oder hattest du bei deinem Flashvorgang alle auf 1,06V gesetzt)?

Das ist ne gut Idee, und ich freue mich das du mir so hilfst, oder ihr :wink: Aber mal im Ernst, meinst du das 0.03 Volt 30 Grad im Idle ausmachen???
Wenn der Wechsel von 1.12 auf 1.06 schon "nur"10 Grad bringt, kann das gar nicht gehen. Ja ich hab alles auf 1.06 stehen...

Der aber i.d.R. gut funktioniert. Zu ATI sinds immer noch 15-30 Watt weniger. Und das ist schon eine Menge. Gäbe es diese Diskrepanz nicht hätte ich mir wohl eine ATI geholt.

Ausnahmen bestätigen die Regel :(
 
Bei der 4870 muss man halt selbst Hand anlegen, dann wird die genauso sparsam wie ne GTX, zumindest im Desktopbetrieb unter Last sieht es mit GTX260 BIOS-Mod sogar sehr duster aus für die 4870.

Das ist ne gut Idee, und ich freue mich das du mir so hilfst, oder ihr :wink: Aber mal im Ernst, meinst du das 0.03 Volt 30 Grad im Idle ausmachen???
Wenn der Wechsel von 1.12 auf 1.06 schon "nur"10 Grad bringt, kann das gar nicht gehen. Ja ich hab alles auf 1.06 stehen...

Das ist ein Argument, deswegen bin ich ja auch mal gespannt, wie die Temps bei dir aussehen, wenn du nur einen Monitor anklemmst.
 
Zuletzt bearbeitet:
Bei der 4870 muss man halt selbst Hand anlegen, dann wird die genauso sparsam wie ne GTX, zumindest im Desktopbetrieb unter Last sieht es mit GTX260 BIOS-Mod sogar sehr duster aus für die 4870.


Das ist so nicht mehr richtig ;) Sapphire ist der erste Hersteller der jetzt ein Bios gebracht was die Spannungsänderungen im Bios zu lässt. Du User sind schon fleißig am basteln und es sieht gut aus. :)
 
stiffmaster wenn ich du wäre,würde ich die karte einschicken,entweder ne ati holen+guten lüfter,oder ne neue gtx 260 weil damit schließt du wenigstens aus das es an deiner karte liegt
 
Können tut man immer, aber sieht so die optimale Lösung aus? Nein danke.

Natürlich nicht, aber die GTX ist ja auch nicht unbedingt sparsam, das wird sie ansatzweise, wenn auch hier selber Hand anlegt. Vielleicht sollten sich ATI und nvidia zusammen tun und eine RadeonForce GTX HD4711 entwickeln und Vorteile von beiden integrieren und die Nachteil über Board werfen. Natürlich darf die Karte nicht mehr als 200€ kosten.
 
hatt nich letztes einer hier geschrieben das die neuen kühler für die gtx 200 serie diesen mon kommen sollen?
 
Das ist so nicht mehr richtig ;) Sapphire ist der erste Hersteller der jetzt ein Bios gebracht was die Spannungsänderungen im Bios zu lässt. Du User sind schon fleißig am basteln und es sieht gut aus. :)

Für die 4870? Bei der 4850 gings doch auch schon vorher.

Das heißt, jetzt geht es bei den ATI Jüngern mit der Spannung in die andere Richtung? Bei den VMods die die machen, wird einem ja ganz schwindelig und jetzt wird dann die Spannung nicht mehr gesteigert, sondern gesenkt. :haha:
 
Natürlich nicht, aber die GTX ist ja auch nicht unbedingt sparsam, das wird sie ansatzweise, wenn auch hier selber Hand anlegt. Vielleicht sollten sich ATI und nvidia zusammen tun und eine RadeonForce GTX HD4711 entwickeln und Vorteile von beiden integrieren und die Nachteil über Board werfen. Natürlich darf die Karte nicht mehr als 200€ kosten.

Naja, wenn viele unabhängige Tests ergeben das im Referenzdesign zwischen ATI und Nvidia so ein großer Unterschied im Idle ist, dann ziehe ich das schon zu rate. Und 15-25 Watt ist nicht wenig. Sparsamer ab Werk ist die GTX ab Werk defintiv.
 
hatt nich letztes einer hier geschrieben das die neuen kühler für die gtx 200 serie diesen mon kommen sollen?


Ich glaube, das sollte sogar letzten Monat schon der Fall sein. Aber das war wohl übliches Marketinggelaber. Gut, Scythe hat mir keinen genauen Termin genann, außer "in den kommenden Monaten". Das kann also auch heißen, dass es den Scythe Musashi garnicht für die GTX200er Serie gibt und der HR-03 GTX??? Der wirkt irgendwie schon mickrig auf der GTX.

Naja, wenn viele unabhängige Tests ergeben das im Referenzdesign zwischen ATI und Nvidia so ein großer Unterschied im Idle ist, dann ziehe ich das schon zu rate. Und 15-25 Watt ist nicht wenig. Sparsamer ab Werk ist die GTX ab Werk defintiv.

Ich bezog mich da aber auch jetzt auf den Lastverbrauch und nicht den Idleverbrauch. Sparsamer (als die 4870) sind die beiden GTX auf jeden Fall, aber trotzdem nicht unbedingt sparsam. Du verstehst?
 
Zuletzt bearbeitet:
oh man,ich schätze mal eher das die einem sagen das dauert noch ein jahr,also das man zu sich sagt,ach das dauert eh noch.......bla bla,und dann sagen sie er is verffügba und alle kaufen wie verrückt
 
oh man,ich schätze mal eher das die einem sagen das dauert noch ein jahr,also das man zu sich sagt,ach das dauert eh noch.......bla bla,und dann sagen sie er is verffügba und alle kaufen wie verrückt

Ach es kommen ja eh vielleicht noch dieses Jahr Modelle in 55nm (welche Modelle das auch immer werden mögen) oder in noch geringer Strukturgröße. Da wird sich immer etwas tun, auf irgendetwas hoffen macht keinen Sinn.
 
Kann mir einer sagen was die XFX GTX-260 896MB XXX für einen Shader Takt hat?

Bei xfx selber wird der ja leider nicht angegeben :shake:
 
jeezt gebt euch doch mal zufrieden mit der gtx 260 man,alle meckern sie ist mir zu warm,zu laut bla bla,dann gebt sie zurück,oder seit glücklich man,ich finde das es einer der besen karten die nvidia überhaupt gemacht hatt
 
kann aber nicht sein, da ROP und Shader nicht komplett von einander unabhängig sind.

@GTX 260 ist wirklich eine Tolle Karte, zu dem Preis einfach der Hammer (dank ATI)
 
Jap,ich hatte bisher 5 grafikkarten,und keine hatt mich so umgehauen wie diese,ich würde sogar sagen das es der beste hardware einkauf is den ich je gemacht hab
 
ich finde das es einer der besen karten die nvidia überhaupt gemacht hatt

Besenkarten? Als Ersatz für diese Laubpustegeräte? Schnell genug dreht der Lüfter ja! :d Sorry, Whitecker007, aber das konnte ich mir einfach nicht verkneifen.

kann aber nicht sein, da ROP und Shader nicht komplett von einander unabhängig sind.

@GTX 260 ist wirklich eine Tolle Karte, zu dem Preis einfach der Hammer (dank ATI)

Warum nicht? Wenn XFX das so eingestellt hat, dann wird das wohl gehen.

Edit: Ok, nach ein bisschen googeln, ist das hier bei herausgekommen:

http://www.motherboards.org/reviews/hardware/1796_2.html

Sind also scheinbar 1363 MHz.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh