Nvidia GeForce 260 GTX"Sammel-Thread + FAQ" 6.1

Status
Für weitere Antworten geschlossen.
Also mit einem Stecker ging der 2D Modus super plus im 3D Modus Overloking.
Nun hab ich beide Stecker dran, bei einem 600Watt NT.
Aber merke nichts neues oder besonderes.

So hab mal Googel angeschmissen.
Und der spuckt dessen raus.
Wen man beide Stecker an die GK macht, ist das eine Sicherheit.Weil die neuen Karten echt viel Saft ziehn.Und somit ein Absturz verhindert wirt.

Aber ob da sachen nun besser gehn oder nicht, das wil ich jetzt mal am Rande stehn lassen^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Komisch,ich meine mich erinnern zu können das meine mit einem Stecker nicht geht,teste ich morgen mal,oder gleich kurz kein Plan.
 
@Whitecker007
Andere frage: Deine Werte GTX 260@729/1458/1160@1.06vExtra
Sind die Stable?
Und wo lese ich die Volt aus, oder mit was?
 
Ist das eine 55nm Variante von einer GTX 260?

Wenn ja da kann man die nich auslesen,und soweit ich weiß kann man da die Spannung auch nicht verändern oder so abe übertakten kla kannst auch einfach

EVGA Precision



Und da die gewähten Taktraten einstellen und dann testen,am besten mit FC2 oder Crysis
 
Ja ist eine 55nm.
Man da kan man nix neues Bios einspielen :-(
 
Doch,neues Bios schon,und ich glaub auch Spannungen,musst du mal per Nibitor kucken unter Voltages was da auswählba ist,diese Spannungen könnte man dann zb. auch flashen+ die Taktraten usw.

Ich sehe grade das du die gainward hast,an der würde ich sowieso nich mehr viel machen weil die von haus aus schon gut ist,nur den Takt kannst du anheben,und das würde ich per Rivatuner oder EVGA Prescesion machen.

Welcher Treiber benutzt du?
 
Zuletzt bearbeitet:
Treiber hab ich den 186.18

Nibitor kan ich 1.12V / 1.05 /1.06 verstellen
 
Zuletzt bearbeitet:
Und was liegt unter Last an Spannung an "GPU"?

Du musst die Spannung aber nich ändern,schau mal hier Klick mich das ist eine Art Tabelle an der du Taktraten Intervalle siehst diese auch funktionieren,kannst ja einfach mal die 729/1458/1242 einstellen und kucken ob das fluppt,einfach einstellen und zocken gehen,wenn der PC abschmiert,büntes Bild bringt,oder Freezt ist es nicht stable,dann musst du kucken was davon zu hoch ist

Viel Spaß beim testen White;)
 
Treiber hab ich den 186.18

Nibitor kan ich 1.12V / 1.05 /1.06 verstellen

du kannst alles spannungen per bios update einstellen



ich hab mit dem evga gvt tool die niedrigste spannung ausgelotet unter last. alle v schritte die es in dem tool gibt kannst du auch per bios flashen(gibt noch mehr im bios) musst aber in dem voltage ic und voltage table editor ein wenig was umbauen.

sieht dann so aus idle


last


btw kennt jemand die niedrigsten idle taktraten die ich einstellen kann ?
 
Zuletzt bearbeitet:
Ich hab leider ein 55nm
Und kan daher glaub nicht mehr sehn im GPU-Z
Siehe Bild
 
Edel GTX 260 "Green Silent Performace Edition" 650 - Abstürze

Habe meine Edel GTX 260 "Green Silent Performace Edition" 650 bekommen. Hier ein Erfahrungsbericht :-[

Eingebaut und siehe da...Absturz unter Vista bei Far Cry 2 .
Habe ja noch XP via Dual Boot zum Arbeiten...Absturz unter COD4 ... Treiber OK, Temps OK, Netzteil genug Watt, Luftfluss im Gehäuse OK.
Takte ich nun mit ntuner auf 626 (statt den eingestellten 650), läuft es. Darüber schmiert sie ab.

Habe gerade mit NiBiTor und nvflash das Bios auf diese Settings geflasht und bis jetzt ist alles OK...

Aber genau weil ich auf solche Bastelaktionen keinen Lust habe und eine von sich aus leise schnelle Karte wollte, hatte ich diese Karte gekauft...

"selektiertes Modell" steht da. Selketiert? Also wenn die zumindest getestet worden währe...(Bei mir schmierten die Games nach ca. 3 Minuten ab).
Naja sowas kann ja vielleicht mal passieren. Im Netz habe ich jedoch von mehreren solcher Fälle gelesen.

Über die Liefertzeit kann man nicht meckern aber ich habe dennoch keine Lust das Teil einzuschicken, zu diskutieren und vor nicht allem zu warten bis mein Urlaub vorbei ist.
 
Zuletzt bearbeitet:
Mein tipp dazu wäre lieber ein stark übertacktetes Modell wie die Gs von Gainward zu kaufen und die dann einfach runterzustellen .
Da hast du dann auf jeden fall einen selektierten chip .
Edel macht doch mit möglichst wenig Einsatz und Risiko sein Geld und das die dann zu faul oder dumm sind ne Grafikkarte auf Herz und Nieren zu prüfen verwundert mich nicht im geringsten .

MfGamiac
 
Schick die Karte sofort zurück, und lass dich nicht bequatschen. Denke mal du hast sie online bestellt.
Dann mach von deinen 2 Wochen Rückgaberecht gebrauch(mußt dann keinen Grund angeben), und bestell dir ein anderes Model bei Alternate oder so.

Mach da bloß keine RMA von, sonst hast du die Arschkarte gezogen (wegen der dauer)
Meine erste war auch defekt, und ich hatte 3 Tage später nach Wareneingang das Geld wieder auf meinem Konto.

Deine Edelgrfikkarte wird einfach wie viele der neueren Modelle nicht gut gehen. Meines wissens nach, liegt das an den billigen Spawas.
 
Zuletzt bearbeitet:
Jau ich weiss wie das läuft. Aber danke!
By the Way ich muss mich noch um einen Garantie Fall bei meinem Auto kümmern bzw. mein Karre evtl. abwracken (Kostn n bisl mehr als ne Graka :p ). Meinen Chef überzeugen mir mehr Kohle zu zahlen. Ich werde bald ne super stressige Zeit im Job haben und ne Weile nur noch zum Schlafen nachhause gehen. Und und und.
Mit anderen Worten: Ich will jetzt einfach mal 2 Wochen meine Ruhe haben und zocken

Sie läuft unter 1,12 V stabil mit 650/1350/1150 (da ich immer mit kopfhörern zocke höre ich nix) unter 1,06 V läuft es mit 620/1350/1068.... Scheiß drauf ich will jetzt zocken und nicht in einer Woche und Edel Graka hat einen potentiellen Stammkunden verloren.
 
Zuletzt bearbeitet:
ich frag einfach mal hier rein: ist denn ein dx11 spiel zumbeispiel Das dirt 2 auf einer Dx10 Gpu möglich zu spielen?

einige sagen ja, andere wieder nein. Was sagt ihr?
 
Ich kann mir nicht vorstellen, dass Dirt II NUR mit DX11 HW zu spielen ist, vielmehr wird es eine Option sein.
Würden ja eine Masse an Kunden verlieren, die keine DX11 HW haben und auch, vorerst nicht vorhaben sie zu kaufen.

Sieht man doch bei DX10, was gibts denn da zum Zocken unter DX10, trotz schon ein paar Jährchen mit DX10 HW.
Die 8800GT war ja schon DX10.
 
Ich kann mir nicht vorstellen, dass Dirt II NUR mit DX11 HW zu spielen ist, vielmehr wird es eine Option sein.
Würden ja eine Masse an Kunden verlieren, die keine DX11 HW haben und auch, vorerst nicht vorhaben sie zu kaufen.

Sieht man doch bei DX10, was gibts denn da zum Zocken unter DX10, trotz schon ein paar Jährchen mit DX10 HW.
Die 8800GT war ja schon DX10.

jo, weil es in bestimmten 2kleineren" Foren gerüchte gibt, das unter dx10 hardware dx11 genutzt werden kann. ich sage, das man in dx11 games einfach die dx10 Schnittstelle verwendet um sie zu spielen.
 
Diese Mods gabs auch schon für XP, das ja nur DX9 unterstützt, auch da wars, durch seolche Mods möglich DX10 zu nutzen.
Die entsprechende Schnittstelle muss halt im BS installiert sein.
Bei DX11 ist das aber anders wenn man DX 10 HW hat als bei XP.
Bei XP DX10 Mods hatte man ja DX10 HW nur XP wollte DX10 nicht installieren.
Jetzt ist es etwas anders.
Viste unterstützt wohl DX11, aber man hat ja nur DX10 HW.
Die Schnittstelle in der Hardware fehlt.
Eine Software Schnittstelle lässt sich wohl annähernd "fälschen".
Aber eine Fehlende HW Schnittstelle in der GPU ???
Wie man da einen Mod kreieren will ist fraglich.
 
Zuletzt bearbeitet:
Diese Mods gabs auch schon für XP, das ja nur DX9 unterstützt, auch da wars, durch seolche Mods möglich DX10 zu nutzen.
Die entsprechende Schnittstelle muss halt im BS installiert sein.
Bei DX11 ist das aber anders wenn man DX 10 HW hat als bei XP.
Bei XP DX10 Mods hatte man ja DX10 HW nur XP wollte DX10 nicht installieren.
Jetzt ist es etwas anders.
Viste unterstützt wohl DX11, aber man hat ja nur DX10 HW.
Die Schnittstelle in der Hardware fehlt.
Eine Software Schnittstelle lässt sich wohl annähernd "fälschen".
Aber eine Fehlende HW Schnittstelle in der GPU ???
Wie man da einen Mod kreieren will ist fraglich.

genau das hab ich auch schon geschrieben, aber mir woltle keiner glauben. Ich habs auch so erklärt, naja wenn se einem ned glauben dan halt ned.
 
bei pcgh.de stand aber zu Dx11 noch das hier :

Microsoft spricht davon, dass DirectX 11 zu DirectX 10 kompatibel sein wird. Man werde also nicht den Fehler beim Übergang von DirectX 9 auf DirectX 10 machen, wo es einen klaren Schnitt zwischen entsprechender Grafikhardware gab.

also nun doch kompatibel? Ich dachte es sei ncith kompatibel? lol
 
Also wenn dirt2 only dx11 wird dann würd ich ausrasten... erstmal hänge ich an meinem XP und meine graka wollte ich auch noch was behalten :d Aber das die softwareschmieden so schnitzer bringen haben se ja schon bei Splintercell gezeigt.. wo man mindestens shader 3.0 brauchte.. obwohl es auch potente 2.0er karten gab die das game geschafft hätten.. aber halt mit ein paar effektchen weniger, wenn man sich bei der programmierung mal die mühe gemacht hätte..

finds schlimm genug das das game jetzt später kommt als die consolen version..
 
Also wenn dirt2 only dx11 wird dann würd ich ausrasten... erstmal hänge ich an meinem XP und meine graka wollte ich auch noch was behalten :d Aber das die softwareschmieden so schnitzer bringen haben se ja schon bei Splintercell gezeigt.. wo man mindestens shader 3.0 brauchte.. obwohl es auch potente 2.0er karten gab die das game geschafft hätten.. aber halt mit ein paar effektchen weniger, wenn man sich bei der programmierung mal die mühe gemacht hätte..

finds schlimm genug das das game jetzt später kommt als die consolen version..

dito.
 
Hey das stimmt so nicht unter xp konnte man nur die erweiterten strings von directx 9c nutzen die nahezu fast die gleichen effekte hatten wie directx 10.
Was aber nicht das gleiche ist directx9c und directx10 sind 2 paar schuhe.
Und sogesehen war es bisher immer so das jede version ob open gl. xx oder shader ver. xx oder directx.xx
bisher immer abwärtskompatibel waren warum denn bei directx11 aufeinmal nicht ????

So zum nachlesen
http://www.gameswelt.de/news/31996-DirectX_11_-_Endlich_offiziell_angekuendigt.html
 
Zuletzt bearbeitet:
ich glaube das lassen wir leiebr aus dem thead raus, sonst gibts wieder anschiss^^

mir ists eich nun egal wie dies machen, ich lass mich überraschen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh