Nvidia GeForce 260 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
Das ist mal ne Idee :wink:

Wow, da wäre ich nicht drauf gekommen :banana:

<----sucht einen Graka :wink:

Na welchen Sinn macht das den eine 2 Graka einzubauen? :lol:

Sorry aber wer empfiehlt den man solch Käse, da kannst auch die 260GTX weiter so laufen lassen kommt mit dem Stromverbrauch aufs gleiche raus. Selbst die kleine PCIe Karte wird wohl fast soviel Strom verbrauchen wie deine 260GTX im 2D Modus sparen würde. :shot:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also meine 88GTS war von amazon für 100€ gekauft. ich hab also 50€ plus gemacht. Find ich gut.
ich wolt noch was fragen zur Kate aber ich weiß es ncihtmehr. ich habe da was gelesen udn finds nemme. ich suche mal schnell.


Naja, meine GTS hatte damals 269€ bei Amazon gekostet und für 110€ hatte ich sie nun verkauft. Ich habe sie mir aber damals mit einer zweiten GTS und zwei GTs finanziert. Da die Verfügbarkeit so bescheiden und die Nachfrage so hoch war habe ich damals eigentlich keinen Cent von meiner GTS 640 drauf gezahlt.

Nun ja und nun habe ich die GTX 260 für 199€ und ca. 100€ drauf für eine neue Karte ist ja nicht unbedingt viel, außerdem habe ich noch den alten S1 von AC, den werde ich auch noch für ein paar Euro verkaufen.
 
Wenn du vorher den 92er hattest dann hast du auch keinen performance gewinn.. nur zu den vorherigen.. der 92er hatte schon die selbe performance..

@stiff das mit dem 2D Modus erzwingen ist nichts für dich?

Wie soll ich das machen? Es geht ja um die Spannung :(

Na welchen Sinn macht das den eine 2 Graka einzubauen? :lol:

Sorry aber wer empfiehlt den man solch Käse, da kannst auch die 260GTX weiter so laufen lassen kommt mit dem Stromverbrauch aufs gleiche raus. Selbst die kleine PCIe Karte wird wohl fast soviel Strom verbrauchen wie deine 260GTX im 2D Modus sparen würde. :shot:

Das ist auch wieder ein Argument, ich hätte halt dann bessere Temps, das war mein gedanke :wink:
 
Naja, meine GTS hatte damals 269€ bei Amazon gekostet und für 110€ hatte ich sie nun verkauft. Ich habe sie mir aber damals mit einer zweiten GTS und zwei GTs finanziert. Da die Verfügbarkeit so bescheiden und die Nachfrage so hoch war habe ich damals eigentlich keinen Cent von meiner GTS 640 drauf gezahlt.

Nun ja und nun habe ich die GTX 260 für 199€ und ca. 100€ drauf für eine neue Karte ist ja nicht unbedingt viel, außerdem habe ich noch den alten S1 von AC, den werde ich auch noch für ein paar Euro verkaufen.

Genauso hab ichs auch gemacht,hab meine alte karte verkauft,und dann noch 100 euro drauf,undso kam ic zur gtx 260 was ich in keinster art und weise berue,is mit abstand wirklich das beste was ich jegekauft hab an pc teilen
 
DaBozChriz.. also mit dem Memory takt bist du glaub ich der erste der da nicht weiterkommt.. sry dir das mitteilen zu müssen.. =/

Stiff.. wenn du im RT den 2D Modus erzwingst, dann sollte er doch vom takt im 2D Modus bleiben und von der Spannung her auch oder seh ich da was falsch..
 
Der memory takt ist doch net so wichtig oder? Hab meinen auch nur 50 mhz höher getaktet und super Benchmarkergebnisse.
 
Doch, der Speichertakt bring am meisten zusätzliche Performance beim übertaken...... ;)
 
der memory muss anscheindend schon was bringen, denn 576/999/1242 = 14.500 punkte im 3d mark 06 und 685/1065 :-)mad:) /1485 = läppische 15.000 punkte im 3d mark 06...

am ende bin ich mal wieder der einzige gearschte auf der welt bei dem sich die karte beschissen takten lässt...
 
Zuletzt bearbeitet:
Na welchen Sinn macht das den eine 2 Graka einzubauen? :lol:

Sorry aber wer empfiehlt den man solch Käse, da kannst auch die 260GTX weiter so laufen lassen kommt mit dem Stromverbrauch aufs gleiche raus. Selbst die kleine PCIe Karte wird wohl fast soviel Strom verbrauchen wie deine 260GTX im 2D Modus sparen würde. :shot:

Da kannst schon blöd lachen, es war nur ein Denkanstoß.

Wenn er den zweiten Bildschirm nur z. B. wegen einer bestimmten Software oder was weiß ich für was braucht, für was dann die GTX? Dann reicht auch eine einfache Karte z. B. ne 8400GS, die GTX 260 braucht er doch nur für Spiele. Dann gibts kein 2d/3d Problem u. die Temps steigen auch nicht unnötig rauf.

Wenn das alles nicht in Frage kommt, Graka raus u. tschüss. Jammern behebt das Problem nicht.

Ähnliche Lösungen wirds auch in Zukunft geben u. es gibt auch das ein oder andere Mainboard (leider funktioniert das auch noch nicht richtig, bei Notebooks klappts), dass unter dem Desktop Betrieb den Grafikbeschleuniger abschaltet u. auf einen stromsparenenden 2d Chip setzt. Bei der Voodoo war es ja nicht anders. Bei Notebooks nennt sich das zumindest bei Sony "Stamina" Modus.
Logisch, dass bei einer zweiten Graka die parallel läuft der Stromverbrauch steigt.
 
Zuletzt bearbeitet:
Ja und soll er die GTX dann ausbauen immer damit es Sinn ergibt?
 
Ja und soll er die GTX dann ausbauen immer damit es Sinn ergibt?

Ich glaube du verstehst es nicht. Die bleibt natürlich drin, warum soll sie auch raus? Klar ist das nicht unbedingt die beste Lösung, aber wenn er vermeiden will, dass die Karte wegen zwei Bildschirmen immer hochtaktet u. er das mit anderen Mitteln nicht eindämmen möchte gibts keine andere Lösung.
 
Das ist doch aber Quark sich extra ne 2 einzubauen. Die Karte bleibt in 3D läuft ja aber nicht auf Last somit hat er doch außer dem etwas höheren Stromverbrauch keinen weiteren Stress. Dann packt er ne 2.Karte rein, die GTX geht jetzt in 2D Modus spart Strom welche die 2 Karte wieder verbraucht. Wo ist da der Sinn? Beider Karten verbrauchen Strom dann kann er lieber die beiden Monis an der GTX lassen.

Wenn es Hybrid SLI wäre wo sich eine Karte deaktivieren lässt okay aber so ist der Vorschlag einfach nur Unfug. Sorry.
 
Zuletzt bearbeitet:
Das ist doch aber Quark sich extra ne 2 einzubauen. Die Karte bleibt in 3D läuft ja aber nicht auf Last somit hat er auch kein Nachteil außer dem etwas höheren Stromverbrauch. Dann packt er ne 2.Karte rein, die GTX geht jetzt in 2D Modus spart Strom welche die 2 Karte wieder verbraucht. Wo ist da der Sinn? Beider Karten verbrauchen Strom dann kann er lieber die beiden Monis an der GTX lassen.

Wenn es Hybrid SLI wäre wo sich eine Karte deaktivieren lässt okay aber so ist der Vorschlag einfach nur Unfug. Sorry.

Seine Sorgen war die höhere Wärmeentwicklung und der daraus folgende Lärm. In diesem Kontext kam der Vorschlag mit der zweiten Grafikkarte, ganz unbeachtet des Stromverbrauchs der auch nicht zur Debatte stand. Das ist nicht die Königslösung, mein Ding wärs auch nicht, aber das wäre eben eine Alternative eben unter diesem Gesichtspunkt. Wenns für dich Unfug ist bitte, aber nerv mich nicht mit solchen pauschalen Äußerungen. Am Ende entscheidet sowieso er u. nicht ich.
 
Dann soll er sich nen RT Profil machen und das ganze erzwingen, fertig aus.
 
Warum solche einfachen Dinge im Treiber oder wo auch immer nicht implementiert (bzw. derart schlecht optimiert) sind verstehe ich sowieso nicht. Da gibts wirklich noch deutlichen Nachbesserungsbedarf von Seiten des Herstellers. Darum sollte sich Nvidia wirklich kümmern, aber anscheinend bereitet ihnen AMD genug sorgen im Performance Ranking.
 
Bei mir bringt das übertakten des Speichertakts wenig bis nichts. Und 3D Mark 06 kannste zum testen von Grafikkarten inne Tonne kloppen. 3D Mark Vantage eignet sich da besser.
 
Dann schau dir mal die Bandbreite an, wenn du den Ram hochziehst....eines der Dinge die den G200 so gut machen.
 
Also ich hab den Rechner nun auf dem Boden stehen, unter dem Schreibtisch und wenn ich auf 25% stelle, höre ich vom Rechner kaum noch was, aber die Graka hat schon wieder 75 Grad :wall:

Wenn es der Graka nichts macht, behalte ich das Teil. Schade das NV da gepfuscht hat.
 
So, also ich hab jetzt mal selber mit 3D Mark Vantage getestet. Mit den Taktraten 702/1404/~1000 sinds ~ 8800 Punkte @ GPU-Score und mit den Taktraten 702/1404/~1100 sinds ~ 9100 Punkte. Ist nicht grade gross die Leistungssteigerung, aber grösser als ich dachte. Also so unbedeutend ist der Speichertakt beim OC der Karte tatsächlich nicht.
 
Also ich hab den Rechner nun auf dem Boden stehen, unter dem Schreibtisch und wenn ich auf 25% stelle, höre ich vom Rechner kaum noch was, aber die Graka hat schon wieder 75 Grad :wall:

Wenn es der Graka nichts macht, behalte ich das Teil. Schade das NV da gepfuscht hat.

die Grafikkarte ist für 105Grad ausgelegt.

Wann hast du denn die 75 grad? Ich erreiche so ne Werte nur mit Furmark. Im Normalen Spielen komme ich net auf sowas.

Windows 50 Grad Zocken 60-70

Ist doch okay, wieso sollte da NV gepfuscht haben?
 
die Grafikkarte ist für 105Grad ausgelegt.

Wann hast du denn die 75 grad? Ich erreiche so ne Werte nur mit Furmark. Im Normalen Spielen komme ich net auf sowas.

Windows 50 Grad Zocken 60-70

Ist doch okay, wieso sollte da NV gepfuscht haben?

Dann nochmal, bei mir fährt die Graka im 2D nicht den Vcore runter, das ist die Idle Temperatur :)

Das macht er deshalb nicht, weil ich 2 TFTs dran habe :(
 
Dann nochmal, bei mir fährt die Graka im 2D nicht den Vcore runter, das ist die Idle Temperatur :)

Das macht er deshalb nicht, weil ich 2 TFTs dran habe :(

aber trotz lüfter 25% dann 75 grad im idle... deine gehäusebelüftung ist auch nicht so stark, oder?
 
Eigentlich schon, passen doch alle Temps Traumhaft...

Quad @ 3,4 Ghz, 1.41 Volt Idle 35-39 Grad (Vid 1.325)/ Load @ 4x100% 55 Grad Max
Samsung 640 F1 Idle 25-33 Grad /Load 39-41 Max
Mainboard 50 Grad Max

Das sind Super Temps, 2x120 rein, 1x 120 raus, geht nicht anders...

Zum Xten Mal, meine Karte setzt die Vcore im 2D nicht runter...da ist die Temp doch logisch :(
 
Zuletzt bearbeitet:
Dann nochmal, bei mir fährt die Graka im 2D nicht den Vcore runter, das ist die Idle Temperatur :)

Das macht er deshalb nicht, weil ich 2 TFTs dran habe :(

Wie warm wir die Karte denn, wenn du nur einen TFT dran hast und die Karte ordnungsgemäß runtertaktet und die Spannung reduziert? Eventuell hast du ja auch eine mit Heatbug.
 
Zuletzt bearbeitet:
Das muss ich echt mal schauen, heute Abend wird das gemacht.

Wenn ich zocke geht die Karte nicht über 80 Grad, und im Furmark hatte ich auch so 79 Grad :wink:
 
Ok, das sieht in Ordnung aus. Hast du den Takt denn schon mal im Windows Betrieb manuell runter gesetzt? 75°C nur für Windows ist schon arg viel, selbst bei höherer Spannung.

Ich denke mal, die einzige Lösung im Moment dürfte wohl sein, dein Grafikkarten BIOS für den 3D Betrieb mit einer niedrigeren Spannung zu flashen. Welche Spannung liegt eigentlich ein an, die für 3D oder die für Extra?
 
Zuletzt bearbeitet:
Ok, das sieht in Ordnung aus. Hast du den Takt denn schon mal im Windows Betrieb manuell runter gesetzt? 75°C nur für Windows ist schon arg viel, selbst bei höherer Spannung.

Ich denke mal, die einzige Lösung im Moment dürfte wohl sein, dein Grafikkarten BIOS für den 3D Betrieb mit einer niedrigeren Spannung zu flashen. Welche Spannung liegt eigentlich ein an, die für 3D oder die für Extra?

Ich hab die Graka schon auf Minimum Takt laufen im Idle ...

200/200/200Mhz, bringt mal gar nix :(
 
Und wie hoch ist die Spannung dann unter Windows? 1,06 oder 1,12V?
 
Mit dem RivaTuner ab V2.10. Dafür musst du im Hardware Monitor das Plugin VT1103.dll aktivieren und dann kannst du dir die GPU Spannung anzeigen lassen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh