Nvidia GeForce 260 GTX"Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 6

Status
Für weitere Antworten geschlossen.
Hi Leude, ich hab jetzt endlich auch eine 260GTX von XFX. Was ist denn eigentlich der Unterschied, der ganzen Hersteller? Zotac, eVGA, ASUS. In Geizhals hat als einzige die Zotac relativ gute Bewertungen, die andern meist unter 50%.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gibt keinen unterschied, ausser das layout! und die vom Hersteller selber übertakteten modelle wie bei Zotac AMP und EVGA SC und XFX XXX und und und....

aber im grunde alle das gleiche.
 
@drnoodle: Auf die Bewertungen bei Geizhals brauchst du nichts geben, da werden die Produkte teilweise schon vor Veröffentlichung bewertet. Ansonsten ist im Moment bei Karten andere Hersteller nur das Zubehör unterschiedlich. Das ändert sich aber mit den 55nm Karten, da es den Herstellern erlaubt ist, eigene Boardlayouts zu verwenden.

bei 100% lüfter kann ich soga 783 core einstellen,aber das is ja nichts für den spiele betrieb,und die 756 hätt ich schon gern xD

Also ist bei dir auch definitiv ein Temperaturproblem.
 
Zuletzt bearbeitet:
Auf die Bewertungen bei Geizhals brauchst du nichts geben, da werden die Produkte teilweise schon vor Veröffentlichung bewertet. Ansonsten ist im Moment bei Karten andere Hersteller nur das Zubehör unterschiedlich. Das ändert sich aber mit den 55nm Karten, da es den Herstellern erlaubt ist, eigene Boardlayouts zu verwenden.

Ganz genau, und momentan ist es so, das irgend jemand (oder vielleicht sogar mehrere) jede neue Nvidia Grafikkarte schlecht bewertet (also immer nur 1 von 5 Sternen bei allen Kriterien), sobald sie bei geizhals gelistet werden... das ist mir aufgefallen! Weiß nicht, obs immer noch so ist.
 
Ey was haben die leute davon sachen schlecht zu machen? ich könnte wirklich kotzen wenn ich sowas lese,,am müsste über solchen menshcen mal so richtig derbe herziehen,bei denen muss doch im kopf was nich okay sein.
 
Sind wahrscheinlich ATI Fanboys auf geheimer Mission alle nvidioten zu bekehren! ;)

Wenn in den Bewertungen noch ein Kommentar abgegebn ist, dann kann das vielleicht (@Whitecker: :p ) noch mit in Betracht ziehen, aber nur über die *-Bewertung lässt sich kein Urteil dort fällen.
 
hää? das wa für mich ne nummer zu hoch

achja meinem knie gehts mitlerweile bessa,zwa noch nich perfekt,aber deutlich bessa als sonntag,ich denke operiert werden muss nichts.
 
Zuletzt bearbeitet:
Naja ich hab ATI grade ne Chance gegeben und eine HD4870 gekauft. Ich kann aber mit ATI nichts anfangen, alleine die Einstellungen der Nvidia Karte sind geil. Schriften sind jetzt wieder scharf, usw.

Habe ich eigentlich eine 55nM Karte? In GPU-Z wird auch in der neuen Version (0.3.1) auch noch 65nM angezeigt.
 
Du hast jetzt eine 4870 und fragst HIER, ob du eine 55nm Karte hast?

@Whitecker: Was genau war eine Nummer zu hoch?
 
Naja ich hab ATI grade ne Chance gegeben und eine HD4870 gekauft. Ich kann aber mit ATI nichts anfangen, alleine die Einstellungen der Nvidia Karte sind geil. Schriften sind jetzt wieder scharf, usw.

Habe ich eigentlich eine 55nM Karte? In GPU-Z wird auch in der neuen Version (0.3.1) auch noch 65nM angezeigt.

In GPUZ 0.3.1 werden alle Karten noch als 65 nm angezeigt. :d
Hast du keinen Karton von der Karte?
Da steht das doch mit Sicherheit drauf. :d
 
Ich habe die Ati Karte zurückgeschickt und mir Gestern eine XFX gekauft. Da steht aber nix von 55nM, nur ein Aufkleber mit '216 Cores'.
 
Ich habe die Ati Karte zurückgeschickt und mir Gestern eine XFX gekauft. Da steht aber nix von 55nM, nur ein Aufkleber mit '216 Cores'.

Ich denke wenn du Bilder machst und hier hochlädst, kann dir mit Sicherheit jemand hier sagen, um welches Model es sich handelt.
 
also hab grad noch 3dm va erformance test gemacht und lief durch 11750pkt, das is ja in ordnung?
und jetzt versuch ich es noch mal nur mit angehobener auflösung...
 
Das PCB ist gekühlt und nicht sichtbar.

Dann ist es keine 55nm, aber keine Sorge, es ist nicht wirklich ein Nachteil. ;) Performance ist identisch (bei Refferenzfrequenzen), nur die Temperaturen sollten leicht höher sein. Insgesamt aber keine große Sache. ^^
 
Kannst du auch mit NBitor unter dem Punkt Voltage Editor ändern.

Mit dem RivaTuner kannst du die Spannung nicht ändern. Dafür musst nibitor über die Voltage Table dein BIOS ändern und mit nvflash dann flashen.

Ich glaub ihr habt beite nicht richitg gelesen ich sagt. Ich kann 4 verschiedene Spannungen mit den Nibitor wählen 1,05V, 1,06V, 1,12V, 1,15V. Ich wollte wissen ob ich mit dem Rivatuner das Bios so editieren kann das ich 1,08V einstellen kann? Bzw ob das Hardware technisch überhaupt möglich ist?
Das ich das Bios dann mit nvflash flashen muss ist mir schon klar.
 
Gut hat sich erledigt habs unter Tools gefunden den Voltage Tabelen Editor.

Nach einfrage dazu sollte ich hier VID 3 änden von 1,06 auf 1,08 oder VID 1 von 1,12 auf 1,08 oder ist das egal?
 
Aber das sagte ich doch in meinem Post. Wer hat also nicht richtig gelesen? ;)

Nimm einfach die VID, die du nicht brauchst, allerdings müssen die Spannungen aufsteingend sortiert sein.
 
Ich glaub ihr habt beite nicht richitg gelesen ich sagt. Ich kann 4 verschiedene Spannungen mit den Nibitor wählen 1,05V, 1,06V, 1,12V, 1,15V. Ich wollte wissen ob ich mit dem Rivatuner das Bios so editieren kann das ich 1,08V einstellen kann? Bzw ob das Hardware technisch überhaupt möglich ist?
Das ich das Bios dann mit nvflash flashen muss ist mir schon klar.

Du hast vieleicht nicht richtig gelesen ;)
Ich habe geschrieben unter dem Menüpunkt Voltage Editor und nich Voltage.
unter Voltage kannst du nur die vorgegebenen Vids einstellen und unter dem Voltage Editor kannst du diese Vuds verändern. :d
Ich hoffe das war jetzt verständlich genug. :coolblue:
 


Hab jetzt so gemacht und geflash ich hab die 1,12V auf 1,07V geändert.
Aber hat woll nix bebracht die GPU läuft mit 1,13V nach Everest und GPU-Z.
Und was jetzt?
 
um den lüfter besser abzustimmen welches tool ist da am besten?
 
ich würde es mit den nibitor abstimmen die schritt weite auf von 32% auf weniger stellen.
des weitern würde ich mal versuchen ob die GPU unter last nicht mit weniger Voltage auskommt das wird wo am meinsten bringen.
 
meinst du jetzt grad mich? xD
ich kenne mich mit sowas nämlich garnicht aus^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh