[Sammelthread] NVIDIA Geforce GTX 670

Der Sammelthread für die NVIDIA GeForce GTX 670

Hier die wichtigsten Links zum Anfang:

Treiber:


OC Tools:


Die Tools zum Übertakten funktionieren auch mit den Karten anderer Hersteller oder mit älteren Karten. Das Overclocking der Grafikkarten kann aber dazu führen, dass die Garantie erlischt und die Karte kaputt geht - wir übernehmen keine Haftung für Schäden, die durch solche Handlungen enstehen.

Bios:

Für einige Grafikkarten gibt es auch aktualisierte Biosversionen. Das Flashen von einem Grafikkartenbios ist nicht trivial, bitte beachtet, dass das Flashen auhc zu Hardwareschäden führen kann, es ist also Euer Risiko! Die Biosdateien für Eure Grafikkarte gibt es auf den Herstellerseiten. Hier findet ihr die passenden Tools:



Details zum Chip

Die Geforce GTX 670 basiert auf NVIDIAs Kepler-Architektur, als Chip wird der GK104 verwendet. Er hat weniger Recheneinheiten als die GTX 680 (1344 statt 1536 Recheneinheiten). Zudem ist der Takt mit 915 MHz Core- / 980 MHz Boost- / 1500 MHz VRAM unterhalb der GTX 680 angesiedelt. Den Herstellern steht es jedoch frei, ihre eigenen Taktraten zu verwenden, um somit bei OC-Grafikkarten einen Vorteil in den Benchmarks zu bekommen.

Chip
GK104
Speicherausbau
2048 MB GDDR5, 256-Bit-Anbindung
Recheneinheiten
1344
Coretakt
915 MHz
Speichertakt
1500 MHz
Leistungsaufnahme
170 W
BustypPCI-E 3.0

Die GPU unterstützt natürlich alle Kepler-Features, wie DX11, PhysX, 3D Vision und auch alle möglichen Anschlussvarianten wie DVI, Display-Port und HDMI.

Unsere User haben Fotos gesammelt, die hier zusammengetragen sind:

Referenzdesign (915/980/1502)




ASUS GeForce GTX 670 DirectCU II TOP (1059/1137/1502)




EVGA GeForce GTX 670 Superclocked (967/1046/1552)




Gainward GTX 670 Phantom (1006/1085/1502)




Gigabyte GeForce GTX 670 OC (980/1058/1502)




KFA² GeForce GTX 670 EX OC (1006/1085/1502)




Palit GeForce GTX 670 Jetstream (1006/1085/1527)




Zotac GeForce GTX 670 AMP! Edition (1098/1176/1652)




MSI N670GTX Power Edition OC (1019/1202/1502)



Die Hardwareluxx-Test:

 
Zuletzt bearbeitet:
erst gebt ihr den original baseclock an,dann den baseclock inkl. oc u. der boost hat in beiden fällen 196.

in der ersten liste stand aber vom referenz baseclock 915 ausgehend.da ging das doch schon los mit welcher baseclock...

referenzbaseclock,custombaseclock,baseclock inkl. oc,baseclock des geflashten bios u. am besten noch custombaseclock inkl. oc o. baseclock des geflashten bios inkl. oc.

da schaut hinterher kein mensch mehr durch.genau genommen hätte man immer vom referenzbaseclock ausgehen müssen um den boost ohne/mit oc zu bestimmen.


jetzt ist schluß hier mit der diskussion.das wird nur wie oben in der liste per pn aufgenommen.ansonsten reagiere ich nicht mehr drauf...

alles andere ist nur weiteres rumgemache...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das hab ich auch gemerkt. das komisch war in der beta wars genau andersrum. da wurde meine 285gtx wärmer als in jedem anderen game. macht ja nigs.

besser so wie jetzt :-)

Gesendet von meinem Milestone mit der Hardwareluxx App
 
erst gebt ihr den original baseclock an,dann den baseclock inkl. oc u. der boost hat in beiden fällen 196.

in der ersten liste stand aber vom referenz baseclock 915 ausgehend.da ging das doch schon los mit welcher baseclock...

referenzbaseclock,custombaseclock,baseclock inkl. oc,baseclock des geflashten bios u. am besten noch custombaseclock inkl. oc o. baseclock des geflashten bios inkl. oc.

da schaut hinterher kein mensch mehr durch.genau genommen hätte man immer vom referenzbaseclock ausgehen müssen um den boost ohne/mit oc zu bestimmen.


jetzt ist schluß hier mit der diskussion.das wird nur wie oben in der liste per pn aufgenommen.ansonsten reagiere ich nicht mehr drauf...

alles andere ist nur weiteres rumgemache...

Dabei versteh ich eben nicht was das Problem war/ist...wenn man schreibt Coreclock @ Stock bzw Boostclockdifferenz...dann heißt das für mich, den Takt von der Karte, so wie du sie bekommen hast...ob nun Referenz oder Custom mit OC ist dabei völlig schnuppe.

Naja aber gut jetzt...
 
ach so ja, marvin, du bist das ricola.habs gar nicht gesehen gehabt!

2 doofe,ein gedanke...:wink:
 
Zuletzt bearbeitet:
so jetzt hab ich mal mein pc zimmer auf normalere temps abkühlen lassen (hab sonst immer bei dem sommertemperaturen um die 28-30° zimmertemp, was ziemlich suckt weil die luft steht usw). jetzt kann ich auch was verlässlicheres zur idletemp der graka sagen.

bei 23-24° zimmertemp, die ich jetzt hab (nich gut, aber besser ^^ im winter werdens weitere 4-5° weniger werden) idled meine windforce nun bei 26-27° :d das sind doch mal nette idletemps. hatte ich noch nie mit irgendeiner graka xD windforce ftw xD (cpu hat auch nette idletemps bei 29-30° jetzt, aber das spielt in dem thread eine rolle)
 
wenn ich im treiber bei der diablo exe einstelle das im ernergieverwaltungsmodus auf höchsleistung steht anstatt adaptiv. dann ist die karte in diablo 980mhz clock. trotzdem bekomm ich bei ner richtigen action fps drops auf 25-55. aber nur ganz kurz wenn ich was weis ich 10-15mobs gleichzeitig weghaue während die ihre skills benutzen. sieht aus wie als wäre die karte nicht stark genug. das gleiche passiert aber auch bei der einstellung "adaptiv" nur das die karte da nicht vorher hochclockt. komische sache. hab aber noch keine anderen fordernden games getestet. muss ich wohl mal machen oder?
 
komisch scrush. meine läuft bei d3 auch mit 700 oder 900mhz oder sowas um den dreh herum (definitiv nix über 1000), aber ich hab butterweiche 60fps in jeder situation, egal wieviel los ist und was passiert.

welchen treiber haste denn ? ich hab den 302.59er dev treiber, der mit der beste sein soll für die keplers (mit dem 300.89er, welcher aber mit der 670er nich läuft ohne neue inf)
 
301.42

also bei adaptiv läuft die karte um die 600-780 mal ab und zu 980mhz. je nachdem taktet die karte hin und her. meistens hab ich auch meine 60fps stabil. doch ab und zu sind halt riesige gruppen an gegnern da wo dan die fps absacken.

am cpu liegts nicht oder? q9550 auf 3,6ghz.

was mir gerade einfällt. albtraum eingang zum anwesen der irgendwas. akt 1 noch ziemlcih in der mitte. dort kommen wenn man das anwesen betritt von oben usw.. nen haufen. so ein haufen z.b. lässt die fps einbrechen.

wo gibs deinen treiber?
 
Zuletzt bearbeitet:
es liegt glaub ich am cpu. mit meinem q6600er hatte ich drops auf bis zu 13fps und der lief auf 3.2ghz :)

aber adaptiv is auch nich gut für d3. ne katastrophe damit. schalt das mal aus.

schalt mal ingame vsync an. dann schalt mal den foreground framelimiter an und stell auf 200fps.

das hat bei mir geholfen gegen gelegentliche ruckler. seitdem ich das so gemacht hab läufts so butterweich wie ichs niemals für möglich gehalten hätte


/e: meien treiber.. hier:

http://forums.guru3d.com/showthread.php?t=363158

bei mir läuft er perfekt seit mittwoch wo ich die karte bekommen eingebaut hab und den treiber installiert hab. der treiber soll auch den vsync bug minimiern. ich hab damit garkeinen vsync bug erkennen können und ich hab mittlerweile umdie 15 spiele getestet (alle guten und großen des letzten jahres)
 
Zuletzt bearbeitet:
Hab' D3 zwar nicht, aber eine Idee ist vielleicht, dass es an der Game-Engine liegt. Vielleicht muss die dann zu viel nachladen oder die RAM-Auslatung funktioniert nicht ganz sauber. Eventuell hilfts das Game auf 'ner SSD zu betreiben, wenn es so stört. Oder ist Scrush da ein Einzelfall?
 
meins is auf ner hdd lol ^^ samsung f3 xD

aber marvinator hat schon recht. es liegt eindeutig an der engine und man muss halt glück haben. man kann nich viel ausrichten als mit den paar workarounds arbeiten von denen ich hier genannt hab was mir geholfen hat und neuen treiber probieren :)

übrigens background fps hab ich ausgeschaltet und was das wichtigste ist (hab ich vergessen zu erwähnen).

es läuft nur im windowed fullscreen ! im fullscreen ruckelts sich einen ab und die cpu auslastung is bei mir doppelt so hoch ROFL. war bei meinem q6600er auch schon so. die engine is halt nen riesen witz ^^

aber egal, denn windowed fullscreen is eh um welten besser. hat keinen einzigen nachteil zu fullscreen (man sieht nichmal einen pixel falsch oder so. es is pixelgenau wie fullscreen) sondern nur vorteile wie superschnelles wechseln mit windows taste usw xD

/e: wieso notebook ? klick auf die 2 links direkt unter download !! die sind komischerweise schwarz, aber es sind links. hab mich anfangs auch gewundert und konnte den dl nich finden lol ^^

/e2: oder hie reinfacher: http://downloads.guru3d.com/Nvidia-GeForce-302.59-Beta-64-bit-download-2912.html

direkt von guru is sicherer mMn ^^ ich achte immer auf meine downloadquelle
 
Zuletzt bearbeitet:
Diablo 3 hat lächerliche Anforderungen, selbst für Full HD mit max. Details. Da reicht schon ein alter Phenom mit 2-3 Kernen aus und dazu eine 7850 um ständig 60Frames zu haben... Ist wohl leider alles eine Treiber-Sache.
 
treibersache isses auch, aber ud hast nich recht damit das jeder cpu dafür reicht. (in der theorie reicht das was du schreibst ^^ inner praxis siehts anders aus aufgrund der nicht optimierten engine.. und nebenher auh noch grottig programmierten ^^)

denn als ich meienn q6600er 3.2ghz gegen den 2500k mit 4ghz ausgetauscht hab hatte ich weiterhin die gleiche graka drin und den gleichen identischen treiber ! nur hatte ich keine drops mehr auf unter 40fps und vorher auf 13.

es liegt eindeutig zu einem gewissen teil am cpu. es is aber nich dein cpu schuld, sondern diese grottige engine ;) wobei du da natürlich nix dran machen kannst ausser n neuen cpu holen lol -.-

/e: @wem unter mir: das game ansich is super mMn. aber was derzeit damit abgeht geht nich klar -.- wenns mal bugfrei läuft, was bisher sogut wie nie der fall war, verdient es auch seine 85-90% wertungen die es bekommt xD
 
Zuletzt bearbeitet:
ne,eher engine.da entwickeln die jahrelang u. es kommt son unfertiges produkt raus.selbst mit dem 5. patch werden die das wahrscheinlich nicht fertig kriegen.anpassung der treiber für neue graka`s spielt sicherlich ne rolle.das barometer geht aber klar deutlich richtung engine!

das beste ist das selbst nach nen paar wochen das game immer noch 55-60€ für sowas kostet u. dann wird da son überhype raus gemacht....diablo...tztztz...ne,danke.

framelimiter@ 200?ich weiß nicht,auch wenns hilft.meine vorstellung davon ist,das der gpu ne fps grenze vorgegeben wird u. sie alles drüber hinaus zum "vorrechnen" verwendet.vielleicht funktionieren aber alle strategien ab 58 fps in die richtung.
 
Zuletzt bearbeitet:
Kann ich mir jetzt auch nicht vorstellen, dass du mit dem 9550 bei d3 probleme hast. Dürfte aufjedenfall reichen.
 
Gab doch auch diverse Sonderhefte von PC Games und GameStar wo alles überprüft wurde und konnte man eben mit einem Dual Core und älterer Garfikkarte auf FullHD mit max. Details spielen. Wollte es mir eigentlich auch kaufen, aber bei den Problemen warte ich noch 2-3Monate und hoffe das bis dahin einige neue Patche das Spiel "aufbessern". Das gleiche gilt für neue Grafikkartentreiber für die GTX670. Mit Max Payne mache ich das Gleiche, haben anscheinend auch einige Probleme mit. Dazu sinken die Preise auch schnell auf 39-44€.

Der Spielspaß wird jedenfalls massiv gestört von Bugs.
 
geht die qualität der spiele wieder so berg ab dieses jahr?bis jetzt wars eigentlich ok.hängt das mit win 8 zusammen?das letzte mal wars richtig schlimm mit vista.zwischen sp 1 u. 2 wurds erst besser.nicht das es mit der spielefähigkeit von vista zusammen gehangen hat.aber anfangs war wohl das hoch der schlecht angepassten konsolenports u. anpassung an dx 10 schnittstelle.
 
Zuletzt bearbeitet:
Blizzard willhalt auch an Leute verkaufen, welche nur auf'm Lappi oder mit uralt-Hardware zocken. Schöne Grafik hat man von Blizzard ja lange nicht mehr gesehen.
Aber mit der Stabilität der Games, welche ewig lange entwickelt wurde ist das ja fast schon ein Phänomen: STALKER1, Duke Nukem, D3... na gut, mehr fallen mir gerade nicht ein. ;)
 
das ist aber nen argument! hab ich so noch nicht gesehen bzw. drüber nachgedacht.wahrscheinlich haben die die "erzeuger" später nicht mehr die das fixen könnten oder die die "seele" der engine verstehen....

vor allen,die diablo III beta lief doch recht lange.da sollten doch wohl solche probleme erkannt werden...


kurz ot:
wie ist das eigentlich mit stalker u. metro?ist metro nicht vom selben team entwickelt worden bzw hat den selben ursprung? stalker 2 ist fast fertig u. das studio wurde dicht gemacht.metro 2 wird aber wahrscheinlich kommen.raff ich nicht ganz...
 
Zuletzt bearbeitet:
ja ähnlichkeiten finden sich hier definitiv. aber es hängt auch unter anderem damit zu tun das alle games die lange entwickelt werden nachm release von sparmaßnahmen betroffen sind. einfach weil man seinen gewinn maximieren will, denn schließlich sind die ausgaben bei games die 4-7 jahre oder gar länger entwickelt werden enorm und kein kapitalistisch orientiertes unternehmen verschenkt auch nur einen cent :)

meistens sarbeiten dann 1,2,3 leute an den patches. der großteil wird entlassen und nur der kern der entwickler bleibt bestehen und macht entweder addons, dlcs, oder gar schon nen nachfolger, oder nen ganz anderes game xD
 
So ist das halt leider. Games die buggy sind. Hardware die meiner meinung oft zu früh und ohne ausreichende testphasen an den endverbraucher gelangen. Die treiber und software auch nicht ausreichend abgestimmt ist...

Dafür ist ja auch keine zeit. Da ja schon wieder die nächste generation in ein paar monaten an den start geht. :-)

Oh man waren das noch zeiten. 1996 meine erste matrox millenium mit 8mb speicher auf einem pentium 90 mit einer
Orchid righteous Vodoo 3dfx karte quake gezockt. Endlich in 640x480 flüssig. :-)
 
:fresse: haupsache läuft...

ja,die qualität lässt leider bei allzu viel sachen heute deutlich nach.vekaufen,verkaufen,...

wobei mir nv da doch nen tick runder vorkommt.da hat aber jeder seine eigene vorstellung zu....
 
Zuletzt bearbeitet:
Hey Leute, schreibt Nachrichten @Wem, die Liste im Startpost ist ja noch lächerlich klein! So wird das doch nix, mit einem vorbildlichen Super-Thread. ;)
 
Hallo

Ich habe eine Palit Jetstream GTX670 gekauft und würde diese gerne in ihrer Lüfterdrehzahl und der Spannung verändern. Offenkundig hat sich das Design oder die Art der Angabe bei der Spannungsverwaltung geändert. Wo früher eine Skala in Milivolt angezeit wurde und man zwischen 800 MV und 1200 MV frei wählen konnte, kann ich jetzt lediglich schlappe "-100" auswählen.

1.) -100MV ist mir zu wenig. Kann ich den Wert ausweiten?
2.) 30% Lüfterdrehzahl laut Afterburner sind mir zu hoch, da die Karte dann noch hörbar ist, sich aber auf 33°C Temperatur befindet.

Kann ich irgendwie ohne einen BIOS Flash die Werte der Spannung und des Lüfters weiter nach unten drosseln?
Nvidia-Treiber und MSI-Afterburner-Version siehe Screenshot.

gtx 670.jpg

Edit:
Ich vermute, eine derartige Steuerung geht mittlerweile rein über die Funktion "Power Limit". Stelle ich dieses auf 58%, läuft die Karte im Kombustor mit 750 MHz Kerntakt und mit einer Angabe von 60-61% TDP bei 0,96 Volt. Ist der Wert bei "Power Limit" bei 100, läuft die Karte mit bis zu 1,17x Volt und rennt in den Turbomodus.

Liegt das am neuen Core-Design oder daran, dass ich jetzt eine Weile nur AMD Karten hatte?

Edit 2:
Habe ich das Referenzdesign? Passt diese Accelero-Kühler aus dem Startposting?

Danke.
 
Zuletzt bearbeitet:
Die Spannung kann man bisher anscheinend nicht frei wählen.
Die Lüfter bekommst du nur mit dem ASUS-BIOS unter 30%, allerdings sind 1100rpm wohl das Minimum für die Jetstream Lüfter, mit welchem sie noch laufen (- oder? steht hier irgendwo vor min. drei Seiten im Thread ;) -).
(Nur eine Kleinigkeit: im nV-Treiber darauf achten, dass adaptive Energieverwaltung eingestellt ist)

Aber wieso möchtest du denn UV/UC bei 'ner High-End-Karte?
 
Also bei meiner 670er Palit JetStream laufen die Lüfter im Idle laut GPU-Z und AIDA 30% @ 930~960Rpm und sind sehr leise. Ich weiß gar nicht was ihr mit diesen lauten Lüftern im Idle bzw. 1100Rpm habt?
Die Spannung läßt sich über den Palit ThunderMaster über 2 Regler anpassen: Kernspannung bis +0,187, Spannungslimit bis +128%.
 
Im Idle find' ich die Karte auch noch okay, naja, ein wenig hör' ich die schon...
Bringt das eigentlich OC-technisch was die Kernspannung anzuheben? Spiele mit Spannung nicht gerne herum, da frag' ich lieber nach.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh