[Sammelthread] NVIDIA Geforce GTX 670

Der Sammelthread für die NVIDIA GeForce GTX 670

Hier die wichtigsten Links zum Anfang:

Treiber:


OC Tools:


Die Tools zum Übertakten funktionieren auch mit den Karten anderer Hersteller oder mit älteren Karten. Das Overclocking der Grafikkarten kann aber dazu führen, dass die Garantie erlischt und die Karte kaputt geht - wir übernehmen keine Haftung für Schäden, die durch solche Handlungen enstehen.

Bios:

Für einige Grafikkarten gibt es auch aktualisierte Biosversionen. Das Flashen von einem Grafikkartenbios ist nicht trivial, bitte beachtet, dass das Flashen auhc zu Hardwareschäden führen kann, es ist also Euer Risiko! Die Biosdateien für Eure Grafikkarte gibt es auf den Herstellerseiten. Hier findet ihr die passenden Tools:



Details zum Chip

Die Geforce GTX 670 basiert auf NVIDIAs Kepler-Architektur, als Chip wird der GK104 verwendet. Er hat weniger Recheneinheiten als die GTX 680 (1344 statt 1536 Recheneinheiten). Zudem ist der Takt mit 915 MHz Core- / 980 MHz Boost- / 1500 MHz VRAM unterhalb der GTX 680 angesiedelt. Den Herstellern steht es jedoch frei, ihre eigenen Taktraten zu verwenden, um somit bei OC-Grafikkarten einen Vorteil in den Benchmarks zu bekommen.

Chip
GK104
Speicherausbau
2048 MB GDDR5, 256-Bit-Anbindung
Recheneinheiten
1344
Coretakt
915 MHz
Speichertakt
1500 MHz
Leistungsaufnahme
170 W
BustypPCI-E 3.0

Die GPU unterstützt natürlich alle Kepler-Features, wie DX11, PhysX, 3D Vision und auch alle möglichen Anschlussvarianten wie DVI, Display-Port und HDMI.

Unsere User haben Fotos gesammelt, die hier zusammengetragen sind:

Referenzdesign (915/980/1502)




ASUS GeForce GTX 670 DirectCU II TOP (1059/1137/1502)




EVGA GeForce GTX 670 Superclocked (967/1046/1552)




Gainward GTX 670 Phantom (1006/1085/1502)




Gigabyte GeForce GTX 670 OC (980/1058/1502)




KFA² GeForce GTX 670 EX OC (1006/1085/1502)




Palit GeForce GTX 670 Jetstream (1006/1085/1527)




Zotac GeForce GTX 670 AMP! Edition (1098/1176/1652)




MSI N670GTX Power Edition OC (1019/1202/1502)



Die Hardwareluxx-Test:

 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jep, so die spannung, GPU und VRAM Taktung. interessiert mich mal. alle takten hoch, Du undervoltest. hat was :)
 
Naja, bei der 470 konnte man einfach die Spannung runter setzen (im Normaltakt), so lange bis eben Bildfehler oder Freezes kamen.

Bei Kepler geht das ja nicht mehr. Man kann den Spannungsregler zwar ändern (im Afterburner), aber es wird nicht übernommen. Irgendwo habe ich dann, nach einigem googeln, gelesen, man solle das Powerlimit runter setzen und gleichzeitig den Baseclock hoch. Da tüftele ich noch etwas. Bislang hab ich +65 Baseclock bei Powerlimit 88%. Boostet etwas mehr als @default und geht nur noch auf 1,125V (statt 1,175V). EDIT: Eben noch mal verglichen, der Boost ist wie @default. Durch die Schwankungen lässt sich das auch nicht so gut vergleichen.

Sind jetzt noch 64°C bei Skyrim bei 20°C Zimmertemperatur. (immerhin -4°C runter) :)
 
Zuletzt bearbeitet:
weiß eigentlich wer, was dieses EVGA K Boost bedeutet? In EVGA Precision X
 
weiß eigentlich wer, was dieses EVGA K Boost bedeutet? In EVGA Precision X
Das wird so erklärt:
EVGA K-Boost – This feature will allow you to “lock” GTX 600 series cards to Boost Clock/Voltage, even in 2D mode. Some important notes about this new feature:
-If using SLI, please disable SLI prior to enabling this feature, you can re-enable SLI once system is rebooted.
-Please disable EVGA K-Boost before reinstalling, or uninstalling the NVIDIA driver.
-GPU Utilization will show as 0% when this is enabled.
 
Es sind drei ja ....
Und mit dem 4ten ist es ne ganz enge Kiste aber müsste noch eine rein gehen.

Mercy ! Also uninteressant bei SLI :(

Werd ich mich wohl doch wieder nach WaKü umschauen müssen :fresse:

weiß eigentlich wer, was dieses EVGA K Boost bedeutet? In EVGA Precision X

Dann rennt die Karte immer auf Vollgas. Auch im 2D Betrieb.

@all

Was mir grad noch aufgefallen ist: Hab grad nen FullHD Film aufm TV geguckt (als 2. Bildschirm) und beide Karten gehen auf Vollgas hoch :wall:

Ist das bei euch auch so ?
 
Zuletzt bearbeitet:
hm, dann ist das uninteressant für mich. Wer will schon, dass die Karte im Idle mit voller Spannung werkelt ;)
 
Zuletzt bearbeitet:
Daaaaaanke :d
Die von mir gesuchte Version hat folgende Bezeichnung: 80.04.4B.00.46 (P2004-0005)
 
Rekordjäger ^^



Idle oder Volllast ? Kann die Tage mal das Verbrauchsgerät dazwischen hängen wenn du willst ?

bin ich net. Ich will ein angemessenes Leistungs-/Stromverbrauchsverhältnis :p

Mein Sys zieht im Idle um die 65W (ohne Monitor) und unter Last um die 200W. Falls das wen interessiert ^^
 
Idle oder Volllast ? Kann die Tage mal das Verbrauchsgerät dazwischen hängen wenn du willst ?

Volllast. Das wäre ein feiner Zug von dir! Man kanns ja grob ausrechnen, aber ein Verbrauchsmesser ist natürlich das I-Tüpfelchen. :)

SLI würde mich nämlich reizen, nicht jetzt, aber vielleicht in einiger Zeit mal.
 
Daaaaaanke :d
Die von mir gesuchte Version hat folgende Bezeichnung: 80.04.4B.00.46 (P2004-0005)

E-Mail ist raus. Mal schauen was bei rummkommt. Hab aber die PE-Edition falls das was ausmacht ?

edit:

Vielen Danke für Ihre E-Mail Anfrage. Es wurde ein Ticket für Ihre Anfrage geöffnet.

Ihre E-Mail wird ab 2.1.2013 (Betriebsferien) von einem Supportmitarbeiter beantwortet.

Bitte beachten Sie, dass sich die Antwort aufgrund von erhöhtem E-Mail-Aufkommen etwas verzögern kann. Dies ist eine automatisch übermittelte Nachricht. Bitte nicht auf diese E-Mail antworten.

Mit freundlichen Grüßen

Ihr MSI Support Team


bin ich net. Ich will ein angemessenes Leistungs-/Stromverbrauchsverhältnis :p

Mein Sys zieht im Idle um die 65W (ohne Monitor) und unter Last um die 200W. Falls das wen interessiert ^^

Ich auch nit ^^ Will auch Dampf bei angemessenem Stromverbrauch. Hatte schonn das krasse Gegenteil (990X + 3x GTX480) :fresse:

Volllast. Das wäre ein feiner Zug von dir! Man kanns ja grob ausrechnen, aber ein Verbrauchsmesser ist natürlich das I-Tüpfelchen. :)

SLI würde mich nämlich reizen, nicht jetzt, aber vielleicht in einiger Zeit mal.

Mach ich die Tage. Muss das Teil erst suchen :fresse:
 
Zuletzt bearbeitet:
Erklärt mir das einer mal kurz mit dem Boost und Kepler Boost?

Mein Boost ist:
1046
Kepler Boost:
1175

Delta:
129

Will heißen, wenn ich als GPU Clock Offset auf +129 stelle, dann wäre Boost = Kepler Boost?
Also ab 130 und mehr komm ich in den "OC-Bereich"?

Verstehe ich das so richtig?
 
Erklärt mir das einer mal kurz mit dem Boost und Kepler Boost?

Mein Boost ist:
1046
Kepler Boost:
1175

Delta:
129

Will heißen, wenn ich als GPU Clock Offset auf +129 stelle, dann wäre Boost = Kepler Boost?
Also ab 130 und mehr komm ich in den "OC-Bereich"?

Verstehe ich das so richtig?

Es gitb nur einen Boost...

Jede Karte hat einen Basistakt und einen vom Hersteller garantierten Boost. Nun ist es aber die Regel das die meisten Karten , falls die TDP es zulässt , deutlich höher Takten.

Wenn du das GPU Clock Offset nach oben stellst dann übertaktest du die Graka. Wobei du dann halt aufpassen musst das die Karte auch bei vollem Boost noch stabil ist. Darum ist das bei Kepler auch bissle komplizierter geworden mit dem OC.
 
Nö es gibt doch 2... Der eingestellte Boost Takt, den man auch mit dem Slider verändern kann und den festen "Kepler Boost" der oben drauf addiert wird wenn die Temperatur unter 70°C(?) und innerhalb des eingestellten TDP Bereichs liegt.

Wenn er nun seinen Boost Takt um 129 erhöht hat er einen maximaltakt von 1304mhz. Boost Takt = "Kepler Boost" gibts nicht.
 
Zuletzt bearbeitet:
Nö es gibt doch 2... Der eingestellte Boost Takt, den man auch mit dem Slider verändern kann und den festen "Kepler Boost" der oben drauf addiert wird wenn die Temperatur unter 70°C(?) und innerhalb des eingestellten TDP Bereichs liegt.

Wenn er nun seinen Boost Takt um 129 erhöht hat er einen maximaltakt von 1304mhz. Boost Takt = "Kepler Boost" gibts nicht.

Den Boost kannste nit einstellen mit nem Tool. Der richtet sich danach wieviel Leistung gebraucht wird und wieviel Luft zur TDP-Grenze ist. Mit dem GPU Clock Offset erhöhst du den Basistakt.

Wenn man die TDP-Grenze nach oben setzt (Powertarget) dann Boostet die Karte auch nicht höher sondern hält den höheren Takt konstanter bzw. geht öfter so hoch.

Offtopic:

Ich seh grad du kommst ja fast aus der Gegend von mir ^^
 
Zuletzt bearbeitet:
Dann haben wir eine andere Begriffauffassung. Laut GPU-Z gibts einen Base Clock @Stock 915mhz. Dann gibt es einen Boost Clock auf den die Karte im 3D Modus immer geht und den man auch mit den tools erhöht und es gibt es einen festen Wert "Kepler Boost" den die Karte wenn alles i.O. ist noch oben drauf packen kann.

Wenn du einstellst das die Karte auf bspw. 1100mhz boost clock läuft taktet sie mit Kepler Boost den du vorher nicht siehst auf bspw. 1165mhz.
 
Habs noch net verstanden:

Mit Offset auf 0
Hab ich mit PowerTarget 122%

Nen Boost von 1175 (Kepler Boost, oder wie auch immer)

Stell ich den Offset auf +10, hab ich immernoch 1175.
Weil ich ja nur den Basisclock anhebe.
Muss ich also nun auf minimal 130 Offset gehen, damit ich über die 1175 komme?

PowerTarget wird noch nicht erreicht, liege noch drunter.
 
Dann haben wir eine andere Begriffauffassung. Laut GPU-Z gibts einen Base Clock @Stock 915mhz. Dann gibt es einen Boost Clock auf den die Karte im 3D Modus immer geht und den man auch mit den tools erhöht und es gibt es einen festen Wert "Kepler Boost" den die Karte wenn alles i.O. ist noch oben drauf packen kann.

Wenn du einstellst das die Karte auf bspw. 1100mhz boost clock läuft taktet sie mit Kepler Boost den du vorher nicht siehst auf bspw. 1165mhz.

Die Karten haben keine 2 Boosts bzw. 2 Stufen.

Pass auf...

Du hast einen Basistakt x (je nach Karte unterschiedlich) und einen vom Hersteller garantierten Boosttakt den die Karte immer erreicht. Braucht die Anwendung jetzt maximale Leistung und es ist noch Luft zur TDP Grenze dann geht die Karte auch höher mit dem Boost (ist aber immernoch der selbe Boost).

Du kannst jetzt 2 Sachen verändern:

1. Das GPU Clock Offset also den Basistakt. Wird dieser erhöht dann Boostet die Karte auch höher weil ja der Grundtakt schon höher ist (aber auch nur wenn die TDP nicht erreicht ist).

2. Das Powertarget. Damit erlaubst du der GPU über die TDP Grenze zu gehen also hällt die GPU den Takt öfter/länger.

Deswegen macht es das OC ja auch komplizierter als z.b. mit Fermi. Weil je nach Anwendung der Boost unterschiedlich ausfällt. Also kann Anwendung A vollkommen stabil laufen aber Anwendung B nicht.

Du kannst den Boost nicht einstellen nur bisschen beeinflussen. Der Boosttakt richtet sich immer nach der TDP Grenze ! Deswegen haben ja auch verschiedene Spiele unterschiedliche Boostergebnisse. Schau dir mal nen Test an von ner GTX670 oder 680.
 
Zuletzt bearbeitet:
Fix mal den Lüfter so das du immer unter 70°C bist, starte GPU-Z und stell bei den sensors unter GPU CORE CLOCK "show highest reading" ein... Dann startest du ein Spiel und siehst danach wie hoch die Karte maximal taktet. Die Differenz zwischen diesem Maximalen Takt und dem Boost Clock der in dem ersten Reiter von GPU-Z angezeigt wird ist der "Kepler Boost". Der kommt wenn die Karte unter 70° & im Power Limit läuft immer noch auf deinen Boost Clock obendrauf. (Der Kepler Boost ist fest also bspw. immer 65mhz.)

Wenn du den normalen Boost Clock erhöhst ändert das nichts an der Tatsache, dass immer noch der Kepler Boost oben drauf addiert wird. Also musst du zusehn, dass du beim Testen immer unter 70°C bist damit du wirklich den höchstmöglichen Takt testest und die Karte nicht wenn der Kepler Boost dazu kommt abschmiert.
 
Zuletzt bearbeitet:
Schonmal dran gedacht das mit der Temperatur die Verlustleistung steigt also auch die TDP Grenze schneller erreicht wird ? Je kühler die Karte ist desto öfter erreichst du den maximalen Boost.

Kannste ganz einfach provozieren. Hau mal 100% Lüfter drauf und schau dir dann den Boosttakt an. Kastrier den Lüfter dann soweit das die Karte meinetwegen 85°C erreicht und schon wirste sehen das die Karte nichtmehr so hoch boostet.

Mit welchem Regler willst du denn den maximalen Boosttakt festlegen ?

Ist alles sehr kompliziert geworden...
 
Zuletzt bearbeitet:
TDP Grenze ist wohl eher das kleinere Problem, dann taktet die Karte eben nicht weiter hoch. Was wenn du dein Maximum bei über 70°C auslotest und im nächsten Game kommt nochmal ~+-100mhz oben drauf?
 
Fix mal den Lüfter so das du immer unter 70°C bist, starte GPU-Z und stell bei den sensors unter GPU CORE CLOCK "show highest reading" ein... Dann startest du ein Spiel und siehst danach wie hoch die Karte maximal taktet. Die Differenz zwischen diesem Maximalen Takt und dem Boost Clock der in dem ersten Reiter von GPU-Z angezeigt wird ist der "Kepler Boost". Der kommt wenn die Karte unter 70° & im Power Limit läuft immer noch auf deinen Boost Clock obendrauf. (Der Kepler Boost ist fest also bspw. immer 65mhz.)

Wenn du den normalen Boost Clock erhöhst ändert das nichts an der Tatsache, dass immer noch der Kepler Boost oben drauf addiert wird. Also musst du zusehn, dass du beim Testen immer unter 70°C bist damit du wirklich den höchstmöglichen Takt testest und die Karte nicht wenn der Kepler Boost dazu kommt abschmiert.

Temps sind kein Problem. Habe ne Wakü. Bin bei rund 40Grad unter Last.
Boost laut GPUZ ist 1046.
Max Boost nachm Benchmark ist 1175.
Delta 129.

Bekomme aber keine Veränderung wenn ich das Offset um 10 erhöhe.
Immer noch maximal 1175 beim benchen.

Wie gesagt Temps kein Problem und auch noch nicht das PowerTarget von 122 erreicht.

Warum ist das so?
 
Das ist ja das "Problem" das die Spiele unterschiedliche Ergebnisse erzeugen gerade weil die Auslastung unterschiedlich ist...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh