[Sammelthread] NVIDIA Geforce GTX 670

Der Sammelthread für die NVIDIA GeForce GTX 670

Hier die wichtigsten Links zum Anfang:

Treiber:


OC Tools:


Die Tools zum Übertakten funktionieren auch mit den Karten anderer Hersteller oder mit älteren Karten. Das Overclocking der Grafikkarten kann aber dazu führen, dass die Garantie erlischt und die Karte kaputt geht - wir übernehmen keine Haftung für Schäden, die durch solche Handlungen enstehen.

Bios:

Für einige Grafikkarten gibt es auch aktualisierte Biosversionen. Das Flashen von einem Grafikkartenbios ist nicht trivial, bitte beachtet, dass das Flashen auhc zu Hardwareschäden führen kann, es ist also Euer Risiko! Die Biosdateien für Eure Grafikkarte gibt es auf den Herstellerseiten. Hier findet ihr die passenden Tools:



Details zum Chip

Die Geforce GTX 670 basiert auf NVIDIAs Kepler-Architektur, als Chip wird der GK104 verwendet. Er hat weniger Recheneinheiten als die GTX 680 (1344 statt 1536 Recheneinheiten). Zudem ist der Takt mit 915 MHz Core- / 980 MHz Boost- / 1500 MHz VRAM unterhalb der GTX 680 angesiedelt. Den Herstellern steht es jedoch frei, ihre eigenen Taktraten zu verwenden, um somit bei OC-Grafikkarten einen Vorteil in den Benchmarks zu bekommen.

Chip
GK104
Speicherausbau
2048 MB GDDR5, 256-Bit-Anbindung
Recheneinheiten
1344
Coretakt
915 MHz
Speichertakt
1500 MHz
Leistungsaufnahme
170 W
BustypPCI-E 3.0

Die GPU unterstützt natürlich alle Kepler-Features, wie DX11, PhysX, 3D Vision und auch alle möglichen Anschlussvarianten wie DVI, Display-Port und HDMI.

Unsere User haben Fotos gesammelt, die hier zusammengetragen sind:

Referenzdesign (915/980/1502)




ASUS GeForce GTX 670 DirectCU II TOP (1059/1137/1502)




EVGA GeForce GTX 670 Superclocked (967/1046/1552)




Gainward GTX 670 Phantom (1006/1085/1502)




Gigabyte GeForce GTX 670 OC (980/1058/1502)




KFA² GeForce GTX 670 EX OC (1006/1085/1502)




Palit GeForce GTX 670 Jetstream (1006/1085/1527)




Zotac GeForce GTX 670 AMP! Edition (1098/1176/1652)




MSI N670GTX Power Edition OC (1019/1202/1502)



Die Hardwareluxx-Test:

 
Zuletzt bearbeitet:
muah...entweder du betreibst oc o. keins.entweder du kaufst dir ne werksoc karte o. keine....entweder du hast leckströme oder du hast leckströme...

ich bin mir sicher,das jeder hier im thread mehr ahnung von seiner karte u. oc hat als du!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Wem

Wo hattest du Probleme in die Grafikeinstellungen zu gehen?
BF3 oder D3?
Hab den neuen Treiber jetzt drauf und in D3 komme ich in die Grafikeinstellungen...

lg,
Schmenki
 
ich bin mir sicher,das jeder hier im thread mehr ahnung von seiner karte u. oc hat als du!
Das stimmt wohl, denn meine GB GTX 670 OC ist noch nicht angekommen :fresse:

Mag sein, dass ich etwas paranoid bin und mit dem OC wohl nicht so weit gehen werde wie die meisten hier - machen werde ich es trotzdem. Soll ja schließlich auch Spass machen das ganze :cool:
Aber so übervorsichtig bin ich auch nicht. Bin bestimmt einer der wenigen der seinen nagelneuen 3770k gleich am ersten Tag nach paar Benches köpft und die shice WLP von Intel "runterkratzt".

Bin auch evtl. mit den aktuellen Begriffen wie Kepler-Boost bla bla nicht auf dem neusten Stand weil ich mich in den letzten Jahren nur mit linux beschäftigt, HTPCs gebaut und mich mehr mit stromsparenden Systemen beschäftigt habe, dass ich aber kein Plan von der Materie habe kannst du nicht so einfach behaupten.

Für mich steht einfach fest - schafft meine 670er keinen UH3.0 Durchlauf mit extreme Settings ist sie net "rock"-stable und damit für mich zumindest mit solchen OC Settings inakzeptabel. Ich könnte solche OC Ergebnisse auch nirgends posten, wenn ich weiß, dass diese nicht 100% stable sind.

Aber jeder eben wie er das mag...
Ich wollte ja nur meine Bedenken äußern und hab auch deswegen UH3.0 mit den extreme Settings ins Spiel gebracht. Ich wollte damit aber bestimmt niemandem hier zu nahe treten.
 
Zuletzt bearbeitet:
Meines Wissens nach muss das nicht unbedingt was mit den Temps zu tun haben. Was die Spannung angeht, so wäre es für die GPU sogar besser wenn man diese etwas erhöhen könnte - natürlich vorausgesetzt die Temps bleiben im Rahmen.
Es geht ja eben um die für diese Taktraten etwas zu niedrige Spannung wodurch vermehrt Leckströme auftreten. Bei vielen Spielen sieht man evtl. garnichts, oder es macht sich in kleineren Grafikfehlern bemerkbar und führt eben bei den meisten Spielen nicht gleich zum Absturz weil dere Engines einfach gut geproggt und tolerant sind was das angeht.
Die GPU hat aber trotzdem mit den erwähnten Leckströmen zu kämpfen und zeigt es dann auch sofort in Benches wie UH3.0 wenn alle Rechenwerke der GPU gefordert sind. Das ist in Spielen dann einfach nicht so stark ausgeprägt und aufgrund einer gewissen Fehlertolleranz auch nicht immer ersichtlich.
Ich kann mir aber beim besten Willen nicht vorstellen, dass wenn irgendwo Strom fließt wo keiner fließen sollte es für ne GPU z.B. nicht schädlich sein soll.

Kann ja jeder machen wie er möchte oder für richtig hält. Kann deine These aber nicht nachvollziehen. Sei es drum - beim Übertakten geht man immer Risiken ein. Ich nutze die Karte weiterhin mit Übertaktung. Läuft so ja auch im Heaven Benchmark.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Kann ja jeder machen wie er möchte oder für richtig hält. Kann deine These aber nicht nachvollziehen. Sei es drum - beim Übertakten geht man immer Risiken ein. Ich nutze die Karte weiterhin mit Übertaktung. Läuft so ja auch im Heaven Benchmark.

OMG. Ich sag doch nicht das übertakten immer schädlich ist für die Hardware oder ähnliches. Ich mach das auch gerne und meist auch nur um selber schöne Benchmark-Scores zu bekommen, also noch nicht einmal wegen ner besseren Performance in irgendwelchen Spielen. Es ist aber aus meiner Sicht bedenklich, wenn jemand seine GPU mit einem auch nur minimal zu hohem Takt auf dauer betreibt. Mehr wollte ich damit nicht sagen.
Man, man, man - wie hier gleich alle ausflippen wenn einer mal etwas vorsichtiger ist mit dem OCen :)
 
Zuletzt bearbeitet:
Kann ja jeder machen wie er möchte oder für richtig hält. Kann deine These aber nicht nachvollziehen. Sei es drum - beim Übertakten geht man immer Risiken ein. Ich nutze die Karte weiterhin mit Übertaktung. Läuft so ja auch im Heaven Benchmark.

@tecfreak:

Trittst hier ja auch niemandem zu nahe. Mein 24/7 setting wird auch eines sein, wo alles läuft. Wollte nur eben zu Bedenken geben, dass ein Benchmark alleine nicht das Maß aller Dinge ist. Zumal man nicht sicher sein kann, das hier mit dem aktuellen Treiber Heaven 100% rund läuft.

Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App



Gesendet von meinem Galaxy Nexus mit der Hardwareluxx App
 
Wollte nur eben zu Bedenken geben, dass ein Benchmark alleine nicht das Maß aller Dinge ist. Zumal man nicht sicher sein kann, das hier mit dem aktuellen Treiber Heaven 100% rund läuft.
Das stimmt wohl, vor allem jetzt bei einer so frischen Architektur mit noch nicht ganz ausgereiften bzw. optimierungsbedürftigen Treibern. Aber dazu haben wir ja diese Diskussion hier und ich finde UH3.0 kann eben ganz gut aufzeigen ob man doch nicht etwas zu weit mit dem OCen gegangen ist - jetzt mal davon abgesehen ob es u.a. auch am treiber liegt oder nicht.
 
Zuletzt bearbeitet:
du fingst an hier jeden heaven must have aufzuquatschen....deswegen reagierte ich so.ich versteh iceman`s taktik schon.für gamer ist gamestable halt wichtiger.er geht halt nen tick mehr ins limit rein.

das mach ich bei cpu`s.lass ich prime laufen, 80-82° stabil.ingame o. die wenigen progis die ich benutze laufen mit max 65-70°80-82° 24/7 ingame würd ich keiner cpu zumuten.

hardware generell hält vielleicht stock 10-15 jahre, geoced 6-10 jahre.wo du bange bist das fängt erst bei extremoc mit flüssigstickstoff an!

es hat halt jeder seine eigenen vorstellungen von oc,limit u. stabilitätstests...

übrigens lief meine alte 570 mit 932 in heaven mehrmals durch u. gamestable waren 900!


da wirds aber zeit das deine 670 kommt u.ich nen asic wert von dir bekomme! :wink:


Schmenki,bf3.merkst du nen unterschied bzgl ruckler o. flüssigeres laufen in d3?
 
Zuletzt bearbeitet:
Ich werde auf jeden Fall ausführlich berichten. Hoffe auch dass ich ein qualitativ hochwertiges Stück silizium erwische (aus der mitte des wavers?) und der Wert damit net allzuhoch ist.
 
bei höhere asic ist tendenziell höheres oc anscheinend möglich.für dich ist aber wahrscheinlich ne niedriger asic besser wegen leckströmen? ;)

ich meine allerdings immer noch das asic wurscht ist für oc aussagekraft.da gibts zuviele ausreißer in beide richtungen bis jetzt.
 
Zuletzt bearbeitet:
Also muss sagen wenn ich mir ne oc Karte kaufe dann habe ich Persöhnlich keine Lust derzeit noch selbst OC zu betreiben. Habe mir extra die Asus gtx670 DCU2T gekauft weil sie zu den schnellsten ihrer Art gehört und dabei die leiseste ist. Da ich nen bequemer Mensch bin der zu Faul ist nur wegen 2fps ingame rumzudoktorn werd ich meine Asus so lassen weil ob 65fps oder 67fps ist doch egal.
Wenn man OC betreiben möchte ist denke ich die normale Asus gtx670dcu ohne T sinnvoller. Ob man dann die selben Werte erreicht wie ne dcu2T sei dahingestellt. Aber Fakt ist die 670er sollte derzeit alles stemmen ob oc oder non oc.
Denke mit zukünftigen Treibern kommt eh noch nen Leistungsplus.

ohhh man.. wenn ich das so lese hört sichs an als hätt ichs selbst geschrieben :) ich stimm dir soooo zu. du sprichst mir aus der seele. grade das mit der faulheit, bzw. bequemlichkeit und gleichgültigkeit bzgl. der letzten restleistung ist exakt genauso bei mir :d genau deshalb hab ich mir auch die gigabyte geholt. hätt mir gern die asus top geholt, aber die war 35€ teurer, was sich für mich nich gelohnt hat. die asus is mMn mit abstand die beste graka aufm markt derzeit (als gesamtpaket betrachtet, also nicht nur! auf leistung bezogen). die gigabyte zählt aber auch zu den 3-4 besten varianten aufm markt xD (wieder als gesamtpaket betrachtet und nich nur auf leistung ausgelegt)
 
Wenn die Tabelle mal was känger wird kann man ja ganz einfach die Korrelation ausrechnen. Vor allem ASICs != 100% wären interessant.
Jetzt geben die Werte einen Korrelationskoeffizienten von 0,05, also schlechter könnte der Zusammenhang nicht sein. ;)
 
seit ihr faule säcke! :bigok:

die gb windorce3 würd ich auf platz 1,5 nach der asus dc2 sehen.also keine falsche bescheidenheit bei der bewertung der gb :wink:


marvin,anfangs dachte ich das wohl 100% das maß der dinge ist.dann las ich meine asic aus u. es trudelten noch nen paar ergebnisse rein die die widersprüchlichkeit der asic anfingen zu bestätigen.muß man mal sehen ob sich da irgendwie noch ne tendenz ergibt..

fakt ist: es bleibt glücksache.:asthanos:
 
Zuletzt bearbeitet:
Hmm, das was ich bisher gelesen habe sagt der ASIC Wert zumindest bei den NV 6xx GPUs rein garnix über die Qualität des Chips aus und erst recht garnix über dessen OC Potenzial.

Dann liest man aber solche Sachen im beyond3d.com board:
Actually, it does the opposite! We scale the voltage based on leakage, so the higher leakage parts use lower voltage and the lower leakage parts use a higher voltage - what this is does narrow the entire TDP range of the product.
Everything is qualified at worst case anyway; all the TDP calcs and the fan settings are completed on the wors case for the product range.
Stimmt das? Pfuschen die echt nur damit sich die Chips von unterschiedlicher Quali möglichst gleich verhalten?
 
Sorry, mir ist eben aufgefallen, dass das Quatsch ist was ich da berechnet habe (ASIC zu Boost-Differenz; wtf ;) )!

Also, Korrelationskoeffizient zwischen ASIC und Stock-Boost beträgt 0,56, ASIC zu OC-Boost 0,47 und ASIC zu Mem-Clock 0,53.
0,56 ist schon mal gar nicht so schlecht, bzw. lässt auf besseres hoffen. Dass es bei OC runter geht ist ja fast klar, weitere Faktoren einspielen.
Naja, wie man auf nicht-lineare Zusammenhängt fällt mir spontan nicht ein, das wäre vielleicht auch noch interessant.
 
tecfreak,was heist pfuschen?das ist seit jahren gängige praxis bei cpu`s u. gpu`s um produktionstoleranzen auszugleichen.oder meinste die schmeißen die hälfte weg?
 
Beides super Karten, ich würds vom P/L abhängig machen, hätte auch die Asus genommen, aber hab die Gigabyte damals für 368€ inkl. bekommen. Im Idle ist sie super leise und unhörbar, aber unter Last musste dir ne eigene Lüfterkurve bauen, wenn du es komplett Silent haben willst - bei Default vBIOS Lüfterkurve hört man die Lüfter unter Last sonst schon rauschen (zwar nicht störend aber eben hörbar).
 
@ jolly
ich stand vor ein paar Wochen vor genau der gleichen Entscheidung...hab mich aber letztendlich für die Gigabyte entschieden, da diese zu dem Zeitpunkt "nur" 377€ gekostet hat und, was noch viel wichtiger ist, die Karte verfügbar war ;).
Da die Karten jetzt ca. das gleiche Kosten und beide sogut wie nicht verfügbar sind, würde ich an deiner Stelle die Asus nehmen, bzw drauf warten :fresse:

Nehmen sich eigentlich von der Kühlleistung her beide nix. Die Asus soll wohl unter Last einen Tick leiser sein.
 
Naja, es sind 20€ Preisunterschied.

Die GB hat das PCB der GTX 680, 6+8pin, also bessere Spannungsversorgung, aber beim OC kommt die jedoch nicht so hoch hinaus, wie die ASUS.

Es ist die Ausstattung, die mir bei der Gigabyte so gut gefällt.

Die Lautstärke spielt natürlich auch eine Rolle, wenn beide laut werden, kommt der Peter drauf ^^

Was hat es mit der Backplate auf sich, bei der ASUS?
 
Zuletzt bearbeitet:
optik u. stabilität.kühhlungtechnisch nichts.beide sollten per eigenen lüfterprofil gut sein!
 
bei mittlerweile 20€ preisunterschied würd ich die asus nehmen ;) die gigabyte is "nur" die zweitbeste mMn. als ich die gb damals gekauft hab waren es 38€ preisunterschied und daher hab ich mich für die gb entschieden. zumal die 377€ die ich bezahlt hab auch schon nen heftiger preis waren für meine verhältnisse (bisher nur grakas um bereich der 180-250€ gekauft).

wenn dir also die 20€ gleich sind würd ich dir definitiv die asus empfehlen. ansonsten nimm die gb. die gb is auch ne wahnsinns karte. ich hab sie nun seit etwa 2 wochen glaub ich und bin bisher 100%ig damit zufrieden. den vsync bug hat man in ein oder 2 spielen so oder so mit jeder karte von daher is das auch kein kriterium das den unterschied macht. zumal der vsync bug gefixed sein soll in den 302.7 treibern richtig ?!?

heißt die nächste desktop beta sollte den fix auch drin haben
 
Ich stand auch vor der Entscheidung Asus oder GB.
Weil die Asus nicht lieferbar war habe ich die GB genommen.

Ich kann die Karte auch unter Last und unter 50% Lüfter nicht aus dem Gehäuse warnehmen...
Dabei wird die Karte max 63° warm.
Also super kühl für eine Grafikkarte :d

@Wem
Ich habe bei D3 keine Lags oder Einbrüche aber trotzdem nur 55-60FPS bei adaptiver VSync...
Ok ich spiele aber mit 8x SSAA und auf 2880x1620...

lg,
Schmenki
 
Also ich kann diese Testergebnisse nicht verstehen...

Ich habe meine GB auf 1130MHz Baseclock laufen, Boost@1277MHz und die Karte hört man nicht...

Man sollte auch beachten, dass GB nachträglich ein neues Bios auf die Karten gespielt hat um die Lüfterkurven zu optimieren.
 
@schmenki: das is wohl der vsync bug. mir is aufgefallen das ich seit dem neusten patch auch öfters drops auf 55 fps hab. sonst immer butterweich 60fps. hab aber kein adaptives vsync an da ich davon nix halte ^^

vorm letzten d3 patch hatte ich die drops nicht interessanterweise. generell hat blizzard wieder ziemlichen mist gebaut (was anderes is man ja bei d3 nich gewohnt von denen). die cpu last hat sich bei mir seit dem letzten patch beinah verdoppelt. ich hatte vorher niemals mehr als 40% last auf einem kern und auf den anderen 10-20% und jetzt gehts auf bis zu 80% hoch. naja blizzards schuld leider :(

was für ein neues bios von gigabyte ?? gibts eins zum flashen ? also ein offizieles ?
 
schau mal auf der hp von gb.

der laustärkenvergleich wurde wahrscheinlich idle gemacht.das ist thw...

ich musste die anlage richtig hoch drehen um bei der asus zumindest etwas zu hören.das kann ich mir deshalb nicht vorstellen.
 
Zuletzt bearbeitet:
Also meine Karte hatte das schon drauf.
Offiziell gibt es nocht nichts von Gigabyte.

Man merkt daran, dass man das neue Bios hat, dass die Karte im IDLE bist auf 20%Lüftergeschwindigkeit runtergeht.

Das mit dem VSync Bug muss ich mal ausprobieren.
Also VSYNC dann an machen anstatt adaptiv oder ganz ausmachen und framelimiter?

Wegen der CPU Last hatte ich bisher nicht drauf geachtet...
Aber meistens läuft mein i7 nicht mal auf dem Performance-Modus...
 
achso ok. bei mir is die karte im idle meistens bei 20-25% lüftergeschwindigkeit. heißt, ich hab das noch nichd rauf nehm ich an ?

hat sich sonst noch was verändert, oder nur die idle lüftergeschwindigkeit ? wird die karte dadurch nich etwas wärmer im idle ? ich mein ich hör die 25% auch nich und wenn ich daran 2° sparen kann, lass ich lieber das alte bios ^^ ich möchte es möglichst kühl haben xD

ja vsync ingame an. im treiber alles standard. framelimiter hab ich gesetzt auf 200fps da es sonst geruckelt hat. drekcs engine halt ^^ is nen bekannter workaround falls man gelegentliche ruckler hat. auch nur den foreground frame limiter. den background hab ich aus
 
Zuletzt bearbeitet:
So weit ich gelesen habe waren sonst die minimal Lüftergeschwindigkeit auf 40%.
Also denke ich mal, dass du schon das neue BIOS drauf hast.

Bin leider nicht zu Hause sonst könnte ich dir die genaue Version sagen.

Ob sich sonst was geändert hat kann ich dir nicht sagen ;-)

Achja und im Idle hab ich knapp 33° bei 20% Lüfter also ist das in Ordnung ;-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh