[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Kennt sich jemand mit dem Bios der 690 aus?

Ich würde gern den Lüfter auf 20% freischalten!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nach meiner Kenntnis ist es derzeit noch nicht möglich, mit dem NVIDIA Firmware Update Utility (Version 5.118) eine GTX 690 zu flashen. Was jedoch geht, ist das Speichern der zwei Bios(?se?). Es gibt im Netz ein italienisches Tutorial, welche HEX-Werte im Bios zu ändern sind (Lüfter, GPU- RAM-Takt), jedoch ist dies auf die GTX 680 zugeschnitten. In wie fern sich das Bios ähnelt kann ich nicht sagen, daher schon aus diesem Gesichtspunkt bei der nicht gerade günstigen Graka sehr riskant.
Ich warte ebenfalls täglich auf Neuigkeiten in Bezug auf eine neue Version des Nibitor bzw. NVIDIA Firmware Update Utility um das Bios mit den gewünschten Taktraten zu editieren und zu flashen, jedoch gibt es von der Seite mvktech.net diesbezüglich nichts neues zu berichten.
 
Weist einer wo man am besten die GPU kühler vernickeln kann?
Ich habe vor mir einen Aquagrafx zu holen und eventuell zu vernickeln, bei mir in der Nähe finde ich nur eine Firma und die wollen ca. 50€ für haben.
 
Laut Computerbase ist das aber wie du siehst nicht so ;)
Vielleicht liegt das auch am PLX Chip.

Laut NVidia gibt es keine Unterschiede , alle Kepler Karten nutzen Flip-Metering in Hardware. Fermi Karten unterstützen es auch, allerdings basierend auf einer Softwarelösung.
 
Das interessiert mich auch, leider hab ich dazu keine näheren Informationen. Ich werde aber nochmals anfragen, wann es mehr Infos dazu gibt.
 
Also ich sehe die mikroruckler in bf3 bei 90 fps deutlich.
Da fühlt sich meine 680 bei 50 fps deutlich besser an.

Die idle Lautstärke ist leider auch ein wenig laut.

Am meisten stört mich aber das gelegentliche flackern zum beispiel die Bäume auf Caspian boarder.
Dass war mit der gtx590 auch schon so!


Sent from my iPhone using Hardwareluxx app
 
Echt? Welche Map, Treiber und Ingame Settings? Ich empfinde BF3 eigentlich erst mit SLI so richtig spielbar, das bestätigen auch meine Messungen die FPS-Accuracy ist praktisch identisch einer Single GTX680.
 
<-- hat das Bäume-Flackern meistens nur wenn Fraps oder oder OSD vom Afterburner laufen.
 
Fraps hatte ich an ja.
Brauch ich aber auch zwecks aufnehmen.

Habt ihr bf3 schon mal mit ner singlekarte gezockt?
Dass sind meiner Meinung nach Welten.

Nur mit vsync waren die ruckler weg.


Sent from my iPhone using Hardwareluxx app
 
Fraps hatte ich an ja.
Brauch ich aber auch zwecks aufnehmen.

Habt ihr bf3 schon mal mit ner singlekarte gezockt?
Dass sind meiner Meinung nach Welten.

Nur mit vsync waren die ruckler weg.


Sent from my iPhone using Hardwareluxx app
Also kein Plan was bei dir falsch läuft
im vergleich zu einer übertakteten GTX 480
füllt sich mit GTX 690 alles geschmeidiger an und flüssiger
Eventuell kommt deine CPU nicht hinterher
Oder es ligt ein Treiber Board Problem
 
Glaub ich nicht!
Dass sind schon mr.
Bemerkt man besonders bei schnellen mausbewegungen.


Sent from my iPhone using Hardwareluxx app
 
Fraps hatte ich an ja.
Brauch ich aber auch zwecks aufnehmen.

Habt ihr bf3 schon mal mit ner singlekarte gezockt?
Dass sind meiner Meinung nach Welten.

Nur mit vsync waren die ruckler weg.


Sent from my iPhone using Hardwareluxx app


in bf3 sind mir die MR auch nur aufgefallen, wenn ich im SLi mit unter 100fps unterwegs war (einstellungssache) - adaptiver sync @100Hz war im grunde okay.. aber irgendwie war es auch sinnlos - das spiel war der ausschlag, warum ich die zweite karte zurückgeschickt habe. unterm strich war SLi mit den 680ern schon einiges angenehmer als mit anderen karten in grauer vorzeit, aber ich wollte keinen faden beigeschmack für 500+ euro haben und habe dann aus dem bauch raus entschieden. mit beiden karten wurde es auch gierig heiss im case - ohne zusatzlüfter vor den karten war an spielen nicht zu denken. geschlossen konnte ich das system zum abschalten bringen - da lief dann nichtmal mehr der schnullermark durch. ne 690 hätte ich auch noch gern getestet, aber dazu müsste ich erst die vorhandene karte abstoßen und da ist mir der wertverlust zu hoch (hab über 500€ pro karte gezahlt und die teile sind noch keine 4 wochen alt). hin und herbauen kostet auch irgendwie zuviel zeit :-(

jetzt daddel ich bf3 wieder mit ner singlekarte und hab ohne sync ein ganz gutes spielgefühl bei ca. 70-80fps average. ich spiele nur karkant. temps sind jetzt auch ohne zusatzlüfter super und der verbrauch ist um satte 230W gefallen. werde ich mich anfang des nächsten jahres drüber freuen.. vllt. komme ich von 152€/mtl. stromkosten wieder runter.. *daumendrück*


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ging mir auch so!
Die gtx590 war viel schlimmer.

Hitze Probleme hatte ich zu keiner zeit.



Sent from my iPhone using Hardwareluxx app
 
Glaub ich nicht!
Dass sind schon mr.
Bemerkt man besonders bei schnellen mausbewegungen.

Gerade aus diesem Grund ist ja SLI GTX680 im Vorteil, weil du auch deutlich mehr FPS bekommst und damit ein smootheres Gameplay. Um dies auf einer Single GTX680 zu erreichen, müsste ich schon auf Medium Details@FullHD zurückschalten. Und das ist keine Lösung. Lass mal Fraps mitloggen und lass dir den MR-Factor errechnen, dann wirst du sehen das sich Single und SLI kaum unterscheiden. ;)
 
Naja ein gtx680 ist nur minimal schneller als eine 690.
Meine 690 hat auch 1200 MHz und 6800 Speicher geschafft.
Leider ist meine CPU zu schwach um die Karte in bf3 voll auszufahren.
Für 100 fps hat es aber gereicht.

Jeder nimmt ruckler anders wahr.
Ich bin halt empfindlich und die mr der 690 stört mich genauso wie die lautstärke im idle.


Sent from my iPhone using Hardwareluxx app
 
Probier mal FPS Limiter auf 60FPS zu setzen und schau wie es sich mit MR ist, das muss besser sein als 120FPS da die anstände kürtzer sind
 
Mit Vsync waren die mr weg.
Aber dafür dann eine 690 welche durch das Sli in bf3 flackert und laut ist?

Irgendwie waren mir die 1000€ zu schade.
Und noch eine Wasserkühlung zulegen ist mir zu teuer.
Auch das rumspielen mit Bits und Profilen geht mir auf Dauer auf ie Nerven. Die zeit habe ich leider nicht!

Ein Versuch war es Wert.



Sent from my iPhone using Hardwareluxx app
 
Mit Vsync waren die mr weg.
Aber dafür dann eine 690 welche durch das Sli in bf3 flackert und laut ist?

Irgendwie waren mir die 1000€ zu schade.
Und noch eine Wasserkühlung zulegen ist mir zu teuer.
Auch das rumspielen mit Bits und Profilen geht mir auf Dauer auf ie Nerven. Die zeit habe ich leider nicht!

Ein Versuch war es Wert.



Sent from my iPhone using Hardwareluxx app

ich bin da ganz bei dir :-)


(..)

mfg
tobi
 
Mit Vsync waren die mr weg.
Aber dafür dann eine 690 welche durch das Sli in bf3 flackert und laut ist?

Irgendwie waren mir die 1000€ zu schade.
Und noch eine Wasserkühlung zulegen ist mir zu teuer.
Auch das rumspielen mit Bits und Profilen geht mir auf Dauer auf ie Nerven. Die zeit habe ich leider nicht!

Also irgendwas muss bei dir schief laufen BF 3 flackert definitiv nicht weder mit einer noch mit 2 Karten

Das was HisN geschrieben hat hast du zur Kenntniss genommen?

Ebenso wenig wie du "MR" merken würdest, nach den sich darstellenden Messresultaten müsstest du bei ner Singlecorekarte ebenso aufschreien,da die Ergebnisse sehr eng bei einander liegen

Egal was da schief läuft bei dir,das muss andere Gründe haben
 
ich hatte das auch - weiss nur nicht obs mit dem WHQL oder mit dem letzten beta war. SLi aus | SLi an und alles war wieder okay. wegen diesem verhalten habe ich ja angefangen, die karten einzeln zu testen - so richtig schön mit ein und ausbau.. tragisch wars nicht.

der unterschied vom spielgefühl mit 70-80fps (1x GPU) oder mit 100-120fps (2x GPU) ist für mich vernachlässigbar - oder anders: die negativa überwiegen (preis, hitze, energieverbrauch, fummelei). ich hab die 500 flocken von der karte in eine neue bettmatratze investiert :-) - hab letzte nacht auf einer wolke geschlafen, einfach toll.


(..)

mfg
tobi
 
Hat jemand von euch tatsächlich 4 Monitore an die Graka geklemmt (und jetzt kommts) neben einem 3-Moni-Vision-Surround-Verbund den 4. Monitor als erweiterten Desktop unter Windows aktiv?
Geht das überhaupt? (Bei meinem SLI aus zwei 580ern war es jedenfalls nicht möglich, auch wenn genug Anschlüsse vorhanden sind^^, da musste einen 3. Graka in den Rechner).
 
Laut Computerbase ist das aber wie du siehst nicht so ;)
Vielleicht liegt das auch am PLX Chip.

Frametimes sagen bei Nvidiakarten wenig aus, denn Fraps kann das Framemetering nicht erfassen/messen. Sprich, das was gemessen wird, stellt nicht (unbedingt) das dar, was man nachher präsentiert kriegt. Quelle: Techreportartikel zum Thema MR, Aussage von Scott Petersen, Nvidia.
 
Naja ein gtx680 ist nur minimal schneller als eine 690.
Meine 690 hat auch 1200 MHz und 6800 Speicher geschafft.
Leider ist meine CPU zu schwach um die Karte in bf3 voll auszufahren.
Für 100 fps hat es aber gereicht.

Wir drehen uns im Kreis, ohne genaue Angaben zu Maps, Settings , Frametimes ist so eine Aussage wertlos. Lass Fraps mitloggen auch über einen längeren Zeitraum, ich hab zwischen 93-97% Accuracy. Eine SingleGPU erzeugt auch keine besseren Werte.

Jeder nimmt ruckler anders wahr.
Ich bin halt empfindlich und die mr der 690 stört mich genauso wie die lautstärke im idle.

Eben. Es kann sich um unterschiedliche Gründe handeln warum Ruckler auftreten, es muss sich nicht immer sofort um Mikroruckler handeln. Es kann von vielen Faktoren abhängen, CPU, Board (DPC-Latency) , Server , Ping, Punkbuster etc.
 
Zuletzt bearbeitet:
Hat jemand von euch tatsächlich 4 Monitore an die Graka geklemmt (und jetzt kommts) neben einem 3-Moni-Vision-Surround-Verbund den 4. Monitor als erweiterten Desktop unter Windows aktiv?
Geht das überhaupt? (Bei meinem SLI aus zwei 580ern war es jedenfalls nicht möglich, auch wenn genug Anschlüsse vorhanden sind^^, da musste einen 3. Graka in den Rechner).


690Ports2.png

AnandTech - NVIDIA GeForce GTX 690 Review: Ultra Expensive, Ultra Rare, Ultra Fast

Sollte funktionieren

Allerdings war hier noch keiner so verwegen 4Displays zu klemmen,also eröffne du den Präzedenzfall:d
 
da für 3DV der hdmi-ausgang wegfällt (die können per se keine 120Hz @FHD) müssen die drei surroundschirme über DVI + DVI + DP angeschlossen werden und am besten gleich sein, denn mit unterschiedlichen geräten, die zwar die gleiche auflösung haben aber sonst verschieden sind, hat der surround-assistent seine mühen. schlimmstenfalls hat man drei angefügte desktops. mein test mit beamer + 2 TFTs respektive mit HDTV+beamer+TFT hat für surround nicht funktioniert. obwohl alle geräte 720+1080p -tauglich sind.


(..)

mfg
tobi
 
@scully1234
Ich hab die 4 Displays rumzustehen, warte nur auf einen aktiven Dual-Link-DP-Adapter um den 30" anzuklemmen. Probieren geht über Studieren :-)
 
da für 3DV der hdmi-ausgang wegfällt (die können per se keine 120Hz @FHD) müssen die drei surroundschirme über DVI + DVI + DP angeschlossen werden und am besten gleich sein, denn mit unterschiedlichen geräten, die zwar die gleiche auflösung haben aber sonst verschieden sind, hat der surround-assistent seine mühen. schlimmstenfalls hat man drei angefügte desktops. mein test mit beamer + 2 TFTs respektive mit HDTV+beamer+TFT hat für surround nicht funktioniert. obwohl alle geräte 720+1080p -tauglich sind.


(..)

mfg
tobi

Die 690er hat keinen HDMI "nur" 3x DVI Dual Link fähig und 1xDP :)

GeForce_GTX_690_bracket_575px.jpg
 
Zuletzt bearbeitet:
@scully1234
warte nur auf einen aktiven Dual-Link-DP-Adapter um den 30" anzuklemmen.

sündhaft teuer die Dinger aber nichts im Vergleich zu 4x30Zoll:haha:


Bin gespannt welche Hindernisse Nvidia da wieder eingebaut hat,wäre ja echt mal ein Ding wenn das "Plug and Work" funktionierte
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh