[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Mhh mit drei oder vier Monitoren?
Die 680er haben nämlcih angeblich das Problem, das bei drei Monitoren bzw. bei Benutzung des DP Anschlusses der idle Verbrauch hoch geht und ein anderer idle State angenommen wird (wie bei den Fermi GPUs mit zwei Monitoren)

Scheinbar hat die 690er das so nun nicht mehr -> wäre gut wenn es so wäre...
Derzeit drei Monitore. Hab heute ein DP auf MiniDP-Kabel bestellt, um den vierten Moni anschliessen zu können. Hatte keins da. Hier ein Screen:

m73aiql9.jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wirklich schade, dass ich das EBAY Angebot verpasst habe! Zu diesem Kurs hätte ich sofort zugeschlagen. Naja, dann muss ich doch noch die Computex abwarten und auf einen Preisrutsch hoffen :(!
 
Mhh mit drei oder vier Monitoren?
Die 680er haben nämlcih angeblich das Problem, das bei drei Monitoren bzw. bei Benutzung des DP Anschlusses der idle Verbrauch hoch geht und ein anderer idle State angenommen wird (wie bei den Fermi GPUs mit zwei Monitoren)

Scheinbar hat die 690er das so nun nicht mehr -> wäre gut wenn es so wäre...

Hab ne 680 mit 3 Monitoren am Laufen, einer davon ist per DP angeschlossen. Wie kann ich denn feststellen, ob das o.g Problem zutrifft und wie könnte ich das umgehen? DP gegen HDMI tauschen?!
 
Ich habs noch nicht gemessen. Es takten aber beide GPUs im idle auf 324MHz runter. Temps sind dann 36/41°C. Bei Diablo III unter Last sinds ca. 58/62°C. Werd demnächst noch Witcher 2 im surround testen...

Hast du DIII auf 5760x1200/1080 getestet kannst du ein Frameverlauf (alles max) Posten?
 
Ja, ich habs auf 5760x1200 laufen. Wie kann ich den Frameverlauf posten? Mit Fraps? btw: Im WSGF habe ich gelesen, dass im Fullcreen-Windowed-Mode SLI und CF nicht funktionieren.
 
Ja, ich habs auf 5760x1200 laufen. Wie kann ich den Frameverlauf posten? Mit Fraps? btw: Im WSGF habe ich gelesen, dass im Fullcreen-Windowed-Mode SLI und CF nicht funktionieren.

Frameverlauf geht mit Fraps, da kann man das aufzeichen :)

Das ist aber doch immer so, oder? CF/SLI geht nur im Fullscreen Modus.
 
Kann ich dir nächste Woche ne Antwort drauf geben denke ich.

Rein theoretisch müsste Triple Sli gehen mit ner 680er da ja deckungsgleich in der Ausführung wenn der Treiber mitspielt

Wie sieht es jetzt eigentlich aus.
Gehen eine 690 und eine 680 im SLI mit einander ?

Wie warm wird die Karte bei euch ?

Wie verhällt sich die Karte mit EVGA Precision X ? Kann mann da auch ein bisschen hoch gehen ?
Power Target , GPU CLock und Mem Clock ?

Gruß
Martin
 
Zuletzt bearbeitet:
Frameverlauf geht mit Fraps, da kann man das aufzeichen :)

Das ist aber doch immer so, oder? CF/SLI geht nur im Fullscreen Modus.

Das ist wohl nicht ganz korrekt, es gibt auch Windowed Fullscreen, also Fenstermodus ohne Rand. Dann geht es auch wie bei DIII z.b.
Was ist denn nun mit dem Frameverlauf?

Überlege ja von GTX580 SLI auf die 690 zu wechseln....
 
Das ist wohl nicht ganz korrekt, es gibt auch Windowed Fullscreen, also Fenstermodus ohne Rand. Dann geht es auch wie bei DIII z.b.
Was ist denn nun mit dem Frameverlauf?

Überlege ja von GTX580 SLI auf die 690 zu wechseln....

hm, kenn mich da nicht aus, aber gerade über D3 haben sie im WSGF berichtet, dass das nur halbherzig umgesetzt wäre und dank dieser "windowed fullscreen" halbgaren Lösung kein CF/SLI möglich wäre. Kann mich aber auch irren :)


Das hier meinte ich: wsgf

Are you kidding me, you put in support (against your expressed intentions) but gimp it to windowed mode? Why is it gimped you ask? In windowed mode you can't use AMD CrossFire or NVIDIA SLI. So the people who are running 3x the normal pixels, and could use the extra GPU horsepower, are prevented from using it. On top of that, gaming performance has always suffered when playing in windowed mode. So not only do users not get to use the extra HP in their GPU, but they are being penalized at the same time.
 
Zuletzt bearbeitet:
@scully:

Schon umgebaut? :) Wenn ja, gibt es Bilder von den Karten und vom kompletten System? :)
 
@scully:

Schon umgebaut? :) Wenn ja, gibt es Bilder von den Karten und vom kompletten System? :)

Hab zu viel zu tun hier in Paris und im Reisebus Grafikkarten umbauen finden meine Fahrgäste nicht so toll:d

Am Dienstag wenn ich wieder zu Hause bin werd ich das in Angriff nehmen vorausgesetzt meine holde Maid nimmt mich nicht zu sehr in Anspruch:)

Wie sieht es jetzt eigentlich aus.
Gehen eine 690 und eine 680 im SLI

Mit dem Treiber der da z.Zt zur Verfügung stand klares nein
 
Zuletzt bearbeitet:
Schade das diese Karte eine Bandbreiten und Speicherbremse ist.
Leider kann man die Leistung nicht in jeder Situation aus fahren da der Speicher in 3840*2160 limitiert.
War so kurz da vor die zu kaufen.
 
Zuletzt bearbeitet:
Schade das diese Karte eine Bandbreiten und Speicherbremse ist.
Leider kann man die Leistung nicht in jeder Situation aus fahren da der Speicher in 3840*2160 limitiert.
War so kurz da vor die zu kaufen.

Ich weiß nicht was du da erzählst aber das sagt kein einziges Review aus

Nichtmal in 3D Vision Surround ergo 3Full HD Displays passiert das

Und die Karten bekommt man auch ausgelastet ohne 8faches SGSSAA was zudem in Full HD problemlos möglich ist

http://pcper.com/reviews/Graphics-C...al-GK104-Kepler-Greatness/3D-Vision-and-3D-Vi


play all of these games at the settings indicated OVER*30 Hz with 3D*Vision enabled at 5760x1080 - using a single graphics card.*
I am impress.*
 
Zuletzt bearbeitet:
Erstmal 3 D vision soround ist nicht 3840*2160.
Erechne die pixel mit *

2 tens ich habe dir schon vor 6 monaten gesagt das ein Cpu limit in full HD vor liegen wird in der neuen Fertigigung du hast es
Verneint.
3tens Benchmark ist nicht ingame und die sagen null über nach lade ruckler aus und ich bevorzuge nicht AMD oder NvV letzes jahr erst 580 SLI genutzt.
Und wenn der GK110 ein kracher wird gehe ich wieder zu NV.
Ich glaube du kannst das gar nicht beurteilen da du nicht in diesen Auflösungen testest.
 
Zuletzt bearbeitet:
Erstmal 3 D vision soround ist nicht 3840*2160.
Erechne die pixel mit *
.

Rechne Full HD mit nem 8fachen Sample dann weißt du wo du mit der Karte landest

Zweitens Full HD ist nicht gleich Full HD wenn man zusätzliche Features u Möglichkeiten der Karte nutzt rutscht du dort auch nicht in ein CPU Limit

Abgesehen davon hast du mit mir sicher nicht über eine Limitierung der CPU geredet
 
Ja habe ich und wie sonst ist NV der Heilige Gral und die GTX 680 im sli wird perfekt aus gelastet.

Und ja unter 3840*2160 wird unter Msaa die Karte vom Speicher immer mehr im ram aus gelastet du hast dies bezüglich echt nicht viel plan aber das ist ok nur weil du 4*Gtx480 hattest weist du noch lange nicht was in 3840*2160 ab geht.
 
sorry,aber das ist doch nur ne sc....s. Hardware.
Da braucht man sich doch nicht so reinsteigern,gibt noch andere sachen im Leben.
 
Schade das diese Karte eine Bandbreiten und Speicherbremse ist.
Leider kann man die Leistung nicht in jeder Situation aus fahren da der Speicher in 3840*2160 limitiert.
War so kurz da vor die zu kaufen.

Ja habe ich und wie sonst ist NV der Heilige Gral und die GTX 680 im sli wird perfekt aus gelastet.

Und ja unter 3840*2160 wird unter Msaa die Karte vom Speicher immer mehr im ram aus gelastet du hast dies bezüglich echt nicht viel plan aber das ist ok nur weil du 4*Gtx480 hattest weist du noch lange nicht was in 3840*2160 ab geht.

Wie kann es eigentlich sein das du vorher von 3840*2160 redest und nun plötzlich noch MSAA ins Spiel bringst?

Meine Aussage bezog sich ganz klar auf deinen ersten Post und diese Auflößung schafft der "Speicherkrüppel" mit links u 40 Fieber ob nun per Downsampling oder nativ an welchem Display auch immer

Von zusätzlichen MSAA Samples war Anfangs nie die Rede

Zudem wer bei solcher Pixeldichte auch noch MSAA braucht...darf jeder halten von was er will

---------- Post added at 20:53 ---------- Previous post was at 20:52 ----------

und drittens sollte mann die Karte selber testen bevor mann sie schlecht macht.

Dito;)
 
Zuletzt bearbeitet:
Es ist wie immer bla bla siehe meine screens in diversen 7970 threads und.
Ich beurteile immer fair du leider nicht und bist vor eingenommen da her gebe ich nichts auf dein Wort.
 
Zuletzt bearbeitet:
Was haben deine Screenshot bitteschön mit der Aussage oben zu tun?

Die Aussage war nunmal totaler Quatsch und das weißt du auch,nicht um sonst hast du sie dann durch den MSAA Zusatz nachträglich abgeändert

Die Karte hat kein Problem mit dieser Auflösung!

Zudem willst du mir nicht ernsthaft weiß machen das du diese Auflösung auf dein FullHD??? Display per DS herunter brichst und dann noch zusätzlich Myriaden von MSAA Samples drüber legst
 
Zuletzt bearbeitet:
Das mit BF3 muß ein Bug oder schlechte Programmierung sein wenn die CPU nur zwischen 34-40% ausgelastet ist. Egal bei welchem Takt ;)
Eine hochgetaktete CPU ist mit 34% @ 4,7gig natürlich effizienter als mit 34% Standardtakt, deswegen auch der fps Anstsieg. Wäre das nicht würden alle Sys das Game rocken und es gäbe auch keine Einbrüche mehr bei Caspian.

Weiß einer ob für die 690 eine 2x4GB Variante ansteht?
 
so sicher sehe ich das nicht, denn die 590 gab es auch nur in 2x1,5GB, trotz Classy :fresse:
..wenn was kommt, dann haben die aus alten Fehlern gelernt :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh