[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Mit Framelimiter auf 58 und einer 680 wird das zur ruckel orgie
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es ist zur Zeit nicht möglich die 100FPS zu halten da keine zur Zeit erhältliche CPU in BF3 @ FullHD im Multiplayer genug Leistung da für liefert da kann man sich auch 10 Karten rein bauen.
Es gibt immer vereinzelt Scennen wo die CPU der Knackpunkt ist und nicht die Grafikkarte(ten)
Dort geht es dann schon mal runter bis auf ca. 68-75 FPS und eine schlechte GPU load ist in dem Moment vorhanden weil die Cpu kränkelt egal ob nun 4 Kern oder 6 Kern CPU bei 5GHZ in dem Moment ist dann nur noch ein sehr hoher CPU Takt entscheident.
Darum Spreche ich oft da von das bei einem CF/SLI eine 6GHZ Sandy oder eine CPU mit einer besseren Leistung pro MHZ ideal wäre mit meinem 7970er CF@1350MHZ hätte ich die 100 FPS so halten können.
Ideal für mich auch deswegen weil ich einen 120 Hertz Tft habe und so zu mindest meine 100 Hertz immer ordentlich befeuern könnte im Multiplayer bei BF3.
 
Zuletzt bearbeitet:
Haswell soll ja leider auch nur 10% drauflegen.
Dass wären dann gerade einmal 20% zur sandy.
Gut wenn haswell dann 5,8 GHz schafft passt die Sache wieder :-) glaub ich aber nicht dran.


Sent from my iPhone using Hardwareluxx app
 
Haswell soll ja leider auch nur 10% drauflegen.
Dass wären dann gerade einmal 20% zur sandy.
Immer hin wäre das schon was und heutige Karten im CF / SLI könnten ihre Leistung besser entfallten.
OC muss man halt sehen hoffentlich wird es nicht so schlecht wie beim IVY.
 
Wenn man es genau nimmt ist jedes (fast) erhältliche Spiel Heute in einem CPU Limit welches um die 100FPS Average liefert wenn man CF oder SLI nutzt und da bei kein SSAA/SGSSAA /Downsampling oder multi Monitoring nutzt in FULL HD.
Und es gibt einige Titel die sich im 100 FPS Bereich betreiben lassen.
Das hat noch nicht mal was mit DICE zu tun.

Das kann aber auch alles selber testen wen man ein Multi GPU Gespann besitzt und sich den Afterburner instaliert oder mit GPUz mit loggen lässt.
Wo bei ich aber bei Single Playern auch ein Freund von Bildqualität bin und auf die oben genannten Möglichkeiten zu greife und so mit das CPU Limit nur in Multiplayer bestand hat..
 
Zuletzt bearbeitet:
Immer hin wäre das schon was und heutige Karten im CF / SLI könnten ihre Leistung besser entfallten.
OC muss man halt sehen hoffentlich wird es nicht so schlecht wie beim IVY.

Da kannst du dir auch gleich einen Sandy-E kaufen die kriegt man auch ganz gut OC. ;)
Bei BF3 sind mir hohe FPS auch wichtig, allein der Movements wegen, wirken doch selbst 60fps auf einer Single GTX680 vergleichsweise träge, ist es mit SLI + 120Hz dann wirklich ein Genuss.
 
60fps @120Hz wirken dann träge, wenn man mit vsync spielt. ohne sync und mit 70 oder 80fps average ist das spielgefühl @120Hz/tracefree 80% (auf meinem asus vg278 und für mein dafürhalten) völlig in ordnung. mit zwei karten zeigt das OSD zwar 100 oder 110fps an, aber wirklich geiler wird das spiel dadurch nicht. gut, man könnte dann mit SSAA rumspielen, aber dann spielt es sich wirklich bescheiden. das sind teuer erkaufte, sinnfreie und folgekostenverursachende zusatzframes.

für die 100 frames-fetischisten bliebe auch noch die möglichkeit das spiel ein jahr beiseite zu legen u. auf BF2 auszuweichen :-)

btw,
ich bin ranglisten-technisch durch SLi nicht besser geworden und ich bin auch nicht abgestiegen durch den verzicht auf die zweite karte.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Blaire
Da kannst du dir auch gleich einen Sandy-E kaufen die kriegt man auch ganz gut OC.
Wenn der Sandy _E mir mehr FPS liefern würde wie mein normale Sandy wäre der schon verbaut aber leider erziehlt man mit dem E keine bessere Auslastung habe mich mit einigen usern hier kurz geschlossen gehabt und deren System werkeln genau so im CPU Limt bei Multi GPU.

Sandy E ist zur Zeit raus geschmissenens Geld es sei den man brauch die CPU für andere Dinge alls Spielen.
Ich warte bis zum Haswell der wischt in Games dann mit den Sandys ob 1155 oder 2011 Sockel den Boden der Ivy wäre für mich auch kein Fortschritt da ich beim 2700K 5GHz habe und so mit so schnell unterwegs bin wie ein IVY mit 4,7-4,8GHZ in Games.
 
Wasser, wird auch nicht sonderlich warm. Aber mir behagt der VCORE der dafür nötig ist nicht wirklich.

Ja ich muss da auch die Zähne zusammen beißen bei @5Ghz

Nur wäre meiner da locker bei 85Grad@ normale H2o Kühlung

Ist mir in Kombination mit der Vcore dann doch zu viel zum Benchen:)

Mit dem Chiller ist's dann wenigstens halbwegs erträglich bei beiden Variablen
 
Zuletzt bearbeitet:
threadtitel schrieb:
NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

die perfekteste grafikkarte, die ich je verbaut habe.. wertig und präzise verarbeitet.. laufruhig.. zum niederknien.

sli_vs_sliw4fde.jpg




eine NV referenzplatine und kein china müll,
mit chinabauteilen, wo drei chinalüfter krampfhaft
gegen den hitzetod der wald-und-wiesen GPUs
ankämpfen


und so siehts im jetzt und hier final aus:




(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ja die 690 ist so die besten mgpu karte die es wohl jemals gab aber auch recht teuer!
Mit 4gb vram wäre es dann die überkarte schlecht hin! Aber 2gb sind einfach etwas mager... Naja es kommt ja auch drauf an was man zockt und ob man viele mods nutzt..
 
ist mit TDP 300W nicht zu realisieren und beim GF104 auch völlist unnötig.


(..)

mfg
tobi
 
Naja, ich hab schon vor meinem Skyrim gesessen das mit zwei GTX580/3GB wundervoll auf 60 FPS lief und mit der GTX690 kurz 30 FPS brachte und dann abgeschmiert ist, weil die Karte den VRAM-Mangel in meinen Settings nicht kompensieren konnte.

Natürlich ist es davon abhängig was man damit macht bzw. wie man seine Software einstellt, und genau so ist es für bestimmte Klientel auch nötig mehr als 2GB VRam zu haben :-)
 
Zuletzt bearbeitet:
ich werde da in erster linie von vier dingen geleitet.

-> 1. es gibt keine größere karte
-> 2. meine software ist komplett legal und die paar spiele, die ich so habe, laufen (siehe anhang, fehlt nur diablo3)
-> 3. beamer, TFT, HDTV -> alles macht bei 1080p dicht | downsample geht bis 2880x1800 mit kepler (läuft! auf allen geräten mit allen spielen)
-> 4. beamer und TFT sind 120Hz-geräte und ich hab 5 shutterbrillen für mich und meine freunde -> wo liegt wohl mein schwerpunkt?



meine spiele | auf beiden rechnern

der speicher ist mir in meinem leben genau einmal ausgegangen.. vor 5 oder so jahren in GTA. skyrim ist mit "unseren" mods - ich schreibe unseren, weil meinen freundin es auf der 7970 @beamer spielt, während ich bf3 auf dem i7 @schreibtisch laufen habe - so stabil, dass es noch NIE abgeschmiert ist. und auf dem i7 liegt die komplett identische installation wie auf dem AMD (vers. 1.7.7. mit dawnguard, den zwei offiziellen HD textur-paketen + 46 Mods ausm workshop). skyrim wird zickig, wenn man mit enb-schrott rumspielt, aber das wird GTA auch. und situationen zu konstruieren, die so schlecht harmonieren, dass es crasht weil die karte überläuft ist affig und das macht keiner, der den PC zum spielen angeschafft hat. ich für meinen teil muss mich für mein geld (das ist nicht wenig) bewegen (das ist sehr viel) und dementsprechend knapp ist meine freizeit. darum hocke ich auch *zuruhrschielt* nachts um 1 vorm PC und setze mich mit leuten auseinander, die auf der schon immer missverstanden speichermengenproblematik rumreiten.

billiger wäre es gewesen eine zweite HD7970 zu kaufen -> dann hätte ich 3GiB -> AAAABER: will ich gar nicht haben. ichbin schon so rausgewachsen aus den videospielen, dass ich sogar regler zurückdrehen oder auf mods verzichten würde, wenn sie nicht laufen. die karte (gtx690) soll keine rekorde für andere leute aufstellen - sie soll meinen anspruch decken und das teil geht mir im moment nichtmal mit ihrem geräusch auf die eier. bin rundum pleased. HDTV muss ich auch nicht mehr abziehen... das bild ist - trotz anstecken aller geräte - genau da wo es sein soll.. auch beim POST, toll!!!

grundsätzlich zeigt das erste bild in post 404 schon alles relevante an.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die 690 ist ne Super Karte.
Leider war diese mir zu laut im idle.
Auch das deutlich höhere inputlag bei aktiviertem vsync, im Vergleich zur 680, hat mich gestort.

Als max temp hatte ich 91 grad auf GPU 1 und 78 auf gpu2. Komisch oder?

Der max Stromverbrauch lag bei moderaten 520 Watt.




Sent from my iPhone using Hardwareluxx app
 
Is schon pervers was die an heiße Luft ins Gehäuse bläst.
 
Ist schon interesant wie die Meinungen auseinander gehn.
 
meine CPU-temp ist drastisch gefallen - über 10°C

2 meiner 3 radiatoren arbeiten ja mit case-innenluft und blasen sie raus. mit den zwei GTX680@sli konnte ich die CPU auf 90°C kriegen - jetzt liege ich unter gleichen bedingungen bei 80°C. jeweils maxwerte aus coretemp.

und das obwohl wir hier grad 30°C raumtemp haben.. ist ja seit 2 tagen wieder hochsommer.


(..)

mfg
tobi
 
Willst du deine CPU Grillen?
Meine wird mit 68 grad schon warm aber 80-90 ist zu viel.

Stört dich die idle lautstärke nicht?


Sent from my iPhone using Hardwareluxx app
 
Ab 70 Throttelt doch der Turbo (war mir jedenfalls so).

Edit: Der Graka, nicht der CPU.
 
Zuletzt bearbeitet:
meiner bei 98°C - also quatscht mir zu der CPU kein kind in den bauch. der turbo ist gar nicht an und ich arbeite mit dauertakt und dauersaft. nix mit c-states oder EIST/speedstep/whatever.

coretempqyxdt.png



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Alles andere als gesund!


Sent from my iPhone using Hardwareluxx app
 
who cares? der läuft so seit ich ihn habe.. über 1 jahr.. ohne BSOD.. ohne freeze.. und eigentlich auf 5GHz. das setting mit 4.9 habe ich mir auswürfeln müssen, weil ich mit den beiden GTXen @SLi mit meiner temp nicht mehr klar kam. jetzt ist alles wieder im lot.

wem 24/7-betrieb als stabilitätstest nicht reicht, dem empfehle ich intels cpuburntest.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich hatte auch mit der Karte geliebäugelt. Aber irgendwie ist sie nicht ganz stimmig.
Ich kann mir nicht helfen, aber wenn schon SLI mit 6xxern, dann würde ich zu 2x 680 4GB greifen. Limitieren einen die 2 GB RAM nicht irgendwann?
Will sagen, so eine Karte wird doch ausgreizt werden wollen mit hohen Auflösungen und Qualitätssettings ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh