[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Der Sachbearbeiter im Finanzamt fragt irgendwann wozu man so viele Rechner hat, da isses geschickter das zusammenzufassen^^


Edit: Nicht vergessen im Nvidia-Treiber die Textur-Filter-Settings von Qualität auf Hohe Qualität zu setzen. Kostet ordentlich VRAM^^
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier ist ein Link zu einem Video mit dem Flackern von Wasser bei Skyrim:

Skyrim: Flackern mit GeForce GTX 690.wmv - YouTube

Habe bei VSync die halbe Bildwiederholungsrate gewählt, damit das Flimmern besser zu sehen ist. Bei normaler Frequenz flimmert es dann einfach doppelt so schnell. Mir tun echt schon die Augen weh.
 
Das erinnert mich an Anno auf AMD, sieht wie ein typisches AFR-Problem aus. Jeder 2. Frame hat keinen Schatten.
Ach ja. Das OSD vom Afterburner oder Fraps produzieren das auch. Schon mal geschaut ob das Flimmern weg ist wenn Du Fraps/Afterburner abschaltest?

https://www.youtube.com/watch?v=gv6ss32hi24 <--- Afterburner-Schatten-Problem.
 
Zuletzt bearbeitet:
Afterburner besitze ich nicht, sieht auch ohne Fraps genauso aus.
 
Andere Software die ein OSD ins Game einblendet bzw. die Grafik "hooked" (also eigene Routinen ausführt abhängig von der Graka-Ausgabe).
Manchmal sind es sogar lustige Stromspar- oder Tuning-Tools vom Mainboard die komische Fehler produzieren.
 
Zuletzt bearbeitet:
Hier ist ein Link zu einem Video mit dem Flackern von Wasser bei Skyrim:

Skyrim: Flackern mit GeForce GTX 690.wmv - YouTube

Habe bei VSync die halbe Bildwiederholungsrate gewählt, damit das Flimmern besser zu sehen ist. Bei normaler Frequenz flimmert es dann einfach doppelt so schnell. Mir tun echt schon die Augen weh.

schonmal versucht, den treiber auf standard-einstellungen laufen zu lassen, die skyrimprefs.ini aus dem benutzerordner zu löschen und das spiel vanilla zu starten, sodass es sich die ini neu generiert? vsync kannst du ingame nutzen und musst dazu nicht im treiber fummeln. davon ab wird der vsync bei skyrim durch die skyrim.ini geregelt ("iPresentInterval=1") und nicht durch den grafiktreiber. 1 ist an | 0 ist aus, wenn ich mich nicht irre.


(..)

mfg
tobi
 
@Jacke wie Hose
Schade das man auf deinen Screens die Ram Auslastung nicht sieht.

Unten rechts 1712MB



und hier eins mit 1808MB



@Jacke wie Hose
Is mal komisch, als ich nach dem Umbau von den beiden GTX580/3GB auf die 690 das Spiel ohne irgendwas zu ändern gestartet habe, ist es sofort abgeschmiert. Die Reduzierung auf 2xMSAA hat dann wenigstens ein spielbares Ergebnis mit lustigen Nachladerucklern beim Umschauen gegeben. Sicher dass Du da HD-Texturen installiert hast, und Deine AA-Filter-Settings greifen? Man bedenke was die Filter-Einstellungen überhaupt bedeuten und wie Deine Grakas da ausgelastet sind. Die eiern ja im Lower3D rum ohne was zu tun und produzieren trotzdem 60 FPS, und das bei 4xSGSSAA? Na.... wo liegt der Fehler? Wer sieht ihn?

Aber so macht halt jeder seine eigenen Erfahrungen.

...

Ja habe ich und das die Filter greifen sieht man doch auf den Bildern.

@Tobi
wie heißt die Gemüse Mod
 
Zuletzt bearbeitet:
bin ich mir nicht mehr sicher.. ich glaube, whiterun exterior enhanced.

hab einfach zuviel drauf, das in weisslauf und an diversen anderen stellen die bäume, licht, schatten und gras beeinflusst..

-more dynamic shadows with striping fixed
-riverwood real forest
-bettercities
-breeze home - two extra rooms
-breezehome shadow fix
-choping block / wood fires fix
-detailed cities
-enhanced distant terrain
-improved interior lightning
-lush trees
-more grass
-more village animals
-verschönertes rifton
-pure waters
-real wildlife skyrim
-realistic lightning
-gates: riverwood
-the mysterious forest
-water and terrain enhancement redux
-whiterun exterior enhanced


btw,
fehler im spiel können auch durchs mods zustande kommen, wenn zwischen den mods inkompatiblitäten oder abhängigkeiten bestehen.. der redux-mod braucht z.b. den pure water mod, wenn ich das noch richtig im kopf habe.



(..)

mfg
tobi
 
@Jacke wie Hose
Ich bin mir nicht ganz sicher. Aber 4xSGSSAA bedeutet doch theoretisch dass Deine 1920er Auflösung x4 genommen wird, und dann wieder auf 1920 zur Ausgabe zusammengestaucht wird. D.h. Deine Graka berechnet Bilder in 7680x4320.
Und das schafft sie mit 732Mhz und 40% Auslastung? NEVER. Aber ich lasse mich da gerne eines besseren belehren.
 
in diesem fall heisst SGSSAA wohl eher, dass TRSGSSAA auf alphatesttexturen angewendet wird.

supersampling mit 2x2 (2xX und 2xY) hat mit dem SG nichts zu tun, das ist OG.


(..)

mfg
tobi
 
^^ Bescheuerte Bezeichnungs-Struktur.
Bezieht sich SG (Sparce Grid) und OG (Ordered Grid) nicht nur auf die Pixel-Verwirbelung und nicht auf die ART vom SSAA? Da müsste OGSSAA ja auch nur auf die Alpha-Texturen wirken.

Ahhhh .... man kann es so oder so einstellen.

http://naturalviolence.webs.com/nvidia.htm

Erklärt es schön.
 
Zuletzt bearbeitet:
Bei Skyrim flimmern die Wasserflächen, wenn man die Kamera bewegt. Habe alles auf den höchsten Einstellungen. Wenn das Bild steht, hört das Flimmern nach 2 - 3 sec auf, so als ob es sich dann "eingeflimmert" hat. Ist mit und ohne Mods der Fall. Meine CPU ist der Intel i7-2600K. Wenn ich SLI abstelle, ist es etwas besser, aber nicht weg.

alles gemacht keinerlei probleme mit dem 310.64


Oh hat sich ja schon erledigt :)
 
Zuletzt bearbeitet:
alles gemacht keinerlei probleme mit dem 310.64


Oh hat sich ja schon erledigt :)

Es lag am "Himmel reflektieren", das man bei Skyrim ausstellen muss, damit das Flimmern verschwindet (das hatte das Spiel beim Neuschreiben der SkyrimPrefs.ini abgewählt, als es die Grafikeinstellungen fälschlicherweise nur auf hohe, nicht sehr hohe Qualität eingestellt hatte, so habe ich es durch Zufall herausgefunden). Den von dir empfohlenen Beta-Treiber habe ich auch installiert, aber damit allein war das Problem nicht zu beheben. Habe jetzt Himmel reflektieren wieder an und lasse das Spiel über das alternative Bildrendering 2 laufen. Anders geht es nicht.
 
Weiße Quadrate

Moin Moin...

Ich hatte jetzt endlich mal etwas Zeit, mit meiner neu erworbenen Gigabyte ein wenig zu zocken.

Ist wirklich ein tolles Stück Hardware. :love:
Allerdings habe ich das Problem, dass ich ab und zu nen Freeze mit weißen Vierecken bekomme.

Dabei ist die Karte nicht übertaktet aber schon ordentlich am Arbeiten. Temperaturen zwischen 72 - 75°. Der Fehler weißt ja wohl auf ein Problem mit dem Speicher hin. Nun meine Frage, muss es zwangsläufig ein Hardwareproblem sein, oder kann es auch am Treiber / Einstellungen liegen. Gezockt wird mit DS 2880x1620 und noch ordentlich Kantenglättung, damit das Baby sich nicht langweilt. Treiber ist der vorletzte Beta.

Ich hab natürlich keine Lust, die Karte zu reklamieren, aber für das Geld will ich selbstverständlich auf Nummer sicher gehen. Also Tendenz momentan klar Richtung Reklamation.

Was meint ihr?

Edit: Fehler trat bis jetzt nur in Games auf. Nach mindestens 1 Stunde Spieldauer...
 
Zuletzt bearbeitet:
kenne sowas nicht - könnte ein defekt sein.


(..)

mfg
tobi
 
Auf dich hab ich gewartet, du alter 690 Lover :fresse:

Hab mir allerdings ne andere Antwort erhofft...
 
vielleicht verstehst du mich jetzt, da du sie in der hand hattest besser und weisst was ich unter GEILES TEIL verstehe bzw warum ich wald und wiesenkarten für plastikbomber halte. dass deine nen hau hat ist natürlich fürn arsch.

wobei "hau" ja nichtmal sicher ist. vllt. liegts auch am DS. ich hatte mit DS zwar selten sorgen, aber zuletzt, mit den letzten beiden betas scheinen alle macken die farcry abschiessen, mit DS zusammenzuhängen. ich kann nativ stundenlang spielen. mit DS kommt irgendwann "far cry funktioniert nicht mehr".


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ja, die Karte an sich ist über jeden Zweifel erhaben.

Ich hab das mit dem Downsample auch extra erwähnt, da ich ohne noch keinen Crash hatte. Allerdings hab ich noch nicht soviel gezockt, daher kann s auch Zufall sein.
 
sei dir gewiss, dass die karte in einem "stabilen" system auch nicht zufällig rumspackt. das ist mir und vielen anderen noch nicht einmal passiert. allerdings musst du dir dabei sicher sein, dass deine infrastruktur "sauber" ist.

an der DS-geschichte bin ich grad dran, denn die scheint bei mir der urheber zu sein.


(..)

mfg
tobi
 
Reproduzierbar werd ich noch testen

Bis jetzt in Max Payne 3 und NBA2K 13. Mehr hab ich noch nicht gezockt. Der Fehler trat immer erst nach einiger Spieldauer auf. Bis zu dem Zeitpunkt läuft alles rund
 
Reproduzierbar werd ich noch testen

Bis jetzt in Max Payne 3 und NBA2K 13. Mehr hab ich noch nicht gezockt. Der Fehler trat immer erst nach einiger Spieldauer auf. Bis zu dem Zeitpunkt läuft alles rund

Na die sollten eigentlich nicht mehr so rumzicken,aber Assassins Creed 3 ist da noch ne Baustelle und freezt auch mal gerne

Ich würde DS mal rausnehmen da wo es geht,und auf SGSSAA wechseln,DS ist wenn SGSSAA greift sowieso zweite Garde zumal nun auch LOD Anpassung möglich ist

Eventuell auch mal den Hybrid AA Modus im Inspektor anwenden,der bringt auch teils gute Resultate mit sich in einigen Games

Unbenannt.jpg
 
Zuletzt bearbeitet:
Soo... also forcieren kann ich den Fehler nicht.

Hab mich jetzt ein Weilchen in der Gegend bewegt, wo der Fehler aufgetreten ist. Mit gleichen Einstellungen plus zusätzlich leichtes OC und ohne VSync, um die Karte noch ein wenig mehr zu reizen, aber passiert is nix

 
wenn ihr solche fehler eingrenzen wollt, sollte der treiber auf standard-einstellungen laufen und die relevanten einstellungen gehören im spiel vorgenommen. wenn dann alles rocksolid läuft, ist die chance groß, dass fehler an den nicht-konformen erzwungenen einstellungen liegen. auch wenn ich das selbst nur alle jubeljahre mal erlebe, so kommt es dennoch vor.


(..)

mfg
tobi
 
An sich hast du natürlich Recht. Aber grad bei Fehlern, die erst nach längerer Zeit auftauchen, find ich Scullys Frage nach der Reproduzierbarkeit schon sehr sinnvoll. Sonst kann die Fehleruche ja ewig dauern. Leider lässt es sich nicht so einfach nachstellen :(
 
hallo hätte eine frage bezüglich meiner GTX 690 ich krieg meine Gtx 690 einfach nicht unter voll last ich hab bei BF3 im Multiplayer nur 40-50 FPS und die GPU auslasstung liegt nur bei 65% ich verteh nicht warum

Mein system:

Mainboard: Asus M5A78L/USB 3.0
CPU: AMD FX-8120
Speicher: 8 GB
Netzteil: 650W TX Corsair
Festplatten: Samsung HD501 LJ 500GB
WDC WD320AAKS
Grafik: MSI GTX 690


grafik.jpg grafik 2.jpg
 
Zuletzt bearbeitet:
wie siehts denn mit dem standard-profil aus, ohne dass du im NVI rumfingerst? genauso? dann takte deine CPU höher.

ansonsten einfach mal im BF3-benchmark-thread vorbeischauen; ich spiele es zur zeit nicht.


(..)

mfg
tobi
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh