[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keiner von euch den Green-Video-Bug (youtube)?
Wenn nicht wird es bei mir wohl von einer anderen Anwendung produziert, bei 301.42 jedenfalls gibts den nicht.




Habe mir jetzt 5 YouTube Videos angesehen 720p, 480p. Alles bestens, verwende aktuell den 306.02 aber ich hatte auch mit den 305 oder 304 keine Probleme.
 
Hardware Beschleunigung habe ich auch an.
Als Player habe ich sonst nur den Media Player Classic installiert, sonst nichts.
 
das problem hatte ich auch öfter mal mit meiner (alten) ati konfig (in single oder crossfire modus war egal )
ich glaube eher das es am flashplayer liegt .
 
Das Problem ist die Hardwarebeschleunigung im Firefox, der Witz ist das dieser Fehler sowohl bei AMD wie auch NV manchmal auftritt aber nicht immer.
 
ich habe heute, inspiriert durch ne freie stunde in frischer abendlicher luft, nochmal kurz mit ein paar durchläufen schnullermark, die takt und tempmessung meines rechners nachgeholt. das wetter in den letzten tagen hat ja etwas gegengewirkt.

i7 2600K @5GHz (fix, no C-states), 16GiB DDR3 1600, Win7 x64, FW 306.02
GTX690 +130MHz|+500MHz GPU/RAM | Powerlimit @135%

P16.811*

*scheint die absolute kotzgrenze zu sein. läuft komplett fehlerfrei durch. auch drei, vier fünfmal im loop. keine bunten pixel, keine striche und kein flackern, doch noch 5MHz mehr (GPU oder RAM ist dabei egal) -> treiberreset
maxclock GPU1 -> 1189 MHz
maxclock GPU2 -> 1202 MHz
maxclock RAM1 -> 3506 MHz
maxclock RAM2 -> 3506 MHz

jeweils mit 1.175V lt. precision log | highest temp 80°C GPU2, 79°C GPU1

CPU-kerne kamen lt. coretemp-messung auf max. 76|82|80|74 °C (core 1-4).

cpu-z-5gfgj1e.jpg

coretemp-5gj0jn2.jpg


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was hast du denn bei der Lüftersteuerung eingestellt, Auto oder manuell?

edit: hier läuft der Schnullermark (Ergebnis dafür viel zu niedrig) sogar mit GPU+150/MEM+700/Powertarget 135%/Lüfter 95% anstandslos durch ohne zu murren, der AvP Benchmark ebenfalls...



... ich sollte das Ding vielleicht unter Wasser setzen damit die Temps stabiler bleiben ab 80°C fängt sie an den Takt zu senken.
 
Zuletzt bearbeitet:
lüfter lief auf manuell (75% @75°C) allerdings "auto" macht keinen unterschied..


(..)

mfg
tobi
 
Die Karte wird schon verdammt heiß!

Evtl lohnt es sich den neuen Arctic zu verbauen?
Bei der 680 leistet dieser sehr gute Arbeit.


Sent from my iPhone using Hardwareluxx app
 
meine? nö.. 80°C ist völligST okay für die karte - das ist maximales OC!!!. blaires quad-SLi übersteht selbst 90+°C im zockbetrieb dauerhaft..

merkwürdige paranoia, die hier so rumgeistert.. 2GiB sind zuwenig.. 80°C sind zu heiss.. merkt ihr eigentlich die einschläge noch? ernstgemeinte frage!



(..)

mfg
tobi
 
Zuletzt bearbeitet:
80° ist doch gar nichts, für max. OC schon gar nicht.
Meine 8800GTX hatte so lange ich die hatte immer über 80°. Auf der 690 sitzen immerhin 2 GPUs die abwärme produzieren und dafür dass da nur ein 80mm Lüfter dreht sind die Temps ausgezeichnet.
Mein 3570K wird bei 4,5GHZ auch um die 65 - 70° warm, für die meisten schon zu viel. Ich weiß echt nicht wie die Temperatur Paranoia herkommt, solange alles läuft passt das doch. Klar, kühler ist immer besser und der Arctic kühlt sicher gut aber der Kühler seiht billig aus.
 
80 grad ist kein Thema meine hat aber 92 grad erreicht und dass ist mir schon zu viel.


Sent from my iPhone using Hardwareluxx app
 
Is halt nur so dass die Graka aus dem Turbo geht wenn sie eine bestimmte Temperatur erreicht. Natürlich ist das keine Alarm-Temp. Aber man könnte schon drauf achten :-)
 
Ja wenn die Performance drunter leidet wird's natürlich ärgerlich, da stimm ich dir absolut zu.
 
Meine 680 taktet erst ab 80 grad runter.
Die 690 ging allerdings schon bei 70 grad nach unten.


Sent from my iPhone using Hardwareluxx app
 
klingt beides kaputt. kann ich auch nicht bestätigen.
vllt. faule tools im hintergrund? muss ja, sonst könnte man das schlecht protokollieren.

btw,
gilt für die drei GTX680 und die derweil aktuell gesteckte 690.

die keplers gehen bei mir schön brav dann mit takt und spannungen zurück,
wenn die leistung nicht benötigt wird :-) das ist ja das tolle an NVs powermanagement.
pl2xecxf.jpg



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Macht meine auch!
Mit der 580 waren es 440 Watt und mit der 680 330 Watt bei mehr Leustung.


Sent from my iPhone using Hardwareluxx app
 
MAHLZEIT

Benötige eure Hilfe und Fachkompetenz!

So Punkt ist eine GTX 690
http://geizhals.de/772226

oder

2 x EVGA GTX 680 4GB
http://geizhals.de/774965



Bei Geschichten werden Unterwasser gesetzt.

So mein Hauptpunkt ist zocken auf 5760 x 1080 jegliche Games BF3 usw.

So Pro und Contra Bitte

Danke im voraus.

Gruß
 
MAHLZEIT

Benötige eure Hilfe und Fachkompetenz!

So Punkt ist eine GTX 690
ASUS GTX690-4GD5, GeForce GTX 690, 2x 2GB GDDR5, 3x DVI, Mini DisplayPort (90-C3CHL0-T0UAY0YZ) Preisvergleich | Geizhals Deutschland

oder

2 x EVGA GTX 680 4GB
EVGA GeForce GTX 680 FTW+, 4GB GDDR5, 2x DVI, HDMI, DisplayPort (04G-P4-3687) Preisvergleich | Geizhals Deutschland



Bei Geschichten werden Unterwasser gesetzt.

So mein Hauptpunkt ist zocken auf 5760 x 1080 jegliche Games BF3 usw.

So Pro und Contra Bitte

Danke im voraus.

Gruß

542344_378353862236383ts2k.jpg



(..)

mfg
tobi
 
Hey Tobi,

Danke für die schnelle rasche Antwort, ich denke mal auf dem Bild wurde alles gesagt^^

Danke schönes Wochenende

Aber bei den GTX 680 hab ich aber 4 GB auf beiden Karten ist wohl besser oder ?
 
da scheiden sich die geister. klar, man kann sicher szenarien bauen, wo das so ist.

ich habs hier grad irgendwoanders gepostet -> die karte verhungert in hohen auflösung nicht zwingend am speicher - auch den GPUs geht oberhalb vom 3840x2160 pixeln (maximales, was ich je gestestet habe) die puste aus.



(..)

mfg
tobi
 
da scheiden sich die geister. klar, man kann sicher szenarien bauen, wo das so ist.

ich habs hier grad irgendwoanders gepostet -> die karte verhungert in hohen auflösung nicht zwingend am speicher - auch den GPUs geht oberhalb vom 3840x2160 pixeln (maximales, was ich je gestestet habe) die puste aus.



(..)

mfg
tobi

Das heißt jetzt welche Karte ist nun empfehlenswert?
 
für ein aktuelles spiel wie BF3 unter maximalen einstellungen im surround-3DV-setup mit 3x FHD (1x 5760x3240 1080)??

zwei von den GTX690 oder drei bis vier GTX680.. bei einzelkarten kann man ruhig die 4GiB-varianten nehmen. die fressen zwar
mehr strom und man hat auch nicht zwingend einen vorteil, aber was man hat, das hat man..

1x GTX690
2012-09-16 12:47:03 - bf3 (bandar wüste, 3840x2160, ultra, No MSAA)
Frames: 6550 - Time: 117141ms - Avg: 55.916 - Min: 35 - Max: 92

3DV würde ich da nicht zuschalten, weil es nochmals 40-50% leistung kostet. dass man diese einstellung (3840x2160) überhaupt noch sinnvoll nutzen kann (bei 35 minframes) liegt am verbesserten mikrorucklerverhalten. mit älteren karten oder im CF sind 35fps klar zu wenig.

edit:

grad noch BF3 mit 3DV getestet.. sind 60fps average unter FHD. denke nicht, dass man ein triple-surround-setup unter zwei GTX690 mit ultra-einstellungen im shutterbetrieb spielbar bewegt bekommt.






(..)

mfg
tobi
 
Zuletzt bearbeitet:
für ein aktuelles spiel wie BF3 unter maximalen einstellungen im surround-3DV-setup mit 3x FHD (1x 5760x3240)??

zwei von den GTX690 oder drei bis vier GTX680.. bei einzelkarten kann man ruhig die 4GiB-varianten nehmen. die fressen zwar
mehr strom und man hat auch nicht zwingend einen vorteil, aber was man hat, das hat man..

1x GTX690
2012-09-16 12:47:03 - bf3 (bandar wüste, 3840x2160, ultra, No MSAA)
Frames: 6550 - Time: 117141ms - Avg: 55.916 - Min: 35 - Max: 92

3DV würde ich da nicht zuschalten, weil es nochmals 40-50% leistung kostet. dass man diese einstellung (3840x2160) überhaupt noch sinnvoll nutzen kann (bei 35 minframes) liegt am verbesserten mikrorucklerverhalten. mit älteren karten oder im CF sind 35fps klar zu wenig.

edit:

grad noch BF3 mit 3DV getestet.. sind 60fps average unter FHD. denke nicht, dass man ein triple-surround-setup unter zwei GTX690 mit ultra-einstellungen im shutterbetrieb spielbar bewegt bekommt.






(..)

mfg
tobi

Super Tobi ,

Das wollte ich wissen, also wird es jetzt erstmal eine GTX 690 und dann demnächst eine zweite.

Aber mit eine werde ich denke gut bedient sein und erfolgreicher als mit momentan 2 gtx 580.

Gruß
 
kein problem.. und gern geschehen..

wenn wir mal bei 3DV bleiben -> 1x 690 reicht für besagte 60fps average bei FHD - dann braucht man derer zwei für zwei bildschirme mit der gleichen auflösung und eigentlich drei für ein surround-setup aus drei HD-displays.. ergo: wird ein wunsch für big-kepler @SLi oder triple-SLi bleiben. das sehen wir mitte 2013 oder richtung ende, falls es wieder eine MGPU-ausführung geben wird.

und ja, besser als mit zwei thermies bist du dann bestimmt aufgestellt.. nicht nur bezogen auf frames.


(..)

mfg
tobi
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh