[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
@scully

das gleiche wollte ich dich auch gerade fragen.

Nein, bei mir war auch keine Schutzfolie drüber. Sind auch leichte schrammen zu erkennen die aber so gut wie nicht auffallen. Sieht man nur wenn mans gegen Licht hält.
Die Tüte hatte anstatt Siegel nur Tesafilm.

Jupp war bei mir auch so dann scheints wohl normal zu sein bei Gigabunt.Hatte schon so ne leicht pumpende Halsschlagader das die eventuell angetestete Exemplare abgeben

By the way the Kepler Family:rofl:

1_m8huqh.jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
scully1234,ging das den schnell zu öffnen mit dem brecheisen?lagen da nv-unterhosen zum benchen bei?:fresse:

man,man,3000€.noch trolliger wirds aber nicht?
 
Habe die Karte mal ohne Frischluftzufuhr betrieben. Corsair H80 hat auch nochmal warme Luft dazu gepustet wo ich den i7 2700k auf 4,5 Ghz getaktet habe.
Karte war dann auf 86°C und hat ne menge von der heißen Luft im Gehäuse verteilt. Das ganze Metall hat sich sich richtig stark erhitzt!
Hab jetzt Gehäuselüfter runter geschnallt und CPU wieder auf 4,2 Ghz zurück getaktet. Warme Fönluft im Gehäuse ist nicht cool.

Beim längeren spielen hätten sich bestimmt 87°C eingependelt die max zu sehen waren. Nach den Optimierungen bin ich bei ca 82°C gelandet. Naja, hab ja auch noch Dämmmatten in den Seitenwänden.

Referenzkarten die, die ganze Luft nach draußen pusten eignen sich wohl doch eher für die Meisten PC Gehäuse.
 
Zuletzt bearbeitet:
demnächst fahren alle vor facebookfotos zur bank u. dann: meine villa,mein golfplatz,mein butler,mein ferrari,meine yacht...

muß jeder selber wissen was er macht o. wie ers findet.ich find sowas nur dekadent.nun denn...
 
@Riddick123: Gut wäre wenn man mit dem Geld was "Gutes" tut aber was wären wir hier ohne solche "Verrückten". Dann wärs doch nur halb so spannend. Manche können sichs leisten, manche nicht und machens trotzdem ;) ...wobei ich über den Sinn von zwei 690ern auch gerade nachdenke. Eine sollte doch für alles reichlich ausreichen.
 
Zuletzt bearbeitet:
...wobei ich über den Sinn von zwei 690ern auch gerade nachdenke. Eine sollte doch für alles reichlich ausreichen.

Triple Display 3D Vision Surround = halbierte Framerate

Schau hier hin und teile die Frames nochmal

skyrim6.jpg

Dann weißt du wo du mit so einem Setup landest und dabei ist noch nichtmal SGSSAA im Spiel


muß jeder selber wissen was er macht o. wie ers findet.ich find sowas nur dekadent.nun denn...

Die 680er werden schon wieder ihren Weg in den Marktplatz finden,und ja es ist dekadent aber wir sind hier doch im Luxx und nicht auf Kindergeburtstag:d
 
Zuletzt bearbeitet:
ich würde zugern mal wissen wollen ob man mit einer 690er bf3 in 1920x1080 mit allen maximalen grafik und treibereinstellungen und maximalen aa und af konstant und sicher über 55fps spielen kann. es gibt ja bei den b2k maps so manche stellen wo mit der ultra gitterqualität mit einer 7970 oder 680 die frames auch in den ruckelkeller geht. kann das mal ein besitzer testen ? am markantesten und einfachsten ist der blick vom tv sender zu baustelle bei sharqi
 
Zuletzt bearbeitet:
Jungs wer solche Karten Kauft der hat bestimmt keine Geld sorgen und wenn einer sich das leisten kann warum nicht. p1sko bedankt sich schon mal für die Benches :wink:

Jetzt mal im ernst jeder von uns würde zwei von diesen Monster haben wollen nur nicht jeder kann sich so was Leisten und die die meckern und maulen sind nur neidisch sonst nichts.

Ich finde es genial und immer wieder beeindruckt wieviele Kranke unter uns gibt in HWL die gerne einpaar Teuronen Geld reinstecken für ihre Hobby warum auch nicht.

So ich habe meine 7970 Heute auch Verkauft jetzt suche ich auch eine GTX690 oder doch Lieber zwei GTX680, SLI isch komme :asthanos:
Hatte nie ein SLI System gehabt immer CF jetzt wird Zeit die seiten zu wechseln :rofl:
 
Zuletzt bearbeitet:
@p1skop4T

Also HD7970 Bereits verkaufst und zwecks dem SSAA DX10/11

Vermisst dies dann nicht mit der LOD Anpassung.
Oder wechselst später erneut zu AMD?
Dachte Du bleibst bei "Unseren Image, Quality Karten, bzw. AMD treu :-)
Viel Spaß mit deinen Neuen NV Karten!
 
Bin einfach nur begeistert, was Nvidia da gezaubert hat :)

Satte Performance und einfach nur angenehm von der Lautstärke. Kein Vergleich zur Vorgeneration.


Das leuchtende Logo ist das sogenannte I-Tüpfelchen :d
 
Warum wird immer alle so kritisch gesehen wenn sich jemand so ein geilen Rechner zusammen baut? Andere verzocken ihre Kohle andere geben das Geld für Kippen aus. Ich finde es cool wenn Scully so eine Kiste zusammen schraubt.Ob man sowas braucht muss jeder selbst für sich enscheiden. Ist nicht böse gemeint DSL Cowboy WEM:wink:
 
@p1skop4T

Also HD7970 Bereits verkaufst und zwecks dem SSAA DX10/11

Vermisst dies dann nicht mit der LOD Anpassung.
Oder wechselst später erneut zu AMD?
Dachte Du bleibst bei "Unseren Image, Quality Karten, bzw. AMD treu :-)
Viel Spaß mit deinen Neuen NV Karten!

Ich komme wieder keine Frage ich will mal SLI Testen für mich selber und meine eigene erfahrung Sammeln. Ich verspreche dir ich komme in 1 Monat wieder zurück auf AMD. Ich will halt wirklich SLI Testen Berni mehr nicht und Downsampling. mach dir keine Sorgen ich bin eine Hardware Nutte ich wechsele oft mein System nach halben oder einem Jahr :lol:

---------- Post added at 23:12 ---------- Previous post was at 23:07 ----------

nein, eine ist ja ok.aber alles andere...


Wem wen er sich das leisten kann warum nicht ???? Wo liegt das Problem er könnte auch 8 davon haben er wird schon wissen was er will. Eventuell drei Karten zurück schicken und den besten behalten oder Quad SLi oder oder.
Scully du bist echt verückt du Hund :asthanos:
 
Zuletzt bearbeitet:
ja, wegen der 3...

viel spaß mit euren karten.
 
Mein i7 2700k lief auf 4,2 ghz und das war noch zu wenig für die Karte im BF3 MP! Hab alles auf ultra und im Treiber auch vieles hoch gestellt. Die Auslastung dümpelte da irgendwo bei 80% rum. Nichts übertaktet. Lief mit Boost bei 2x1045 Mhz

Hab auf 4,5 Ghz erhöht ums besser auszulasten. Jetzt gehts auch mal in Richtung 90%.
In allen anderen Spielen die hauptsächlich im SP gespielt werden sollte ein Sandy i5@4 Ghz reichen.
 
Dann stellt sich mir wohl die Frage ob ich als Alternative zum 680 SLI nicht doch lieber ne 690er anschaff.
Nachdem bei der 690 2 GPUs im Vollausbau verbaut werden (im Gegensatz zu bisherigen Dual GPU Karten), die Temps tendentiell besser sind als beim 680 SLI, der Verbrauch geringer ist und die Performance nur marginal schlechter spricht wohl einiges für die 690.
Preislich nimmt sich's ja kaum was.
 
Also die GTx690 schaut wirklich schön aus ich hoffe ich bekomme diesen Brecheisen auch dann klopfe ich bei meinem Nachbarn und sage ich habe den größten :lol:
 
@DSL Cowboy hab mir mal die Mühe gemacht und dir deinen Wunsch erfüllt

Full HD Ultra Settings 64 Server Sharqi Turm

Minimum


Durchschnitt
 
@scully: das ist aber nett, dankeschön. also kann man damit BF3 endlich durchweg 100% fluschig spielen wenn alles auf max ist. wobei ein blick etwas nach rechts zur baustelle noch interessant wäre und post aa im bf3 optionen sollte man abstellen sonst siehts zu unscharf aus.
 
Zuletzt bearbeitet:
@scully: das ist aber nett, dankeschön. also kann man damit BF3 endlich durchweg 100% fluschig spielen, egal in welcher situation. sehr schön.



Die 6Kern CPU trägt da sicherlich auch noch ihren Teil dazu bei,wie es mit "klein" Sandy aussieht k.A,aber sehr viel sollte das nicht auseinanderklaffen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh