[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Kann ich nicht glauben ;)

Selbst ein User mit einem 3930K OC berichtet vom selben Problem, und da ist nun definitiv genug Power vorhanden.
Beelzebub1984 hat leider vollkommen recht. 3930K wird dieses Problem nicht lösen können, denn die zusätzlichen Kerne bringen hier leider nichts, weil es in erster Linie um den Takt des ersten Kerns geht, auf dem der "Hauptthread" lastet. Habe dieses "Phänomen" nun genauer beobachtet - am besten sich die Daten in den OSD mit AIDA64EE liefern lassen, so hast Du den kompletten Überblick wann was genau limitiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beelzebub1984 hat leider vollkommen recht. 3930K wird dieses Problem nicht lösen können, denn die zusätzlichen Kerne bringen hier leider nichts, weil es in erster Linie um den Takt des ersten Kerns geht, auf dem der "Hauptthread" lastet. Habe dieses "Phänomen" nun genauer beobachtet - am besten sich die Daten in den OSD mit AIDA64EE liefern lassen, so hast Du den kompletten Überblick wann was genau limitiert.

Was heisst denn für dich limitieren? Ich lasse mir die Werte ingame anzeigen mittels HWInfo OSD und erkenne kein CPU Limit.
 
Zuletzt bearbeitet:
@desty ist aber so das Problem habe ich auch mit meinem cf. ich brauche auch eine 6 GHZ Cpu.
Senk doch mal den Takt der Grafikarte auf 700MHz.

Dan wirst sehen wie die Last steigt.
Mfg.

Ich denke eher, dass die 690 und auch dein CF mit Euren Mini-Auflösungen völlig unterfordert sind. Was soll da schon kommen, wenn ihr brachialste Grafikpower auf 1920x1080 loslasst.:hmm: Perlen vor die Säue nennt man das....
 
Bei 925 mhz bekomme ich mein cf in full hd bei bf3 und 5Ghz ausgelastet bei 1350 Gpu nur dann wenn ich ssaa da zu schalte.

Ich weiss wie das läuft bin seit einiger Zeit sli und cf nutzer.
Nur wenn hier jemand schreibt das er seine 690 nicht ausgelastet bekommt kann man ihm das ja wohl mal erklären.
Ich kann meine 1350 mhz in jedem Spiel aus fahren bei 100 % Sei es durch ssaa oder downsampling.

Verzichtet man auf diese feature in Full HD wird es schwierig das zu schafen.
Fdsonne Powerplay und ich haben hier dies bezüglich auch mal einen Thread da für ins leben gerufen.
Es ist einfach so das wenn man in Bf immer Maximale Fps haben will mindestens eine 6GHZ Cpu herhalten muss.
Bevor AMD und NV ihre neuen Karten gebracht haben sagte ich schon das in full HD eine richtig Hammer fiese cpu her muss leider ist IVY zur Zeit ein Flop geworden in der Hinsicht auf SLI und CF das gilt auch für den Sandy E.

MFG
 
Zuletzt bearbeitet:
Dass die GTX690 in der Auflösung unterfordert ist kann schon gut sein bzw. ist sicherlich auch der Fall. Ich hatte eigentlich ja auch vor mir einen grösseren Monitor zuzulegen.

Mir wäre das auch ziemlich egal wenn die GPU zurzeit bei 70% rumdümpelt nur das Problem ist die FPS sind zu tief! Wenn die Graka so unterfordert ist müsste sie ja mehr oder weniger konstant gute FPS liefern können aber das Geruckel da im MP von BF3 ist einfach nur ein schlechter Witz. Im SP wird sie ja auch immer zwischen 90 und 100% ausgelastet und liefert ne Hammer Performance.

Man siehe sich nur mal diesen Thread an, 35 Seiten und lauter User mit Performance-Problemen. FPS drop since patch - Forums - Battlelog / Battlefield 3
 
Zuletzt bearbeitet:
Nein sie ist nicht unterfordert stell deine cpu auf 4ghz und schau mal an der selben scene auf einem vollen server wo du vorher 65% Gpu load hattest wieviel dir dann über bleibt.
Oder wie ich sagte senkt den takt der Gpu auf 700 und schaut wie die load steigt.
Oder mach ssaa oder downsampling rein sie wie load steigt und die fps an der stelle wo die 65 % Load waren steigt und die fps gleich bleiben ausser an stellen wo du vorher schon 100% Load hattest wird die fps sinken.

Es liegt defenetiv ein CPU limit oder wenn überhaupt Treiber problem vor.
Es ist doch ganz einfach das selbst zu testen als halt lose erklärungs versuche zu machen ohne es getestet zu haben.
 
Ich kann auch wie ich es bereits getan habe die CPU Auslastung anzeigen lassen und feststellen, dass die Threads zu keinem Zeitpunkt die 100% Marke berühren. Was für einen Beweis soll ich mir denn noch selber liefern?
 
Das ist ja das verückte so kannst du es nicht prüfen aber ich sage dir irgendwo ist zu mindest 1 Kern bei um die 80 und das ist schon der Tot du musst es anders Testen nimm den multi runter von 47 auf 40 und du wirst sehen das es noch schlimmer wird genauso würde es besser werden wenn du an der stelle 300 mhz mehr hättest egal.
Wenn björn das hier liest rauf er sich die Haare ne björn.
 
Habs grad auf nem 32Server getestet und war nie auf 80%^^ Die CPU dreht Däumchen :)
 
Was heisst denn für dich limitieren? Ich lasse mir die Werte ingame anzeigen mittels HWInfo OSD und erkenne kein CPU Limit.
CPU limitiert wenn einer der Kerne nahe 100% kommt. Meist ist das der erste - 100% wirst Du jedoch nie sehen (ob es an HT liegt?). Meist ist schon bei knapp 90% Schluss.
Beispiel: In Skyrim in meinem Haus (Innenraum, keine NPCs, ausser Lydia) habe ich eine schöne ~90% (+ -5%) Auslastung an allen Kernen, ca. 99% Auslastung beider GPUs und ~500 FPS!!!
Gehe ich dann raus zum Drachenfeste und blicke Richtung Marktplatz von oben, dann habe ich ~30% beide GPUs, 89% CPU Kern1, restliche Kerne zwischen 20 und 60% -> trotz ~55% CPU Last ein CPU-Limit! Und darf dabei unter 60 fps auf meinem 120 Hz Monitor rutschen... Also bräuchte ich am besten einen 9 GHz Sandy:coolblue: ODER eine ordentliche Multi-Kern Optimierung für das Spiel:heul: ...na was kommt wohl als erstes :fresse:
 
Zuletzt bearbeitet:
Und was passiert mit deiner Gpu Load wenn du auf 4ghz runter stellst vergiss das mit der cpu auslastung.
Das ist einmal rechner neustarten multi auf 40 setzen und dann ingame gpu load anschauen ist doch wohl echt nicht schwer.
 
Ich muss den rechner nicht mal neu starten, bis 5,6GHz macht das problemlos mein asustool.

Und GPU limitiert nicht wenn ein Kern bei 100% load ist.

Marius was diskutierst du auch immer wieder, lass sie doch bei ihrem irrtümlichen glauben und gut ;)


Sent from my iPhone using Hardwareluxx app
 
Zuletzt bearbeitet:
möchte für meinen 27Zoll 2560x1440 jetzt auch entweder ne GTX690 oder aber ein SLI Gespann aus Zwei GTX670 kaufen, welche zusammen mit einem Intel 2500K betrieben werden sollen. Reicht mein bequiet E9 480Watt Netzteil aus oder benötige ich doch ein 580Watt bzw. sogar 680Watt Netzteil? Würde mich über ne kurze Antwort sehr freuen. Das SLI Gespann ist in den meisten Tests ja verdamt nahe an der GTX690
 
Ich werde heute Abend mal den GPU oder den CPU-Takt senken um zu sehen, wie sich das auf die GPU-Auslastung auswirkt.
Was mir ein wenig komisch vorkommt: Im Allgemeinen gefiel mir die Performance mit meinem GTX580 SLI-System besser als jetzt mit der GTX690.
Da hier anscheinend, wie ihr sagt, ein CPU-Limit vorliegt muss ich ja davon ausgehen, dass die Performance sicherlich in etwa gleich gut sein müsste.
Ich habe umgerüstet, einerseits weil bei mir die eine GTX580 aus unerfindlichen Gründen den Geist aufgegeben hat und weil mir die Temperaturen der zweiten Karte nicht gepasst haben. Von der GTX690 konnte man nur Gutes lesen, weniger Verbrauch, tiefere Temperaturen, nur 1 Karte, weniger Microruckler, super Performance,... Und deshalb habe ich mich dazu entschlossen, die GTX690 zu kaufen.

Das mit der Performance kann auch daran liegen, dass die fps nun viel mehr schwanken, aufgrund der nicht konstanten GPU-Auslastung, welche sich ja zwischen 60% und 100% bewegt. Alles in allem ist die Performance wahrscheinlich in etwa dieselbe, es kommt mir aber schlechter vor, weil die fps eben so stark schwanken. Dies ist aber nur eine Vermutung meinerseits. VSync aktivieren ist zurzeit sinnlos, da sich nVidia leider nen Fehltritt geleistet hat, welcher erst mit dem nächsten Treiber im Juni gefixt wird. (VSYNC Causing HUGE stuttering problems 680 - NVIDIA Forums)
Die Karte hat sicherlich (und logischerweise) mehr Power als 2xGTX580, wenn man sie einfach mal mittels Benchmark testet.

Ich konnte die Karte bisher nur im BF3 Multiplayer testen und ich denke auch, dass die Performance im Multiplayer im Allgemeinen nicht wirklich gut ist. Im Singleplayer läufts wie geschmiert, im MP muss die CPU halt viel berechnen und da muss evtl. noch bisschen was gepatcht werden.
Viele User beschweren sich ja auch im Battlelog-Forum, von daher ist es vielleicht nicht nur ein Hardware-"Problem".

Mir stellt sich nun aber doch die Frage ob ich nicht wieder zurück gehen soll auf 2xGTX580, vielleicht mit besserer Kühlung oder aber einfach warten, bis die Treiber für die Kepler Modelle ausgereifter sind.
 
Zuletzt bearbeitet:
möchte für meinen 27Zoll 2560x1440 jetzt auch entweder ne GTX690 oder aber ein SLI Gespann aus Zwei GTX670 kaufen, welche zusammen mit einem Intel 2500K betrieben werden sollen. Reicht mein bequiet E9 480Watt Netzteil aus oder benötige ich doch ein 580Watt bzw. sogar 680Watt Netzteil? Würde mich über ne kurze Antwort sehr freuen. Das SLI Gespann ist in den meisten Tests ja verdamt nahe an der GTX690



Das mit 2x670 und 480W kannste schonmal vergessen! 2x175W GPU+95W CPU=445W und da ist nichtmal der Rest vom PC mitgerechnet! OC'en willste die CPU ja auch sicher da du kein CPU Limit willst also kannste da mit ca 105W für CPU rechnen also 455W.
Volle 480W haste ja eh nicht zur verfügung wenn ich mich nicht täusche. Ich habe ein E9 580W und das langt für GTX 690 und OC'ed i72700k.
 
Zuletzt bearbeitet:
Nabend


Eine Woche im sozialistischen Ausland und was erspähen heute meine müden Augen als ich nach Hause kam:love:

vid-nx690_p1-700x700miubq.jpg



Schick schick das Koolance Teilchen gleich 2 mal geordert

Koolance.jpg

Let the Umbau started:asthanos:
 
Neja, so wirklich preislich günstig ist das aber immernoch nicht...
Man schaue mal auf die Preise auf die minimal schnelleren 680er, da bekommt man wenn die Händler liefern können schon für unter 900€ entsprechende Leistung. Eigentlich müssten die Preise im Grunde deutlich niedriger sein. Ich denke mal so um die 800-850€ wären aktuell angepasst.

Wobei scheinbar aktuell die Lieferung der GK104 GPUs etwas ins Stocken geraden sind... Die Shops der 680er haben die Karten idR auch nicht lieferbar...
 
so schauts aus... Im Moment kommt man, sofern man die nötigen Slots auf dem Brett frei hat, mit zwei 670er wohl preislich deutlich besser weg... Auch wenn diese in Sachen ALUs hinterher hinken, entspricht der Leistungsunterschied vllt ~8-10%... Dazu kommt, das der Werks Turbo bei den 670ern ziemlich hoch ausfällt, was die 680er und die 690er so nicht behaupten können. Der Unterschied ist ziemlich gering... So ne 690er könnte mir als alleinige Karte zwar auch gefallen, aber zwei 680er bilden da aktuell leider schon die Speerspitze des möglichen.

Ich bin mal gespannt, wenn NV das MR Problem bei den diskreten Karten weiter in Angriff nimmt. Reviews zur Folge solle ja das MR Problem bei der 690er ziemlich gering sein. Theoretisch müsste das auch auf normales SLI zutreffend anwendbar sein.
 
, aber zwei 680er bilden da aktuell leider schon die Speerspitze des möglichen.
.

Davon würde ich nicht ausgehen.

GtX 680 4Phasen Versorgung,Gtx 690 5Phasen +höheres Powerrtarget +aggresiverer Turbo.Bei entsprechender Kühlung und potenten Netzteil(fern ab der 300Watt Spezifikation)sollte da schon mehr gehen wie bei einer Referenz 680er

---------- Post added at 11:44 ---------- Previous post was at 11:39 ----------

Neja, so wirklich preislich günstig ist das aber immernoch nicht...
...

Für fast 100% mehr Leistung zur 680 ist das schon im Rahmen

Selbst für die 590er veranschlagte man damals nahezu den doppelten Preis und diese kam weder im Vollausbau noch konnte sie auch nur im Ansatz die Werte zweier 580er erreichen

Schau dir die Asus MarsII an die das Kunststück schaffte wo sie sich preislich eingefunden hatte

Naja,will noch abwarten was AMD in Sachen Dual GPU hervorbringt,und wie das preislich ausschaut.

Chipdesign teurer,höherer Verbrauch,aufwendigere Kühlung,geringere Leistung,einhalten der Spezifikationen von 300Watt bei Referenzdesign


Kann man sich an allen 5Fingern abzählen was da kommt,wenn da überhaupt was kommt


Volker hat da treffende Worte gefunden auf "Wolles" Beitrag

Exakt das ist überall schon die plausibelste Vermutung. Die 7990 war wohl schon quasi fertig, dann kam die 690 raus mit ner fetten Leistung und nem super Kühler. Wenn man dagegen nur die zweitschnellste Karte mit einem weniger guten Kühler antreten lässt, gewinnst du eben für die Preise von 850 Dollar nicht einen Blumentopf. Das Ding dürfte damit jetzt wohl zur Nachbesserung sein und AMD hat den Partnern erlaubt, eine 7970 X2 zu bauen. Die könnte durch intelligente Designs und schön Spiel mit hohen Taktraten eben auch mal über der 690 liegen. Natürlich auf Kosten der Leistungsaufnahme, aber bei 850 Dollar interessiert das wohl am wenigsten^^
 
Zuletzt bearbeitet:
Hab mal ne Frage:

Ich bin von einer AMD 5870 auf die GTX 690 gewechselt mit Treiber 301.42. Jetzt ist mein mittlerer Monitor leicht gelbstichig, obwohl er vorher genau gleich mit den anderen war. Kabel habe ich bereits ausgeschlossen, da ich diese testweise schon getauscht habe. Jemand eine Idee?
 
Schreib das hier nochmal da ich dazu noch nix gefunden hab und meine eigenen noch nicht auseinander gebastelt habe um nachzusehen


Gibt's schon Äußerungen zum verbauten Spannungsregler bei der 690?

Ist der auch eine 0815 Außführung wie bei der Referenz 680er und per Software nicht ansprechbar?

Hab mal ne Frage:

Ich bin von einer AMD 5870 auf die GTX 690 gewechselt mit Treiber 301.42. Jetzt ist mein mittlerer Monitor leicht gelbstichig, obwohl er vorher genau gleich mit den anderen war. Kabel habe ich bereits ausgeschlossen, da ich diese testweise schon getauscht habe. Jemand eine Idee?

Eventuell setzt der Nvidia Treiber da andere Farbwerte wie der AMD einfach mal nachjustieren
 
Zuletzt bearbeitet:
Danke. Evtl. liegt es auch daran, dass der bisher mit Displayport an einer ATI hing. Hab mal ein DP-Kabel bestellt - brauch ich sowieso für den vierten Monitor.

Zur GTX690 - muss sagen - die Karte ist wirklich sehr leise - bin begeistert.
 
Davon würde ich nicht ausgehen.

GtX 680 4Phasen Versorgung,Gtx 690 5Phasen +höheres Powerrtarget +aggresiverer Turbo.Bei entsprechender Kühlung und potenten Netzteil(fern ab der 300Watt Spezifikation)sollte da schon mehr gehen wie bei einer Referenz 680er

Hast du bei er 690er 2x5 Phasen?
Weil mit zwei 680er bist du ja bei 2x4 Phasen...
Und klar, mit Kühlung geht einiges. Aber das ist zumindest für mich uninteressant, da ich idR nur mit Luft kühle (da erstens kein Platz für Wakü im Case, und zweitens mir persönlich zu teuer)
Es ging ja auch um den Vergleich mit den 670ern, da geht schon einiges mit den kleinen Kepler GK104. Ich finde den Unterschied als marginal. Und NV begeht nicht den "Fehler" wie sonst immer, die kleine HighEnd Karte mit weniger VRAM zu bringen, was oft doch für Unmut gesorgt hat...

Für fast 100% mehr Leistung zur 680 ist das schon im Rahmen

Selbst für die 590er veranschlagte man damals nahezu den doppelten Preis und diese kam weder im Vollausbau noch konnte sie auch nur im Ansatz die Werte zweier 580er erreichen

Schau dir die Asus MarsII an die das Kunststück schaffte wo sie sich preislich eingefunden hatte

Wie gesagt, im Vergleich zur 670er ist die 690er zu teuer. Klar HighEnd, frisch raus usw. da kann man Kunden melken :fresse:
Aber mal abwarten...

Danke. Evtl. liegt es auch daran, dass der bisher mit Displayport an einer ATI hing. Hab mal ein DP-Kabel bestellt - brauch ich sowieso für den vierten Monitor.

Zur GTX690 - muss sagen - die Karte ist wirklich sehr leise - bin begeistert.

Wie verhällt sich das gute Stück bei dir mit drei/vier Monitoren in Sachen idle Verbrauch?
 
Ich habs noch nicht gemessen. Es takten aber beide GPUs im idle auf 324MHz runter. Temps sind dann 36/41°C. Bei Diablo III unter Last sinds ca. 58/62°C. Werd demnächst noch Witcher 2 im surround testen...
 
Ich habs noch nicht gemessen. Es takten aber beide GPUs im idle auf 324MHz runter. Temps sind dann 36/41°C. Bei Diablo III unter Last sinds ca. 58/62°C. Werd demnächst noch Witcher 2 im surround testen...

Mhh mit drei oder vier Monitoren?
Die 680er haben nämlcih angeblich das Problem, das bei drei Monitoren bzw. bei Benutzung des DP Anschlusses der idle Verbrauch hoch geht und ein anderer idle State angenommen wird (wie bei den Fermi GPUs mit zwei Monitoren)

Scheinbar hat die 690er das so nun nicht mehr -> wäre gut wenn es so wäre...
 
Hast du bei er 690er 2x5 Phasen?
Weil mit zwei 680er bist du ja bei 2x4 Phasen...


Jupp 2x5 für den Core 2 für den Ram

13.jpg

Wenn die nur mal größere Fotos von den Spannungsreglern gemacht hätten sodas man erkennen könnte ob das Volterras sind oder wieder der Discount Schund:coffee:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh