[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Naja, ich weiß ja nicht wie sich die 690er vom Fragesteller dann prügeln lässt, meine lief jedenfalls keine 1150Mhz, auch nicht mit Wasser.

das weiss ich auch nicht - ist aber auch banane - die meistert das meiste sogar mit reduziertem PT.

btw,
bei dir liess sich die GTX690 auch mit skyrim überfordern und du siehst vorteile für irgendwas in RAMdisks.. merkste was?


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*g*
Anwendungsprofile sind speziell?
Es gibt User die ihren Tellerrand sehr genau nehmen?

Hey ... macht was ihr wollt, ich sehe es halt nicht wirklich 800 Euro für ne Graka rauszuballern, wenn man praktisch das gleiche mit 300 Euro erreichen kann. Sobald SLI läuft ist man auf der Suche nach 60 FPS vsync. EGAL für welche Lösung man sich am Ende entscheidet. Da kann die 690 noch so toll mit MR sein, sie sind vorhanden, und da zitiere ich wohl diesmal Dich.

Und nur mal um zu zeigen wie Skyrim zur Zeit bei mir läuft, und wie die 690 das überhaupt schaffen soll? Kann sie nicht. So einfach isses.
 
Zuletzt bearbeitet:
Ich würde die Titan nehmen. Oder zwei 680er mir 4GB. Finde 2GB der 690 bei den Kaufpreisen nicht zukunftssicher.
 
*g*
Anwendungsprofile sind speziell?
Es gibt User die ihren Tellerrand sehr genau nehmen?

Hey ... macht was ihr wollt, ich sehe es halt nicht wirklich 800 Euro für ne Graka rauszuballern, wenn man praktisch das gleiche mit 300 Euro erreichen kann. Sobald SLI läuft ist man auf der Suche nach 60 FPS vsync. EGAL für welche Lösung man sich am Ende entscheidet. Da kann die 690 noch so toll mit MR sein, sie sind vorhanden, und da zitiere ich wohl diesmal Dich.

Und nur mal um zu zeigen wie Skyrim zur Zeit bei mir läuft, und wie die 690 das überhaupt schaffen soll? Kann sie nicht. So einfach isses.

ja, echt gruselig.. ich verknefie mir solche schwachsinnseinstellungen, aber ich möchte auch nicht von dem "NEUE STUFE" -bug erwischt werden, der bei skyrim permanent im bild klebt, sobald man etwas über 2560x1440p einstellt.

genau, man ist immer auf der suche nach 60fps.

davon ab gings eben um 3DVision und dabei kratzt es den user echt einen dreck, ob mickey maus mit downsampling spielt. bei 3DV gilt 1080p. es gibt zwar ausnahmen - auch hier auf meinem PC - wo selbst 2880x1620 noch mit 120Hz shuttern (BF3) aber die kann man an zwei fingern abzählen.

btw,
speicher und zukunft ist humbug - die karte kann nur DX11 und somit ist da auf zukunft eh nix zu erwarten - die ist outdatet, wenn dx12 das licht der welt erblickt. kann man dann zusammen mit titan in die vitrine stellen.. zu den voodoos..

edit:
ich kann diese "ichstelleirgendwasein,dasdiekarteüberfordert" -mentalität nicht nachvollziehen, nicht verstehen und auch nicht gutheissen - wie dumm muss man sein, 1000€ auszugeben und sich dann mods oder settings anzutun, die nicht mehr sauber funktionieren?


bei beiden karten (titan und gtx690) ist oberhalb von 1440p der arsch ab und 8xAA wuppen auch beide nur in bestimmten titeln "flüssig". und das bedeutet min 50fps @titan und min 60fps @GTX690.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ändert sich mit 3D irgendwas an der Suche nach vsync-FPS, weil man dort die MR nicht mehr spürt? Ne, oder? Und ähm, die Speichernutzung wird nicht durch übermäßige AA-Stufen (brauch ich nicht), sondern durch die HD-Mods erreicht. Da ist nicht eine einzige "Schwachsinnseinstellung", sondern nur ein paar Texturen, die ich gerne sehen möchte und die hohe Auflösung. Aber da werden wir nie auf einen Nenner kommen, weil Du scheinbar alles was nicht Deinem Nutzungsprofil entspricht für Schwachsinn hältst. Sorry. Und ich bin raus. Klemm weiter an Deinem Tellerrand. Oder warum erzählt nicht jeder das Shuttern und Beamer unnötig sind? Weil jeder gerne sein Ding machen möchte vielleicht?

Es gibt zur Zeit übrigens (meiner Meinung nach) keine Alternative wenn man NV-Fanboy ist und mehr Leistung als die einer 690 braucht.

BTW .. die neue Stufe nervt tatsächlich^^
 
Zuletzt bearbeitet:
nein, kann mich nicht erinnern, dass ich jemals unter stereo irgendwas manuell am sync rumfingern musste.. *schulterzuck*

was nicht meinem nutzungprofil entspricht? mein nutzungsprofil ist das, was viele nutzen.. full-HD + 3D.

btw,
ich möchte mich da jetzt nicht zu weit aus dem fenster lehnen, aber ich schätze, dass mehr leute über deine kaputtgemoddeten spiele + 2 karten + 3800 pixel den kopf schütteln, als über meine gesunde und vor allem: funktionierende einstellung zu dem, was ich gekauft habe.

was "man" braucht ist übrigens höchst subjektiv und nicht immer das was man zu brauchen glaubt. wenn man sieht, wie buggy z.b. skyrim @4K ist, relativiert sich wieder das "haben" und "nutzen". ich habs und nutze es nicht - eben weil es kaputt ist.

wenn man jetzt sieht, wie AFR funktioniert und wie crappy das mit mehr als zwei GPUs wird, relativiert sich auch die zweite GTX690. um 4K @60Hz fahren zu können, AFR x4 in kauf nehmen, auf hohe BWF und stereo3d verzichten und trotzdem doppelt-so-teuer einzusteigen, ist ganz bestimmt nicht 0jedermanns sache. die spiele, deren anzeigen durch DS so klein zermatscht werden, dass man gar nichts mehr erkennen kann (mir fällt da z.b. secret world ein) profitieren von dem aufgelösungsgepfusche auch kein stück. das hat im alltag weniger nutzwert, als der, der es nicht hat im vorfeld denkt.

übrigens: wie beim autofahren -> vollgas kann jeder blöde.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich sag ja. Alles was Du nicht brauchst reduziert sich sofort auf Schwachsinn und Müll. Da hab ich gar kein Bock mit Dir drüber zu diskutieren. Bringt nix.
 
ach komm.. wenn du schon flamen willst, dann machs richtig. ich stelle es als "schwachsinn" hin, was du uns hier oder halt bei den ramdisks als must-have verkaufen möchtest. oder gehts da jetzt ums fishing4compliments? mal warten, vielleicht kommt ja noch einer rum und bewundert soviel talent im umgang mit ganz vielen karten und pixeln, ohne die einfach sonst nichts geht auf den teuersten grakas, die der markt bietet.

btw,
ich sehe DS nicht als schwachsinn - nur dessen globalen nutzwert. gleiches übrigens auch beim 8fachen multisampling.


(..)

mfg
tobi
 
Komischerweise ist es das was mir von Deinen Anmerkungen (egal was ich bisher von Dir gelesen habe) am meisten hängengeblieben ist.
Die Grundkenntnisse der Materie verblassen vor ständigen Wiederholungen was nicht alles Schwachsinn ist, und was niemand braucht, und was nix taugt, weil Du es nicht brauchst. DAS versuche ich Dir gerade vorzuhalten. Deshalb bringt es keine Punkte. Hab ich gerade wieder da oben gesehen. Du versuchst nicht einen Standpunkt zu erklären/verteidigen, Du willst nur Deinen Standpunkt durchdrücken, und das übel Argumentlos: Ich brauchs nicht, also jeder andere auch nicht.

Und wenn Du die Ramdisk heranziehst: Ich habe ein häufig bei mir auftauchendes Szenario (was Du als übelst konstruiert und an den Haaren herbeigezogen bezeichnest) wo sie Punkte bringt (warum sollte ich meine Arbeitsweise ändern? Ich komme damit schnell zu meinem Ziel). Deshalb muss das bei niemand anderem so sein, und deshalb erzähl ich auch nicht allen das ein Rechner ohne Ramdisk gülle ist. Und wenn Du es nicht nachvollziehen kannst, weil Du eine andere Datenbasis und Herangehensweise benutzt, dann ist das schön und gut und ist weit entfernt von Schwachsinn. Aber da praktisch jeder Ramdisk-Thread die Fragestellung "was mach ich eigentlich damit" beinhaltet, führe ich es tatsächlich als Möglichkeit an.
 
Zuletzt bearbeitet:
Ist ja ein richtiges battle zwischen Euch ...
Mal wieder in media res: Mir kommts nicht auf 100 € mehr oder weniger an, mein Ziel ist ein bestmögliches 3DV in FullHD und das ist meine Frage, insb. auch im Hinblick auf MR aus Performancegesichtspunkten - und ich habe lieber 1 Karte im Rechner als 2, die sich noch dazu ständig gegenseitig aufheizen und dabei lauter werden, ergo bevorzuge ich derzeit die 690.

Und zur 690 ne klare Frage: MR aktuell bestmöglich gelöst? Mein Fermi SLI war nicht so doll
 
Mit MR wirst du bei AFR immer kämpfen müssen egal wie gut das Metering funktioniert aber es ist schon um einiges besser wie noch zu Fermi Zeiten


Für FullHD @ 3DV ist derzeit die 690er das stärkste was du bekommen kannst,immer mit im Hinterkopf,das Multi GPU halt keine Allerweltstechnik ist die auch ab u an mal zickt bei neuen Titeln bis Profile vorhanden sind.Oder auch mal,was zugegeben in letzter Zeit selten geworden ist nur gering durchschlägt

Hisn/Tobi ihr habt beide recht,jeder von seiner Warte aus,das ist unbestritten,belasst es doch dabei
 
Zuletzt bearbeitet:
nun, die Titan mag als Einzelkarte vielleicht nicht vorne liegen. Bedenke aber das die 690 auch nur ein SLI ist und 2x30fps anstatt 1x 60fps ausspuckt. Die 690 mag sich vielleicht runder anfühlen als ein 680er SLI, dennoch würde ich dir empfehlen wenigstens auf 4GB Varianten zu setzen bei den 680ern wenn dir ein Titan SLI (wohl die kompromissloseste Lösung) zu teuer ist.
Zwar heizt das 680SLI vielleicht was mehr als ne 690, das bewegt sich aber im erträglichen Rahmen insofern du nen Slot platz zwischen den Karten hast, kommst aber nicht so schnell ins Ramlimit welches unangenehme fps Einbrüche oder ein sehr unruhiges Spielverhalten mit sich bringt.

Ob Tripplescreen oder 3D, beides benötigt mehr Ram.
Ich steige von nem 680 2GB SLI um. Ich wollte aber auch mehr Power als das SLI. Also blieb mir der Entscheid zwischen GTX680 4GB Quad oder Titan SLI. Beides etwa gleich kostenintensiv (@ H²O ist das Quad sogar teurer). Abgesehen von den Quad SLI Nachteilen zum normalen Titan SLI kommst du auch mit 4GB bei manchen Titeln schon ans Ende der Fahnenstange in Sachen Ram, selbst bei 4GB. Desweiteren sind die Upgrademöglichkeiten einfach am Ende und geschmeidig fühlt es sich irgendwie auch nicht an.

GTX680 4GB SLI aus 2 Karten oder Titan SLI, mein persönlicher Rat.
 
Ist ja ein richtiges battle zwischen Euch ...
Mal wieder in media res: Mir kommts nicht auf 100 € mehr oder weniger an, mein Ziel ist ein bestmögliches 3DV in FullHD und das ist meine Frage, insb. auch im Hinblick auf MR aus Performancegesichtspunkten - und ich habe lieber 1 Karte im Rechner als 2, die sich noch dazu ständig gegenseitig aufheizen und dabei lauter werden, ergo bevorzuge ich derzeit die 690.

Und zur 690 ne klare Frage: MR aktuell bestmöglich gelöst? Mein Fermi SLI war nicht so doll

jupp - beste lösung und auch mein weg 2012 gewesen. zwei GTX680 waren zu heiss und unhandlich - GTX690 war perfekt. titan ist auch toll, aber halt langsamer unter 3DV.


(..)

mfg
tobi
 
das eine Titan langsamer ist als eine 690 oder 680 SLI ist mitlerweile klar. Aber auch nicht viel.
Wenn Geld also keine Rolle spielt ist ganz klar ein Titan SLI das Beste was derzeit möglich ist. Der User selbst muß dann entscheiden ob ihm der Aufpreis der Titanen es wert ist.
2GB Karten würde ich persönlich nicht mehr verbauen.

@ Kampfkeks
Dein Postfach ist voll. Das SLI werkelt schon im System seines neuen Besitzers ;)
 
Vielen Dank Jungs, da habt Ihr mir sehr geholfen und ich denke, ich kann jetzt die Vor- und Nachteile Titan, 690, 680 SLI gut beurteilen und abwägen und komme zu dem Ergebnis: Es gibt keine vernünftige Lösung, nur Kompromisse auf allen Ebenen - aber irgendwie machts das ja auch spannend.

Das Preis-Leistungs-Verhältnis eines Titan-SLI ist indiskutabel (für mich) und es ist auch müßig über die einzelnen Vor- und Nachteile von SLI und CF zu diskutieren, denn da spielt wohl ganz erheblich auch die persönliche Wahrnehmung von MR und smooth-fps ne Rolle - die Erkenntnisse der Hirnforschung schlagen auch hier voll durch

- Was mir nicht einleuchtet, wieso sollen 2GB-RAM in 3DV-FullHD problematisch sein bzw. wann werden die problematisch?
 
Zuletzt bearbeitet:
naja, unter Wasser fällt der "Kompromiss" wegen des gegenseitigen Aufheizens weg.
Da du mit Luft arbeitest würde mich jetzt interessieren wofür du dich entschieden hast :)
 
Vielen Dank Jungs, da habt Ihr mir sehr geholfen und ich denke, ich kann jetzt die Vor- und Nachteile Titan, 690, 680 SLI gut beurteilen und abwägen und komme zu dem Ergebnis: Es gibt keine vernünftige Lösung, nur Kompromisse auf allen Ebenen - aber irgendwie machts das ja auch spannend.

Das Preis-Leistungs-Verhältnis eines Titan-SLI ist indiskutabel (für mich) und es ist auch müßig über die einzelnen Vor- und Nachteile von SLI und CF zu diskutieren, denn da spielt wohl ganz erheblich auch die persönliche Wahrnehmung von MR und smooth-fps ne Rolle - die Erkenntnisse der Hirnforschung schlagen auch hier voll durch

- Was mir nicht einleuchtet, wieso sollen 2GB-RAM in 3DV-FullHD problematisch sein bzw. wann werden die problematisch?

werden sie nicht und stereo3d hat auch nichts mit RAM zu tun.

davon ab ist das netz woll mit reviews und du kannst ja einfach mal gucken, ab welcher auflösung die GTX690 nicht mehr ganz oben in den listen steht. nein, FHD gehört definitiv nicht dazu und auch eine titan stellt sie unter 1440p noch in den schatten.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
naja, unter Wasser fällt der "Kompromiss" wegen des gegenseitigen Aufheizens weg.
Da du mit Luft arbeitest würde mich jetzt interessieren wofür du dich entschieden hast :)

Bin noch am Schwanken zwischen der 690 und ner 2. 680 Lightning, die so gut geht wie meine (1.344/3.600)

Edit: 2. GTX 680 Lightning ist im Anflug (die "alte" von Iron Age). Dann wollen wir mal sehen, ob ein 680er SLI@1.344 mit ner 690 mithalten können
 
Zuletzt bearbeitet:
Mal eine Frage in die Runde,
ich verticke grad meine GTX 690 auf Ebay und hab die Karte wieder in Originalzustand versetzt (also wieder den Luftkühler drauf). Nun ist mir aufgefallen dass die Knete/Paste von den VRM's nicht mehr so gehalten haben bzw ich einige von denen auch net mehr verwenden kann. Als Ersatz hab ich die Pads genommen die bei meinem Heatkiller dabei waren. Als Paste für die Kerne hab ich MX-4 benutzt. Nach Berichten im Internet soll es anscheinend was bringen neue WLP aufzutragen.
Nur nach ein paar Runden Unigine Heaven 4 ist mir aufgefallen das die Temps net so prickelnd sind. Kern1 83-84°C und Kern2 78-79°C. Irgendwie hatte ich mir da bessere Temps erhofft. Denn diese hatte ich glaube ich beim Neukauf der Karte auch.

Wäre es möglich das ich vielleicht irgendwas falsch gemacht hab? Sollte ich die Heatkiller Pads vielleicht nicht benutzen? Nur gegen was dann tauschen....

An sich läuft die Karte ja ok aber ich will das der nächste Besitzer auch zufrieden ist. Und so gefällt mir das irgendwie noch nicht so richtig =)
 
möglicherweise sind die Pads dicker als die originalen und dadurch hat der kühler einen größeren Abstand zu den GPU-Chips.
Du müsstest also mal die Dicke der PADs vergleichen.
 
Hi Leute mal ne Frage, hatte in nem Youtube Video ein Tool gesehen, womit man das leuchten des Schriftzuges steuern/verändern kann.
War ein Tool von EVGA.
Finde das aber iwie nicht.
Hat vielleicht jeman nen Namen, oder noch besser nen Link für mich?
Danke.
 
hab mir ne gebrauchte evga 690 auf ebay geschossen und wollte fragen was so ne karte im durchschnitt an OC schafft
 
Hab mal eine Frage an die Experten hier.

Habe mal ein paar Benches gemacht und wollte wissen ob das passt?
Würde mich über Vergleichswerte freuen.

Hab iwie die Befürchtung das meine CPU dann und wann limitiert. :rolleyes:

CPU ist ein I7 920 auf 3,8 GHZ
Auflösung ist 1920x1080


OC Graka auf +130 und Ram OC +500 eingestellt in Evga OC Tool
und Stock getestet.


Tomb Raider alles bis zum Anschlag

Min. Stock 38 OC 42
Max.Stock 72 OC 86
AVG.Stock 54 OC 64



Metro LL alles bis zum Anschlag

Min. Stock 16 OC 17
Max.Stock 118 OC 120
AVG.Stock 41 OC 48


Und jetzt dass was mir Sorgen macht.

Valley alles bis zum Anschlag

Min. Stock 30 OC 34
Max.Stock 137 OC 144
AVG.Stock 75 OC 85


Bis auf Valley war bei jedem Bench der GPU Load auf beiden GPUs zwischen 96 und 98%
und bei der CPU load auf allen 8 Threads ging der höchste jeweils so auf 60-70%.

Bei Valley war Thread 1 der CPU immer zwischen 90-97%, aber die GPU load schwankte zwischen 70-98%.
Meistens aber in den hochn 90 Prozenten.

Wäre für Erfahrungen und Vergleichsergebnisse mit aktuellen CPUs dankbar.
 
Zuletzt bearbeitet:
im tombraider benchthread hab ich damals die 690 getestet..

in metroLL ist die karte einfach nur kacke. nachdem ich das gegen meine titan gesehen habe, ist die 690 direkt in den 3DC-marktplatz gewandert.


(..)

mfg
tobi
 
Hm, danke für die Anmerkung, aber leider hilft mir die Aussage bei meinem aktuellen Frage nicht wirklich weiter. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh