[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Meine 690 hatte ja auch dieses Textirflacker Problem !
Deswegen hab ich sie ja auch zurück gegeben !

Besteht dieses Problem immer noch ?


Sent from my iPhone using Hardwareluxx app
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So. 4 Monitore an der GTX690 gehen natürlich. Im Single-Modus.




Und jetzt der Brüller: Vision-Surround+1 funktioniert auch *jubel*



Was nicht geht .... der +1 darf nicht an einem der DVI-Anschlüsse sein. Dann funktioniert das VS-Set nicht. Die müssen scheinbar alle an DVI dranne sein. Was für mich blöd ist, weil ich den DELL eigentlich gerne als Boot-Monitor haben möchte (Hochkant ist bescheuert wenn man im Bios arbeitet oder Windows installiert^^). ABER HEY ... halbe Miete.

Gibt natürlich einen Nachteil... die GTX690 taktet bei dieser Konfiguration in den Lower3D mit einer GPU. Das steigert den Idle-Verbrauch von 140W auf 160W. Aber dafür gibts ja den Inspector.
 
Zuletzt bearbeitet:
Da hat Nvidia tatsächlich nachgebessert. Mit zwei GTX580 ging das nicht.
 
Naja, zur Zeit ist ja der Inspector aktiv. D.h. da wird nur aufgeweckt wenn ich das explizit zulasse. In der alten VS-Konfig konnte ich da keine Probleme feststellen.
 
Naja, zur Zeit ist ja der Inspector aktiv. D.h. da wird nur aufgeweckt wenn ich das explizit zulasse. In der alten VS-Konfig konnte ich da keine Probleme feststellen.

Misunderstanding:d

Meinte den Ruhestandsmodus vom OS,wenn das System aus dem Schlafmodus geholt wird:)

Stimmt da noch die Zuordnung der Screens primär/sekundär,oder gibts da andere Auffälligkeiten?
 
Zuletzt bearbeitet:
Ich benutze den Ruhezustand nicht, jedenfalls den Hybriden (64GB Speicher auf die SSD schreiben *g*).
Den anderen benutze ich auch nicht, kann ich bei Gelegenheit ausprobieren. Nach einem Neustart oder einem Kaltstart jedenfalls ist die Konfiguration erhalten. Das find ich schon mal gut.
 
Mit welchen Befehlen lässt sich das BIOS der 690 sichern?

Mit welchem Tool kann ich die lüftet freischalten. 20 % als Minimum.


Sent from my iPhone using Hardwareluxx app
 
Frametimes sagen bei Nvidiakarten wenig aus, denn Fraps kann das Framemetering nicht erfassen/messen. Sprich, das was gemessen wird, stellt nicht (unbedingt) das dar, was man nachher präsentiert kriegt. Quelle: Techreportartikel zum Thema MR, Aussage von Scott Petersen, Nvidia.

Auch wenn das da womöglich so stehen mag. Ich hab vor nicht all zu langer Zeit mal nen Thread im PCGH Forum gelesen, wo die Redaktion dort zumindest schrieb, das sich das in Fraps gemessene zu einem sehr großen Teil (wenn ich das so rausinterpretiere) auch mit dem sichbaren deckt. Sprich die Messungen mögen vllt nicht 100% alles erfassen bzw. exakt sein. Der sichtbare Effekt, den man auf dem Schirm hat, deckt sich aber dennoch irgendwie mit den Messungen.

Aber was soll NV denn auch anderes sagen?
Das Thema kocht schon Jahre in der Presse. Und immer wieder kommen Meldungen von wegen, wir arbeiten dran. Hier und dort gibts ein paar Verbesserungen, bei einigen Titeln gehts, bei anderen gehts nach wie vor nicht. Manche Aussagen seitens NV zu dem Thema sind leicht wiedersprüchlich bzw. besser gesagt, leicht unlogisch in gewissen Zusammenhängen usw. Einige versprechen das blaue vom Himmel, andere haben sich wirklich bestätigt.
Wenn man so will, ist von allem was dabei ;)
 
Mit welchen Befehlen lässt sich das BIOS der 690 sichern?


"nvflash -b -i0 backup0.rom"
"nvflash -b -i1 backup1.rom"

Falls mittlerweile NVFlash kompatibel sein sollte

Und aufpassen das Bios 1 nach der Modifikation auch wieder auf GPU1 kommt,sonst stehst du möglicherweiße mit einer nicht funktionierenden Karte da
 
Zuletzt bearbeitet:
Kannst du die Lüfter freischalten?


Sent from my iPhone using Hardwareluxx app
 
Meine 690 hatte ja auch dieses Textirflacker Problem !
Deswegen hab ich sie ja auch zurück gegeben !

Besteht dieses Problem immer noch ?


Sent from my iPhone using Hardwareluxx app

Gibt es für dieses flackern in BF3 schon eine Lösung?
 
Fraps und Afterburner/EVGAPrezision abschalten :-)
 
Was bedeutet in Deinem Fall "zu schwach"?
Du weißt schon dass Du bei BF3 jede zur Zeit käuflich erwerbbare CPU als "zu schwach" titulieren könntest, wenn Du es sorum aufziehst.

Siehe mein 5Ghz 3930K.



117 FPS in Mini-Auflösung und LOW-Settings.
 
woran macht ihr denn das zu schwach fest? zu schwach wären lausige frames bei voller auslastung und nicht rumdümpeln der einzelnen cores. wenn die CPU-auslastung gering ist, ist die CPU überdimensioniert und nicht zu klein. *gaga*

btw,
ich hatte mit 2GPUs (GTX680) nie mehr als 70-80% GPU-auslastung; egal ob die CPU mit 3.4 (stock) oder 5GHz lief.
absolute frameraten waren immer spieltauglich; das sind sie jetzt mit nur einer karte ebenfalls. SLi mit den GTX680ern war hier total sinnfrei und unterm strich einfach nur heiss, teuer und energiehungrig (peak über 600W mit i7@5GHz).



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Warum sollte die GPU bzw. GPUs auch immer zu 100% ausgelastet sein?
Ich spiele lieber mit stabilen FPS als ständig von 115 auf 130 oder 90 runter.
 
ich spiele am liebsten ohne die ganzen anzeigen, die das bild verdecken. frameraten, auslastung, speicherbelegung und temp kratzt mich im grunde kein stück. das versaut nur den spielspaß. das kann man zu diagnosezwecken rauskramen.. falls es was zu diagnostizieren gibt. obwohl die meisten sicher nichtmal im stande sind, ne hinreichende diagnose aufzustellen und diese anzeigen nur zur selbstbeweihräucherung nutzen.

läuft doch!


(..)

mfg
tobi
 
@RoughNeck Reloaded
Schau dir den Klipp von Compuchecker an gerade wegen der schlechten Load und das ist defenetiv ein CPU Problem hat er diese Massiven FPS sprünge .
Hätte er 100% GPU Load würde er nie unter 100FPS kommen in seinem Video.
Setzt er da zu noch einen FPS Limiter im Inspector laüft das ganze auch glatt mit einer sehr hoher FPS und nicht slow downs auf 70FPS weil die Load auf 70% bei den GPus weg bricht.

Tobi dann hast du schlecht beobachtet da du ja selbst erwähnst das du Monitoring nie mit laufen lässt.
Mein580 erSLI musste bei 1GHZ auch ordentlich in den hintern getreten werden.
Bei 6970er im Cf war es auch so bei der HD7970 im Cf ebenfalls und wenn ich vom Checker das Video sehe ist es genauso geblieben.

Gerade Leute mit 100 Hertz Monitoren ist es wichtig konstant hohe FPS auf dem Bild zu haben in Full HD und im SLI oder CF lässt man einfach zu viel FPS liegen wenn die CPu zu schwach taktet.
Was im Multiplayer eigentlich nicht das Ziel ist.

Hoffentlich legt der Haswell nen Schippe nach bei gleichem Takt und bietet noch mehr OC.
 
Zuletzt bearbeitet:
Wegen dem Video meinte ich ja, warum ohne FPS Limit spielen?
Klar kommt er mit einem 4,2GHZ Prozzi mit der GTX 690 schnell ins CPU Limit, aber warum sollte ich mich darüber ärgern? Auf 75HZ fixen, sind 73FPS und er kann sauber zocken. Gut wenn er jetzt einen 120HZ Monitor hat sieht es wieder anders aus, aber da muss man dann DICE den schwarzen Peter zuschieben, sauber Programmiert ist das Game bei weiten nicht.
 
Er ärgert sich nicht es ist das normale Bedürfniss was man hat.
Die Hardware soll die ganze Power in seinem lieblings Spiel an den Tag legen das geht nur mit viel CPU takt Rough oder halt höhere Auflösungen SGSSAA und so nen Kram was im Multiplayer ja meist nicht wichtig ist.
Da zählt bei den Leuten nur FPS.


Aber ich tröste den Checker mal sei froh das du keine AMD CPU drin stecken hast da ist es noch viel schlimmer mit der LOad.
 
@RoughNeck Reloaded
Schau dir den Klipp von Compuchecker an gerade wegen der schlechten Load und das ist defenetiv ein CPU Problem hat er diese Massiven FPS sprünge .
Hätte er 100% GPU Load würde er nie unter 100FPS kommen in seinem Video.
Setzt er da zu noch einen FPS Limiter im Inspector laüft das ganze auch glatt mit einer sehr hoher FPS und nicht slow downs auf 70FPS weil die Load auf 70% bei den GPus weg bricht.

Tobi dann hast du schlecht beobachtet da du ja selbst erwähnst das du Monitoring nie mit laufen lässt.
Mein580 erSLI musste bei 1GHZ auch ordentlich in den hintern getreten werden.
Bei 6970er im Cf war es auch so bei der HD7970 im Cf ebenfalls und wenn ich vom Checker das Video sehe ist es genauso geblieben.

Gerade Leute mit 100 Hertz Monitoren ist es wichtig konstant hohe FPS auf dem Bild zu haben in Full HD und im SLI oder CF lässt man einfach zu viel FPS liegen wenn die CPu zu schwach taktet.
Was im Multiplayer eigentlich nicht das Ziel ist.


Hoffentlich legt der Haswell nen Schippe nach bei gleichem Takt und bietet noch mehr OC.

doch doch, ich habe sogar sehr gut beobachtet. ist schon toll, wenn aus 70fps 100 werden. nur haben testläufe nichts mit spielspaß zu tun. meine TFTs und mein projektor arbeiten den shutterbrillen zuliebe mit 120Hz. die 30 zusätzlichen SLi-frames fehlen mir kein stück.

SLi und CF leiden unter AFR und AFR leidet unter mikrorucklern wg. inkonsistenter frametimes. dazu noch die inkonsistenten frametimes, die durch falsche vsync-einstellungen entstehen und schon hat man viel zu fummeln. völlig daneben. ich frage mich, wie die anderen BF3-spieler, auf die ich online so treffe, spielen. die haben bestimmt alle auf 7GHz übertaktete IBs und SBs + kryotechnik am start. sorry.. das ist lächerlich! das gros der verbreiteten rechner ist sicher nicht i7 @5GHz+ und auch nicht SLi oder CF. AMD-käufer gibts dann unter den DICE-kunden wahrscheinlich gar keine.. oder?

btw,
seit ich den vg278 von asus als daddelschirm verwende hab ich kaum noch tearing, sodass ich das erste mal - seit ich anfang 2000 auf TFT umgestiegen bin - auf vsync verzichten kann. die letzten 10 jahre war spielen ohne sync ein no-go bei mir. dieses panel ist sauschnell.




(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ist ja nur eine Feststellung!
Mit Vsync habe ich einen so starke Inputlag! Ist mit einer 680 nicht so heftig.

Wenn ich die FPS per Limiter begrenze, habe trotzdem so komische Ruckler. (auch mit einer 680)
Vor allem das Tearing stört mich dann.

Wie begrenzt Ihr Eure FPS?
 
Klar verstehe ich es dass das Lieblings Game anständig laufen soll, besonders wenn man 1000€ für ne Grafikkarte ausgibt.
Nur mir wäre es egal, ob die Grafikkarte jetzt zu 90 oder 60% ausgelastet ist, solange das Game mit stabilen FPS läuft ist alles in Butter. Aber OK, jeder hat andere Vorstellungen, was auch OK ist.


@CompuChecker

Mit dem Nvidia Inspector.
Habe mit der 680 58FPS eingestellt (60HZ ohne Ipnutlag), das läuft sauber und ohne Tearing
 
Zuletzt bearbeitet:
probiers mal mit nem anderen bildschirm und stell sync aus. fixiert auf 60Hz läufts bei mir auch leicht zäh (das übliche vsync-gummiband, das mit gamepad gar nicht und mit M/T mäßig stört), aber immerhin konstant. stelle ich den bildschirm auf 120Hz/tracefree 80% und mache im spiel den sync aus, spielt es sich prächtig mit 70-80fps/av. logisch eigentlich, denn tearing entsteht, wenn mehr bilder zum panel gepumpt werden als es darstellen kann. liegt man wie ich mit ca. 70 oder 80 unter den möglichen 120, tearts auch nicht.

wiederholung:
ich hatte in den letzten zwei monaten drei GTX680 und sechs wochen ein SLi aus zweien - ich vermisse heute - nach ausbau der zweiten heizung - gar nichts. ausgebaut habe ich den crap, weil es mir zu inkonsitent vom spielgefühl war (frametimes) und es war dazu noch mächtig heiss. eine karte ging kaputt, eine habe ich zurückgeschickt, eine behalten. für die 500€ hab ich mir eine neue matratze gekauft -> viel geiler als die zusätzlichen MGPU-frames.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was bedeutet in Deinem Fall "zu schwach"?
Du weißt schon dass Du bei BF3 jede zur Zeit käuflich erwerbbare CPU als "zu schwach" titulieren könntest, wenn Du es sorum aufziehst.

Siehe mein 5Ghz 3930K.



117 FPS in Mini-Auflösung und LOW-Settings.


Zwar etwas verschlüsselt was du meinst aber wenn er nachdenkt sollte er darauf kommen was schief läuft:)


Wenn die Balance zwischen grafikintensiven Berechnungen der GPU mit der Zufütterung der CPU nicht mehr stimmt gerät man ins GPU/CPU Limit

Wenn da mal noch weiter aufgeschraubt würde entweder bei der Resolution oder Features wie 3D/AA würde der Droop auch aufhören

Die Illusion BF3 bei über 100Frames halten zu können ist bei jeder derzeitigen CPU Utopie

Ps: mit was kühlst du die 5GHZ bei deinem 6 Kerner?
 
Zuletzt bearbeitet:
Irgendwie greift der Inspektor bei mir nicht!
 
Nicht vergessen.
In der Nvidia Systemsteuerung gibt es eine funkion die heiß: Bevorzugte Aktualisierungsrate!
Immer auf Höchste verfügbar wählen, so kann man das Tearing also bei mir mit ein 120 Hz Monitor weniger sichtbar machen ohne Vsync an zu haben. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh