[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Limitieren einen die 2 GB RAM nicht irgendwann?

Hängt von Deiner Software/Settings ab, irgendwann limitieren sie (Paradebeispiel: Skyrim).

Auf der anderen Seite BF3: Ich bin von zwei GTX580/3GB umgestiegen, die haben in meiner Auflösung schon nicht für Ultra-Settings getaugt (die 2.5GB VRAM benutzt hat), die 690er taugt in meiner Auflösung auch nicht für Ultra-Settings, allerdings kann ich mehr Details/BQ als mit den 580er einstellen obwohl weniger VRAM vorhanden ist.

Sprich: Die Menge an VRAM die angezeigt wird, ist nicht immer die Menge an VRAM die unbedingt nötigt ist um etwas zu erreichen. Da müsste man genauer testen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weiss ich nicht.. mein beamer, mein TFT und mein HD-TV limitieren bei 1920x1080 pixeln.
über downsampling schafft die GTX690 bei mir 3100x1744 pixel.. oder 2880x1800 oder 2560x1440.. läuft alles geschmeidig, wie auch schon mit den einzelkarten. nur ging da das DS nicht so hoch und die einzelkarten hatten auf diesem brett SB-typisch nur eine 2x PCIe-2.0 x8 -anbindung zum speicher. jetzt nutze ich extern PCIe-2.0 x16 und kartenintern PCIe-3.0 x16.



überhaupt ist leistung gar keine frage.. die karte ist saugeil.. selbst wenn sie 20% langsamer wäre als ein SLi aus einzelkarten ist es trotzdem das bessere stück hardware.

davon ab muss eh jeder selbst entscheiden, also ich würde auf jedenfall auf eine 8GiB geforce GTX610 warten.. nur die ballert richtig in einem auf 20GiB aufgeblasenem skyrim. :-P

mods sind mir schnulli - ich spiele max. 2560x1440 ohne shutter und 1080p mit shutter.. manchmal sogar 720p mit shutter..
ergo: schwerpunkt -> 3D und nicht der längste pillermann mit mods die keiner kennt.

zum thema VRAM + skyrim + HD-texturen mag ich nichts mehr schreiben. das habe ich schon zu oft und ich bin nicht don quichote, der gern gegen windmühlen kämpft respektive anquatscht.

falls es leute gibt, die auf inoffizielle mods nicht verzichten können -> wartet auf die GTX610 mit 8GiB VRAM und nehmt davon 6 stück - damit läuft dann auch die hinterletzte polenmod geschmeidig.

allen anderen empfehle ich -> triffst du auf ne mod, die das spiel crashen lässt -> wirf die mod weg.
das spiel ist auch mit den beiden offiziellen HD-texturpaketen hübsch und selbst ne einzelne GTX680 reicht dafür lockerst.. ich hab 46 zusätzliche mods und das dawnguard-add-on. skyrim läuft auf dieser kiste super und selbst auf dem popelrechner daneben (signatur AMD) ist es spielbar. mit identischen settings, weil ich meinen kompletten steamordner auf beiden rechnern horte..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Mmh (vielleicht) schlage ich mich durch und bestell die Karte wenn ich aber bei 2880*1620 nachlade Ruckler bekomme bei Aktuellen Titeln weil der Ram überläuft schicke ich sie wieder ein.
Wo bei ich glaube zu Wissen das es es der Fall sein wird und der Karte der RAM aus geht.

Da für sind mir dann knapp 1000Euro zu schade denke das ist dann auch berechtigt sie wieder ein zu schicken oder ?
Sie erfüllt dann ja nicht das was ich von der Karte erwarte und was hier und laut Benchmarks publiziert wird..
Bei BF3 und Crysis 2 gab es mit meinem GTX580SLI mit 1,5GB bei 2560*1440 @ Max Grafik nach lade ruckler.
Kurze Nachlade ruckler wären ein no go für mich wenn diese im Spielbaren FPS eintreten würden.

Ach man wieso konnte NV bei der GTX680 serie nicht auf ein grösseres SI und mehr Ram setzen 2,5GB hätten schon gereicht so fällt einem die Entscheidung Mega schwer.
 
Zuletzt bearbeitet:
@TobiWahnKenobi


Als wäre es das einzige Beispiel. X-Plane oder Day-Z, ist genau das gleiche. Wenn Du die nicht zockst: Gut für Dich, das es aber niemand anderes gibt der sowas gerne mal in die Hand nimmt .. .hilfe. Muss man ja nicht gleich so in Abrede stellen. Das "braucht man sowieso nicht" haste ja auch inzwischen wegeditiert^^
@Thunderburne
Ich hab das so verstanden das ein größeres Speicher-Interface (unter anderem) das PCB verkomplizieren würde, weil mehr Layer dafür nötig sind. Also spart man sich das auch bei einer 1000 Euro-Graka^^
 
Zuletzt bearbeitet:
Ich glaube ehr die GTX680 sollte knapp bei der 7950 von der Leistung her angesezt werden da man beim GK110 feststellen musste das das ganze so nicht Marktreif war hat man sich für höhere Taktraten bei der GTX680 entschieden die so selbst eine HD7970 unter Druck gebracht haben.
Was Markttechnisch ja auch schlau war so verkauft man vom layout her eine Mittelklasse Karte als Highend bei spoten billigen Produktions Kosten.
Den eigentlichen GK104 kann man alls Highend aktzeptieren die Boards auf denen die Chips verbaut sind mit ihrem drum herum sind für mich aber kein Highend.
So hat man auch viel mehr Zeit für den Eigentlichen Highend Chip den GK110.

Diese Generation ist wie ein 2 schneidiges Schwert.
Man stelle sich mal vor wie stark die Karten mit einem 320/386 Bit SI geworden wären bzw. welche Reserven man durch das Speicher Interface hätte frei setzen können.
 
Zuletzt bearbeitet:
Es ist immer ein zweischneidigs Schwert.
Die "perfekte" Grafikkarte wird es nie geben, der GK104 macht vieles richtig und einiges falsch.
 
..wenn man es drauf anlegt, kann man mit modbaren spielen jede grafiklösung an die wand fahren.

seit ich wieder aktiv shuttere bin ich völligst vom downsampling-wahn geheilt, den ich vor 4-5 jahren noch selbst jedem aufs auge gedrückt habe.
für mich ist alles pillepalle was über FHD@100 oder 120Hz hinausgeht. das DS-gerümpel brauche ich im promillebereich bis gar nicht. ich teste das nur mit, weil es ne angewohnheit ist. nutze tue ich es nie.. ausser vllt. in GTA, wo es nicht anders geht..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ja dann hast du ja für dich Persönlich ja alles richtig gemacht .
Deine Vorlieben treffen aber nicht auf jeden zu.
In meinem Fall ist es aber so das ich bei den ganzen Konsolen Ports die im Umlauf sind um Downsampling meist nicht herum komme in den Single Playern .
Je höher die Auflösung um so schöner.
3D shuttere ich auf meinem TV mit Filmen auch ist ne feine Sache.
Leider ist selbst diese Technik noch nicht völlig aus gereift und deshalb nene ich es noch lange nicht Gerümpel.
Aber wieso sollte ich nicht beide Methoden nutzen können oder wie so sollte ich auf eine von ihnen verzichten müssen oder nicht im vollem Umfang nutzen können nur weil ein paar Hardware Gegebenheiten nicht abruf bar sind (Ram)?
MFG
 
Zuletzt bearbeitet:
du glaubst jetzt nicht echt, dass du dich mit einer GTX690 schlechter stellst, als mit der karte, die unter deinem system da links steht?!

die karte da ist so toll, dass ich meine krampfhaft zu verkaufen versuche.. und zwar seit zwei monaten.. willste haben? dann hassu CF mit 3GiB.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Einige hier haben wahrscheinlich zu viel Geld oder?

Von einem 7970cf 1350mhz auf eine 690?
Was macht dass für einen Sinn?
Gut weniger stromverbrauch aber auch ein gutes Stück weniger Performance.

Was haben die beiden 7970 verbraucht?
Mein System hat mit der 7970 @1250 470 Watt gezogen.
Zum Vergleich
580@950 MHz 440 Watt
680@1300 MHz 340 Watt
690@1150 MHz 540 Watt

Soll der gk110 noch in diesem Jahr oder erst im nächsten kommen?


Sent from my iPhone using Hardwareluxx app
 
Die frame loops sond mit der 690 geringer wär für mich auch ein grund zu wechseln

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Compuchecker 900W rum mit 1350 MHZ inc DS oder SSAA ohne diese Bildverbesserungen um die 780 W.
Ich habe sie verkauft weil ich mein Geld komplet zurück bekommen habe meinen spass aber auch stress mit den Treibern hatte was die Stromsparmodi Zero Core anging.
Ich finde Downsampling funktioniert auf NV Karten besser als bei AMD.
Da für ist das SSAA bei AMD besser weil das Bild scharf bleibt.

Weil meine kleine Tochter geboren wurde und ich erst mal mit der neuen Situation fertig werden muss dann kann ich mich meinem Hobby wittmen.
Da ist es mir zu schade 900 Euro im Rechner stecken zu haben die ich erstmal nicht nutze weil ich meiner Tochter die volle Aufmerksamkeit schenke und meine Frau unterstütze wie du lesen kannst bin ich recht vernünftig und Bodenständig.

Von der Power reichen ja selbst 1200 MHz im CF ram ist da viel entscheidener für mich.
Eine Mars GTX 690 mit 2*4GB wurde ja auch schon in aus sicht gestellt von ASUS die HD7990 soll auch erscheinen von dem Verkauf der Karten habe ich jetzt 900 euro rum liegen was mir alle Türen für neues Spielzeug öffnet.

Da ich nahe 0 Verlust gemacht habe bei den Karten schmeisse ich mit meinem Geld auch nicht um mich.
Ich habe sehr grosse freude daran mich an neuer oder anderer Hardware zu erfreuen unabhängig vom Hersteller.
Ok eine Ausnahme oder Tabu gibt es finger weg von AMD Cpus bei CF oder SLI.
 
Zuletzt bearbeitet:
mich konnte AMD nie begeistern; brauchbare hard- und unterirdische software. aber das gehört nicht in diesen thread.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
wenn ich gucke, steht da 930€ und verfügbar ab 28.8.2012


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Immer noch in RMA?

Lass dir mal vom Händler ne Kontaktadresse geben,und verweiße diese Honks darauf das nötigenfalls ein Anwalt herangezogen wird

3Monate um so ne Karte zu prüfen kanns ja wohl echt nicht sein wenn man schon 1000Euro für sowas hinblättert
 
Zuletzt bearbeitet:
@ scully

ahahahahaha...hab ichs nicht gesagt? Im "Devil 7990 Thread"^^...und vor allem piskop´s Aussage: "scully und tobi können es einfach nicht lassen"...so lächerlich der Typ...
 
Ist den etwas über den Erscheinungs Zeitraum von der MARS bekannt?
 
Viel Spaß beim warten auf die MARS, Anus bekommt es nicht einmal gebacken die GTX670 DCII TOP in vernünftigen Stückzahlen zu liefern.

Die von mir bestellte Gaylord GTX690 dürfte hier auch nächste Woche irgendwann eintrudeln, mal sehen ob die was taugt.
 
@ scully

ahahahahaha...hab ichs nicht gesagt? Im "Devil 7990 Thread"^^...und vor allem piskop´s Aussage: "scully und tobi können es einfach nicht lassen"...so lächerlich der Typ...

er sammelt seine erfahrung erst noch. wenn ich das richtig blicke, sind seine derzeitigen erfahrungswerte benchmarks @AMD CF. wenn der tellerrand nicht zu hoch ist, wird er sicher noch die eine oder andere entwicklung mitmachen.
ich habe den anderen thread aus meinen abos gelöscht - bin nicht genug AMD-fan, mich da konstruktiv zu beteiligen. was ich zu dem thema schreiben könnte, wäre nur kritik und die legt man hier ja als fanboygebashe aus. AFAIR sogar mit unterstützung seitens der moderation.. *gg*

naja.. um was zum thread zu sagen.. die karte bleibt. hab jetzt ein bissl genutzt und gespielt und bin absolut pleased. gestern endlich mal diablo angefangen; das liegt hier ja seit wochen rum. mit 80% powerlimit absolut leise und trotzdem ausreichend performant für 8xMSAA + 8xSGSSAA. im 305.68er beta-treiber sollte man dazu allerdings die kompatiblitätsbits fürs AA auf "0x004412C1" umschalten.

btw,
zum ersten mal, seit bestimmt 2 jahren stimmt bei mir die anzeige, wenn ich "win" + "P" zum wechseln der bildschirmmodi nutze.. endlich ist projektor projektor und computer computer :-) damit das nicht vertauscht wird muss man also ne GTX690 kaufen? kuhl !!! *rumfreu* hatte schon nicht mehr damit gerechnet, dass sich das hier mal irgendwann fixt.. ebenfalls nett, dass ich den selten genutzen aber doch verdrahteten HDTV jetzt permanent angesteckt lassen kann. vormals (mit so ziemlich jeder anderen grafiklösung) musste ich ihn immer abziehen, damit POST und BOOT am schreibtisch angezeigt werden.. passé :-)

was ebenfalls gut funktioniert ist die tonübertragung über HDMI. einmal konfiguriert -> läuft. ist der beamer an, kommt ton über HDMI am AVR an; nutze ich das schreibtisch-display route ich sound über die X-Fi. das audiodevice wird sauber mit der bildschirmquelle umgeschaltet. das tolle -> in spielen macht es klanglich voll keinen unterschied, in filmen hingegen einen großen, weil die X-Fi über toslink natürlich kein bitstream unterstützt *gg*

ach, ist das herrlich, wenn der rechner einfach funktioniert.. auch wenn man mal etwas möchte, als der durchschnittsuser..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Der von Dir genannte Treiber ist ein OpenGL Treiber.
Was ist an diesem anders als am 304.79?
Ist doch der gleiche Treiber nur mit dem neuen OpenGL oder?
 
es ist der bis dato aktuellste verfügbare.

edit.. bis heute.. jetzt gibt es 306.02 beta..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Der neue Treiber macht alles richtig.
Keine Fehler festgestellt.
Gefühlt läuft es in bF3 ein bisschen besser.


Sent from my iPhone using Hardwareluxx app
 
Keiner von euch den Green-Video-Bug (youtube)?
Wenn nicht wird es bei mir wohl von einer anderen Anwendung produziert, bei 301.42 jedenfalls gibts den nicht.
 
html5 oder FLV/h.263 oder AVC/h.264 ?? alle?? hier keines.. alles sauber..


(..)

mfg
tobi
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh