[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
@Viper8 1526 MHz sind doch super mit Refkühler Karte hat auf jeden Fall Potenzial:)

Meine ging mit Refkühler 1568/4000MHz............

kann ich eigentlich eine 980 Ti mit einer Titan X im Sli laufen lassen?


 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ja, das ist ja klar, aber wenn die Leute mich anpöbbeln das ich ihnen beweisen muss das 1530MHz Gamestable mit dem Refkühler laufen, brauch ich doch ein Modbios oder gibt es irgendeine Karte auf der Welt die das mit Refkühler ohne Modbios packt ??

3DMark lief mit 1526MHz Chiptakt & 4037 VRAM schon komplett durch! aber scheinbar ist das doch nicht so gut mit Refkühler, ich hab kA


vllt kann mir ja jemand 1500mhz Takt im Bios irgendwie festnageln, ich bekomme es jedenfalls nicht hin, File-Upload.net - Gigabyte.GTXTitanX.12288.141219.rom


spiel mal 6-8 stunden gta 5,mordors schatten,battlefield 4 64mann online. wenn die das ohne trieber reset macht, dann kannste von stable sprechen. vor allem ist es defintiv "very important", dass du konstante GPU Auslastung ,am besten immer 99%,hast.
...und nicht mit full HD bei 65-90% GPU load dahin dümpelst.

des weiteren wird die karte irgendwann leicht herabtakten wenn du dich im 60 Grad Celsius Bereich aufhälst. alleine die karte unter 80 grad zu halten wird schwierig bei dem takt .die VRMs( Spannungswandler) der Karte werden nach stundenlangem zocken mit offenem PT ,ordentlich warm.

diese ganzen Spielchen würde ich niemals dauerhaft unter luft, vor allem nicht unter dem REF-Kühler absolvieren.

ansonsten mach sie einfach kaputt^^
 
Ich denke eher nicht, dass das funktioniert. SLI verlangt doch nach 2 identischen Karten, nur Hersteller/Taktung sind egal.
 
@Viper:
ist halt der Ref Kühler und ich hab jetzt im Bios nur das Power Target angehoben, wenn du mir ein Bios besorgst, kann ich ja mal gucken was noch geht, aber mit Refkühler ist ein 3DMark Ultra Durchlauf mit 1500 MHz und 4500 MHz doch nicht sooooooooo schlecht

- - - Updated - - -

aber egal, ich verkaufe die Karte sowieso nur aus Geldnot heraus, meinetwegen kann der erste der kommt, sie für 899 haben ! sonst muss ich sie behalten.

- - - Updated - - -

NVIDIA GTX TITAN X video card benchmark result - Intel Core i7-6700K,ASRock Z170 Extreme4

die Karte taktet im 1. Grpahictest auf ~1300MHz runter schafft trotzdem über 5200 GraphicScore im Ultra, sie läuft permanent ins Power-Limit, sie läuft ins Voltage-Limit usw. mit ModBios sollten also auf jedenfall! noch viel mehr möglich sein ! von einem besseren Kühler wollen wir erst gar nicht sprechen!

NVIDIA GTX TITAN X video card benchmark result - Intel Core i7-6700K,ASRock Z170 Extreme4



sie läuft also locker über 35,12% schneller als im Review/Testbereicht ==> Nvidia GeForce GTX Titan X Review - DX11: Futuremark 3DMark 2013


8SOObOD.jpg



In deinem V-Thread schreibst du einmal, dass du das PT bereits angehoben hast - dann taktet sie im 1. Test 3dmark auf einmal auf 1300 runter etc...
Du wiedersprichst dir einfach immer wieder. Dein Screen von GPU-Z Sensor hast du gpu-takt auf average - niemand sieht wie hoch sie tatsächlich lief etc..
Dann schick mir eine Serial für so ein Spiel bitte per PN und vllt. noch ein Link für ein Modbios, ohne Modbios denke ich sind kaum mehr als 4050 MHz möglich, wobei das schon extrem gut ist! Außerdem möchte dich dran errinnern das ich deine Verkäufe auch nicht untergraben habe und das gegen die Regeln des Marktplatzes verstößt.


@IandNruLeZ

möchtest du Screenshots oder was meinst du jetzt?



ohne Modbios taktet sich die Karte im ersten Abschnitt von 3DMark extrem runter, wie kann ich das verhindern? Ich hab kein gemoddetes Bios für die Karte, aber ich wollte die Karte jetzt eh nicht ausreitzen und ewig rumprobieren, da ich 1. keinen guten Kühler und 2. die Karte ja verkaufen möchte.


hier, aber da wird wie gesagt automatisch runtergetaktet, dennoch scheinen 1500 MHz zu laufen, wird jedenfalls nach dem 1. Abschnitt im OSD fast dauerhaft angezeigt!



yfNKwaE.gif

Du schreibst dass sie 1530/2050 läuft und hast es selbst ja noch nicht mal getestet - also so, dass auch dauerhaft die 1530/2050 anliegen.
Und bevor man solche Behauptungen aufstellt sollte man das auch beweisen können - das ist wohl das was die Leute so aufregt;).. Vor allem wenn du dann probierst anfangs Mondpreise erzielen zu wollen mit ~300€ über NP!!
 
Zuletzt bearbeitet:
Ok. Muss mich korrigieren. Laut NV Webseite kann man keine zwei verschiedenen Grafikkarten im SLi betreiben aber mit unterschieldich großem RAM z.b. 4GB und 8GB Version vobei dann nur 4GB zur Verfügung stehen.
 
Das wäre auch zu schön um wahr zu sein, dann kann mir nämlich den nervigen Verkauf sparen :d


@haudi
Nicht ICH wiederspreche mir, die Karte wiederspricht sich! :d
und naürlich hab ich 1526/4037 getestet, ich hab soagr das 3D Mark Ultra Ergebniss davon gepostet + den GPU-z screen, ist doch scheiss egal, wenn es jemand wirklich ernst meint, dann schick ich ihn halt den Beweis oder es kann auch jeder sehr sehr gerne vorbeikommen oder man trifft sich irgendwo, aber für irgendwelche asi hater, werd ich mir bestimmt nicht tag und nacht den arsch aufreißen und mich verrückt mahcne, das mach ich nämlich sowieso wegen solchen Leuten schon. Gib mir nen ModBios was läuft und wo die Karte nicht runtertaktet dann kann ich auch ohne tag & nacht ununterbochen davor zu sitzen, dir traumhafte Ergebnnisse jeder Art, vo jeden Game, zu jeder Uhrzeit, instant, immer liefern :d
dirbleibt also nichts anderes übrig als mir einfach zu glauben oder halt nicht, ich hab hier noch nie vorsätzlich gelogen...

wenn SLI mit einer X & 980 Ti gehn würde, wäre ich so froh, das verspreche ich :d dann wären alle meine grafikkarten Probleme von jetzt auf gleich gelößt! :)

muss ich wohl ein 980 ti bios auf die X flashen :lol:


@IandNruLeZ:

ahhh danke!! das ist sehr nett von dir, wie gut das ich nicht auf manch einen gehört habe und das getan habe.

bei vielen Games hab ich nie 100% GPU Auslastung und ich zocke IMMER alles auf ultra und alles auf höchste Einstellungen was geht und auf 4k und
bei Mortol Kombat X zB reict das nur für ~70-75% GPU Auslastung^^
 
Zuletzt bearbeitet:
Da fehlt ein Shaderblock bei der TI, sonst wäre das eventuell sogar möglich.
 
selbst dann wäre SLI nicht möglich, beide Grafikkarten brauchen die selbe Kennung, deswegen geht meistens nicht mal nen custom design mit einem Referenz Design zusammen, trotz identischer GPUs, oder mit zwei unterschiedlichen custom designs.
Trifft aber nicht immer zu, ich hatte aber schon mehrmals das Problem gehabt.

Damals gab es noch treiber hacks, womit man auch zwei Unterschiedliche Grafikkarten wenn auch verbugt betreiben konnte in SLI.
Leider wurden die bisher nicht mehr aktualisiert, weil Mangel an Interesse.

AMD ist da etwas entspannender, http://support.amd.com/en-us/kb-articles/Pages/Crossfire-Chart.aspx
funktioniert aber nur innerhalb einer GPU Generation.

also zb.
7970 + 7950 = works
7970 + 5850 = fail
 
Zuletzt bearbeitet:
Hab den ACX Kühler nun ausgiebig getestet. Karte ist ne EVGA Ref. mit Bios einer Hydro Copper. Zusätzlich Lüftersteuerung angepasst wie bei der Ti mit ACX Kühler. Unter 60° 0rpm. Boostet so unter Luft auf 1380MHz@1.15xV und hält den Takt Stundenlang bei max. 84°. Mit plus 25mv boostet die Karte auf 1405MHz und lief auch einen Tag problemlos beim daddeln. Tag später wurd es etwas wärmer und bei über 84° gabs dann reproduzierbar nen Freeze mit Artefakten aufm Schirm. Problem erst durch Lüfter im Seitenteil behoben. Alles mit erträglicher Lautstärke und keine 100% Lüfter.

€dit: 1456MHz mit 1.174v laufen bisher ohne Absturz. Länger als 8h am Stück konnte ich aber noch nicht testen, dafür fehlt Zeit und Laune xD Screenshot zeigt die letzten 30 Minuten bei ARK.

 
Zuletzt bearbeitet:
 
Gehört eventuell nicht ganz hierher, aber bevor ich einen neuen Thread eröffne, vielleicht erkennt ja einer von euch das "Problem" sofort, oder Orbmu2K schaut zufällig vorbei.

Ich übertakte meine Graka über ein paar Inspector-Scripte.
Das "Problem" dabei ist: Jedesmal wenn ich ein Script abfahre, dann schaltet es mir den deaktivierten erweiterten Desktop an. Das nervt. Ich sehe mich schon wieder ein Bios flashen^^


Eventuell hab ich ja einen formalen Fehler im Script, oder es liegt am Inspector. Meine Graka/Monitor-Konfig ist halt nicht 0815, also kann ich es verstehen wenn z.b. Orbmu2K sagt .... schaff halt ein paar Monitore ab^^..

Hier also die Fakten.

Als erstes ein Beispiel-Script.

100mv auf die Karte
Code:
e:\Proc\inspector\nvidiaInspector.exe -setOverVoltage:0,100000

Oder 150Mhz auf den Base-Clock
Code:
e:\Proc\inspector\nvidiaInspector.exe -setBaseClockOffset:0,0,150

Beides schaltet den erweiterten Deskop an.


Vorher:


Nachher:


Moni und Graka-Konfig:



Kann natürlich auch eine Treiber- und/oder Windows-Geschichte sein. Wenn ich die 3 VS-Bildschirme im Windows-Betrieb an ihrer Steckerleiste einschalte (dabei wird der 3. Monitor erkannt, der ohne Strom nicht erkannt wird), dann hab ich auch sofort wieder den erweiterten Desktop^^
BLÖD. NERVT.
 
leg' dir die profile im NVi doch nochmal sauber neu an - im einzel-display modus.

meiner mehrschirmumgebung ist das shortcut zum NVi herzlich egal (win10, 358.50).


(..)

mfg
tobi
 
in der zeit, die du gebraucht hast den post zu verfassen hisn, hättest du dir ein bios modden und flashen können :bigok:
 
Bitte fallt nicht wieder über mich her, aber kann sich bei manchen Spielen Tripple - SLI lohnen bei na Titan X ?


@HisN

ne, war ne doofe Frage, es lohnt sich bei keinem Spiel.
 
Zuletzt bearbeitet:
Definiere "es lohnt sich". Da versteht jeder was anderes drunter^^
Wie viel FPS muss denn ein 3000 Euro-Setup bringen (in welchem Game, bei welchen Settings) damit es bei Dir im Kopf "es lohnt sich" auslöst. Denn nur da passiert das. Nicht bei uns^^
@Tobi
Wird gemacht.
@Webmi
*g* Ich muss mir die Software erst wieder zusammensuchen, oder bei Dir angekrochen kommen und Dich um ein angepasstes Bios bitten^^
 
Zuletzt bearbeitet:
auf veralteten plattformen wie z77 und älter macht ne dritte karte in der tat wenig sinn. auf neueren und kommenden systemen ist durchaus noch mit steigerungen zu rechnen.

ob sich das allerdings "rechnet" muss jeder für sich selbst entscheiden. ich finde es gibt bessere immersionssteigerungen als mGPU, in die man seine 500€ scheine versenken kann. ich hatte allerdings auch schon soviele SLi systeme, dass mich AFR-frames nicht mehr schocken können; ist ein alter massig ausgefranster hut.

zitat THG
"Und genau so war es dann auch: Während wir nämlich beim alten Z77-Unterbau kaum noch eine brauchbare Skalierung der dritten Karte messen konnten, marschiert diese auf der X99-Plattform und bei ordentlich Takt immer noch brav vorwärts."


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Vielleicht ist hier jemand, der die selben "Probleme" hat, wie ich.

Habe vor ein paar Tagen auf Windows 10 geupgraded. Nun habe ich zwei Sachen festgestellt:

1.) Ruckeln Spiele im (rahmenlosen) Fenstermodus. Z.B. habe ich in Dota 2 im Hauptmenü nur 20 FPS im Fenstermodus und 120 im Vollbildmodus. Das hatte ich unter Win 8.1 nicht, sonst einziger Unterschied ist der neue Nvidia Treiber.
2.) Habe ich in 3DMark bedeutend weniger Grafikleistung als bei einem Run vor ein paar Monaten. Die Settings der Graka sind fast identisch, die CPU ist sogar 30% höher getaktet.

Eventuell gibt es ja hier ähnlich geplagte Titan-X-Besitzer und einen Fix? Vielleicht liegt es auch nur am neuen Treiber. Hier der Link zu 3DMark: Klick.
 
Welchen Treiber benutzt Du denn zur Zeit?
Nicht aktuell oder so .. Nummer bitte :-)


Aus dem Readme vom 358.50

Windows 10 Issues
-[358.50, G-SYNC, GM200] Huge performance drop observed when any application is run in G-SYNC windowed mode. [200143562]
This issue can be circumvented by running applications in full-screen mode.



Und dann gibts da den Hotfix-Treiber

Aus dem Readme vom 358.59
Fixes:

• G-Sync Windowed mode & full-screen performance issue




Und das ohne dass ich einen G-Sync-Monitor besitze und mir erst mal ergoogeln musste, dass Deiner einer ist :-)
 
Zuletzt bearbeitet:
HisN, danke! :)

Damit hast du praktisch beide Probleme behoben. Im Fenstermodus ruckelt nichts mehr und der 3DMark-Score ist auch nicht mehr so bescheiden: Klick.
 
Moin Leuts,

Kumpel wollt sich seine Titan X auf WaKü umbauen und ich raff's grad ebenso nicht, wie er auch, ob der HC jetzt für die Titan X oder doch nur für die 980 Ti gedacht ist.
Also auf der EVGA Products Seite
http://de.evga.com/products/prodlist.asp?switch=4

ist kein Hydrocopper für die Titan X gelistet, geh ich auf die 980ti
EVGA | Produkts
und dann auf die Beschreibung ist diese widerrum definitiv eindeutig für die Titan X!

http://www.evga.com/products/pdf/400-CU-G990-B1.pdf
Hmm was denn jetzt? Oder doch "out of stock" ???

Da ja die Titan X den doppelten VRAM hat dachte ich müssten die HC's auch baubedingt anders sein oder etwa nicht?
Weiß hier zufällig einer besser bescheid? Oder noch besser, einer da vom EVGA support bzw. Kundenservice?
 
Zuletzt bearbeitet:
Titan X gibt es NUR im Referenz-Design. Die 980Ti im Ref.-Design hat genau das gleiche Layout. Die zusätzlichen 6GB RAM der TX befinden sich auf der Rückseite des PCB's.

Poste mal einen Link welchen Kühler du genau verbauen willst. Dann kann man genau sagen ob er passt oder nicht.
 
Die 980Ti im Ref.-Design hat genau das gleiche Layout.
Ah okay, des war mir noch nicht ganz klar.
Die zusätzlichen 6GB RAM der TX befinden sich auf der Rückseite des PCB's.
Ja das weiß ich. ;)
Poste mal einen Link welchen Kühler du genau verbauen willst. Dann kann man genau sagen ob er passt oder nicht.

Ne ich nicht, sondern nen Kumpel will halt nen passenden Hydrocopper verbauen. Ich hab ja die EK's und zwar deshalb, weil die backplate nicht ganz so dick is, wie bspw. die des crypografix von aquacomputer. Welche wiederum an die RAM Slots selber und des Backpanels kolliederen würde. Mit anderen Worten da is kein bischen Luft mehr zwischen! :d

Also der von der 980Ti, denn wenn man da halt auf des pdf Beschrebungsteil klickt. Wird der Umbau einer Titan X erklärt.
http://de.evga.com/products/moreInfo.asp?pn=400-CU-G991-B1&family=Accessories - Hardware&uc=EUR
 
Zuletzt bearbeitet:
Sagt mal hat einer von euch auch eine oder zwei EVGA GTX Titan X SC verbaut und bekommt bei GTA 5 und Witcher 3 regelmäßig Freezes? :wall:
Ich dachte das Problem sei mit dem letzten NV-Treiber behoben worden? Bei mir crashen die beiden aber nach wie vor regelmäßig, also der Bildschirm friert so ein, dass ich den Rechner ausschalten und neustarten muss.
Selbst auf den "Affengriff" reagiert der Rechner dann nicht mehr.
Nutze den aktuellen 358.50 und habe zwei X SC verbaut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh