[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OC Stabi-Test:

spielt mal crysis 1 mit Downsampling auf 4k bzw nativ 4k und alles auf Ultra zusätzlich, ingame des weiteren 4xAA bzw 8XAA

kann man bestens mit ausloten in Sachen Vcore bei der X...

Mein Crysis 1 stresst seit Windows 8.1 etwas rum. Habe das auch krass zermoddet :d
Auch Dead Space 2&3 @ 7680x4320 haut krass rein und stürzt schnell ab wenn es nicht passen sollte.
 
Ja, dieses BIOS hast Du mir mal geladen. Ich habe es noch ein wenig modifiziert. Vielleicht ändere ich es nochmal auf 1505 MHz Boost.
Mehr als 1,243 V bekomme ich nicht. Aber immerhin ist es stabil.

da geht auch mehr Spannung, aber dafür muss es etwas abgeändert werden. ... du hattest doch die karte die zum verrecken nicht mehr Spannung wollte,oder?
 
....du musst unten herum dann versuchen die Spannung festzulegen auf 1,205-1,21v im P00 und nach oben hin mit den quasi zur Verfügung stehenden "0,069" volt versuchen auf 1,27v zu kommen.

Denn die Karten lassen über den Boost und den Voltage Reglern wie beispielsweise dem Afterburner bzw. Precision X, maximal 0,069v an "Overvoltage" zu. Das ist aber stark ASICs abhängig.

ganz einfach gesagt jede karte lässt im Prinzip eine voltage Erhöhung via schieberegler zu.

ALLERDINGs:
je nachdem wie weit/nah die karte mit ihrer default vcore am oberen Spannungslimit von 1,275v (Hardware) liegt, desto weniger Spannung lässt sich hinzufügen über den Voltageschieberegler im MSI Afterb./Precision X.

Im besten Fall gehen die genannten 0,069v. Mehr geht von Hause aus in der Regel nicht bei den Karten

Beispiel: Meine Karte macht Default mit dem Bios von mir 1366@1,174v.(Worth Case Settings, die Karte kann viel mehr takt mit den 1,174v)

Mit den 0,069v gehen dann maximal bis zu 1,243v über den Voltageregler. Organisiert ist das alles in 6mV Schritten, was aber nicht heißt, das bei jedem 6mV Schritt ,gestellt am Regler, auch Spannung und Takt dazukommt.

Dies widerrum ist abhängig von dem Boost Table und der festgesetzten Spannungen bei den "CLKs". Wenn die "CLKs" fest definiert sind (von bis der selbe Wert und gleich sind mit dem folgenden CLK),dann passiert nichts.(siehe Bild).











Mit dieser oben genannten Methode kann man quasi die Spannung in einen anderen Bereich d.h Takt/CLK schieben solange die 69mV nicht erschöpft sind und das ist immer abhängig/ausgehend von der def. vcore jeder Karte.

Die dazu definierten Takte sind dabei erstmal unwichtig, man sollte sie aber so legen, das man auf seine gewünschten Takte kommt in Verbindung mit der passenden Spannung. >Beispiel: meine karte macht bei +69mV im

Afterburner 1506Mhz auf der GPU bei 1,243v. Luft nach oben zum benchen ,also mit Offset auf die 1506mhz sind dann noch gegeben.

Bei mir gehen demnach in Bezug auf die def. Vcore >1,174v bis 1,243v (1,243-1,174=0,069) d.h so komme ich niemals auf die 1,275v,da das Limit vorher erschöpft ist bzw. weil die Karte eine niedrige Vcore hat.

Beispiel: eine niedrige ASICs einer Titan X: default vcore=1,21volt plus die 0,069v =1,279v ,wobei die 1,279 Volt nicht erreicht werden, weil das Hardlimit bei 1,274v liegt. Bei 1,205v würden dann die vollen 0,069v ausgenutzt werden.


Aus diesen Settings im Bios ergeben sich bei mir folgende Spannungen/Taktraten mit Betätigung des Voltagereglers.

+7mV = 1379mhz GPU bei 1,179v

+41mV = 1442mhz GPU bei 1,205v

+49mV = 1455mhz GPU bei 1,218v

+50mV = 1468mhz GPU bei 1,223v

+57mV = 1480mhz GPU bei 1,230v

+63mV = 1493mhz GPU bei 1,236v

+69mV = 1506mhz GPU bei 1,243v

Bios:

Datei von filehorst.de laden


Am Rande: Alles stark ASICs bzw GPU Abhängig. Das Bios hier geht bei Karten die bis um die 77-78er ASCIs haben recht gut.

Die Taktrate kann weiterhin mit Offset +- deklariert werden, sowie der Speicher.

Bennofreak hier aus dem Forum hat das bios auf seiner 78,1% ASICs drauf und es verhält sich exakt so wie bei mir (meine ASICs 77,4%)
 
Zuletzt bearbeitet:
In Bezug auf die Spannung dann ja identisch mit seiner. 1.243V is dann erstmal Sense. Um jetzt höher zu kommen musst die default Spannung von 1.174V anheben. Was Du dort mehr gibst kannst hinten anhängen.
 
Zuletzt bearbeitet:
In Bezug auf die Spannung dann ja identisch mit seiner. 1.243V is dann erstmal Sense. Um jetzt höher zu kommen musst die default Spannung von 1.174V anheben. Was Du dort mehr gibst kannst hinten anhängen.


ne, so einfach is es leider nicht. denn die ASICs manipulieren geht nicht... es sollte aber irgendwie funktionieren bzw. machbar sein. da ich keine niedrige ascis hier habe zum testen,ist es gerade schwierig..

@HeinzNeu

versuche mal alle voltage table Spannungen von den CLKs ab 60 bis nach oben auf mindestens 1,2v zu setzten um zu schauen wie sich deine karte verhält. die oberen(69-74) kannste sogesehen dann natürlich auf Standard lassen
 
Seine Angaben passen doch exakt zu deinen. Asic hat der Heinz doch auch über 70 soweit ich es noch im Kopf hat. Was Du ihm gerade vorschlägst ist doch was ich geschrieben habe, nur in anderen Worten.
 
Zuletzt bearbeitet:
das hatte ich mal gemacht und dann hatte die karte nur noch in den 59er CLK gebootet

hmmm mein Bios war aber eh komisch und wollte nicht mit neuen Treibern laufen... ob ichs nochmal teste
 
Zuletzt bearbeitet:
Hi,
ich plane auf TitanX SLI auf zu rüsten, sobald der neue Acer 34" 3440x1440 raus ist und von Watercool die XL Version des Wasserkühlers.
Es soll diesmal unbedingt EVGA werden, Zotac iss auch gut (meckert nicht bei Wakü Umbau) jedoch der Service hat zu lange gebraucht.
Ob SC Version oder nicht ist wohl schnuppe, oder?
Soll ja selber übertaktet werden!

Jetzt zur eigentlichen Frage, die man nicht fragen sollen sollte ;).
Ich möchte auf gar keinen Fall Rückläufer haben!
Wie gehe ich vor, telefonische Bestellung das Thema ansprechen oder kann man bei bestimmten Shops davon ausgehen das es keine Asic getesteten Rückläufer sind.
Schon schlimm das man sich da Gedanken machen muss :shake: wenn man hier von der Asic selektiererei liest.
 
Zuletzt bearbeitet:
Ich behaupte einfach mal, dass die 75Hz Gsync auch ohne SLI gestemmt werden können, aber tu dir keinen Zwang an... Bin schon gespannt :d


Gruß JM
 
Die Titten X im SLI? Wieso keine GTX 780 Ti im SLI?
Die 6GB sollten jetzt kein Problem werden.
 
Nö, nicht beim gemoddeten Skyrim. Muss mich ja schon jetzt zurücknehmen mit den 2 Blacks. Da reissen die 30% FPS mehr auch nicht sooooo viel, wenn man bei 50-60FPS startet und Auflösung erhöht sowie Sichtweite Ingame + noch mehr Texturen 4k+8k plant.
(Nur eine Karte? Selbst mit meiner besten Black, sie macht sogar 1.380Mhz in allen Benchmarks wird's auf 2560x1440 öfters/zu oft laggy)

@Schaffe : schau mal in meine Sig von was aus ich starte ...... 780ti SLI ?? :shot:
 
Zuletzt bearbeitet:
Vieleicht meint er 980 TI da die 780 TI keine 6GB hat und du hast ja schon Black.
 
Zuletzt bearbeitet:
Möglich.
Schaffe will doch nur spielen, der beißt nicht gegen Nvidia!

6GB VRAM sind grenzwertig für mich.
über 5GB VRAM habe ich ja jetzt schon.
 
Ne Titan X ist ja keine Titan Black... Ich schreibe das auch nur, weil ich von Black SLI auf 980Ti bin und Welten besseres Spielgefühl habe nun. Mit dem SLI krüppelst ja atm in fps Regionen rum wo das SLI überhaupt keinen Spaß macht. Ich habe Skyrim aber selber nicht in meinem Spiele Profil und kann daher nicht komplett urteilen. War auch nur ein Gedanke... Wie schon schrieb: ich will dir dein Vorhaben nicht ausreden ;)


Gruß JM
 
Mein letzter ESO-Mod-Test in UHD mit SLI (2xTitan Black) lief in irgend einem Limit.
Aber es war glaub ich nicht die Graka oder das VRAM :-)

 
Treiber reset oder ist der Rechner gefreezed bzw Bild war weg? Wenn deine Karte limitiert kannst den Grund der perf. cap. reason mit gpuz z.B in Erfahrung bringen. Wenn die over current protection von deinem netzteil eingesetzt hat, wurde mehr saft verlangt als der kasten zur verfügung stellen kann. dann wär das netzteil am ende.
 
Nachricht gelöscht
 

Anhänge

  • GPU-Z Sensor Log.txt
    64,6 KB · Aufrufe: 66
Zuletzt bearbeitet von einem Moderator:
naja nich so viel Saft über eine Leitung ziehen ^^ oder anderes Netzteil mit mehr A auf der jeweiligen 12V Schiene
 
Das Seasonic Snow Silent-1050 ist auf hohe Leistung und optimalen Wirkungsgrad ausgelegt. Das 1050-Watt-Netzteil bietet einen Wirkungsgrad von bis zu 92% und ist damit 80 PLUS Platinum zertifiziert. Es ist auch technisch Top: Es bietet aktive PFC mit einem Powerfaktor von 99%, Hybrid Silent Fan Control, eine +12-Volt-Schiene, 14x SATA Anschlüsse, acht PCIe 6+2-Pin Grafikanschlüsse und einen flexiblen Mainboardstecker, der von 24-Pin auf 20-Pin konfigurierbar ist. B
Bei 50 Prozent Last dauerhaften Passiv-Betrieb*.
 
Zuletzt bearbeitet:
Hallo Klaus!

Silent Freak? Die Corsair AX Serie ist bis ca. 40 - 50% Last lautlos, da die Lüfter bei dieser Belastung noch nicht anlaufen. Wie die anderen Serien das handhaben, weiß ich grad nicht.

Ich kann dir nur mitteilen, wie meine aktuelle Konfiguration sich verhält. Betrieben wird bei mir ein Corsair AX1200i. Für einen 5960X @ 4.5Ghz @ 1.197v und eine Titan X @ 1.4Ghz @ 1.174v freilich hinreichend überdimensioniert. Vorteil dabei, was ich beim Wechsel vom Enermax Platimax 1200 zum Corsair AX1200i festgestellt habe ist folgender: Aufgrund von einer Systemlast von etwa 500-550W bleibt das Netzteil lautlos, da die Lüfter dabei nicht drehen. Was die Effizienz angeht, liege ich damit unter Last bei etwas unter 50% und erfülle ungf. die 80 Plus Platin Norm des AX1200i mit 93.43%. Habe mir zu meinem AX1200i gleich noch eines der cablemod.com Kits gegönnt. Tolles Netzteil, tolle Kabel, leise/lautlos und die Effizienz passt auch. Lediglich die Anschaffung ist nicht günstig.

27mrspor.jpg

Erstmal würde ich die GPU aber mal mit einem anderen BIOS versorgen, bevor du Kohlen in ein neues NT investierst. Evtl wie Naonnon schon sagt, zu viel A aus den Ausgängen. Dein AX860 ist ja aber eigtl nicht schlecht und unterdimensioniert sollte es eigtl auch nicht sein. Evtl einfach mal mit Standardspannung ausloten was an Takt geht beim Titan. Mit meinem G-Sync Monitor und der WaKü merke ich den Unterschied zwischen 1400Mhz @ 1.174v und 1500Mhz @ 1.274v nur daran, wie stark die Karte pfeift bzw surrt. Erst am WE noch mal das 1500er BIOS drauf und erschrocken wie die Karte dabei pfeift.

Ansonsten: Bist du auch sicher, das dein CPU und/oder GPU OC stable ist ? BIOS Update vom MoBo drauf?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh