[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
/Klugscheißmodus aus

Ja, ein paar meiner sind so konfiguriert. Das erste NoBoost war das von Wokl, wenn ich mich richtig erinnere.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
/Klugscheißmodus aus

Ja, ein paar meiner sind so konfiguriert. Das erste NoBoost war das von Wokl, wenn ich mich richtig erinnere.

Jo, das funktioniert nur leider nicht so wie es soll.
Low Voltage bei 1000-1088 Mhz ist ein wenig tricky per Bios.
 
Nach ner kurzen Suche weiß ich, warum ich das falsch verstanden hatte.

haudi hatte gefragt:

Hat jemand eigentlich schon nen Bios gebastelt ohne Boost und vor allem mit stufenloser Volanpassung..
Also ohne offset sondern direkt 1.21V, 1.22XV, etc...?
Wolkobi hatte doch so eins für die 980er gebastelt

Die Antwort:

Geht noch nicht mit dem Editor, aber svl7 ist dran.

Das es nicht mit dem Editor geht habe ich gedanklich auf das BIOS ohne Boost bezogen, während diese Antwort wohl nur auf die Spannungsänderung ohne offset bezogen war.

Nun ja, jetzt bin ich halt schlauer.



Ja, ein paar meiner sind so konfiguriert. Das erste NoBoost war das von Wokl, wenn ich mich richtig erinnere.

Danke, dann schaue ich mich diesbezüglich mal um. Vielleicht hab ich sogar schon ein passendes von dir geflasht, muss mal schauen.
 
So also Karten kamen gerade an. Die Kartons von beiden Karten komplett verschweißt und auch die Karten selber in der Antistaticfolie mit nem gelben Siegel verklebt. Auch wurden die Kartons noch nie aufgemacht oder sonstiges was man an den Knicks beim aufklappen gemerkt hat. Also definitiv keine Rückläufer für jeweils 898€ finde ich echt super!
 
Sauber, werd heute nun auch überweisen, bei dem Preis kann ich fast nicht stornieren :coffee:

Asics ?


Sent from my Apfel
 
<-- wird schon wieder SLI-Geil, obwohl ich weiß dass ich mich nur drüber ärgern werde.
 
Also die eine hat 69 die andere 67,9. War in etwa bei meinen 2 980gern vorher auch so kann damit leben. ^^
 
ich aber auch hisn. erst vorhin am mittagstisch überlegt, ob ich nicht eine zweite karte will. gerade für witcher könnte ich die performance sehr gut brauchen. die bastelaktion und die möglichen mü-ruckler unter gsync schrecken mich noch ab. würds halt zumindest gerne mal testen, also SLI mit gsync. ich weiß in der theorie (und praktisch wahrscheinlich auch) ist sgpu mit gsync besser. aber ich könnte schon noch mal 50-100% mehr gpu leistung vertragen :d
 
Die Schraube mit dem Siegel lässt sich auch per Spitzzange gut entfernen - ohne das Siegel zu beschädigen, nur vorsichtig sein und nicht abrutschen !!!
 
Titan X Sli mit meinen 2700k @5GHz oder eine Titan X mit neuen i7 5930K usw ?

Hilfe, ich kann mich nicht entscheiden!:wall:
 
Ganz ehrlich habe Witcher die ganze Zeit mit 2x 980 im SLi mit Gsync gespielt. Hammer geil und keine Ruckler! Gar keine! Gsync bringt auch was bei SLI.
 
Hi Vielen dank schonmal an HisN für deine Hilfe bezüglich Bios. Lauf nun fast so wie ich es mir vorgestellt hab :)

Ich hätte noch 2 Fragen:
1. Ich habe nun doch auch zusätzlich zum Boost Table die Boost States für P00 und P02 angepasst. Kann das in irgendeiner Weise stören oder zu instabilitäten führen oder ist das eigentlich dann völlig egal?

2. Also ich mit Precision meine Werte ereicht habe hat meine 1. Karte im Desktop auf 936Mhz und 1.043v runtergetaktet(1440P 144hhz) im 3D ging die Karte dann auf 1500 mit den max eingestellten 1.243v. Im precision hatte ich dazu noch die 112mv overvoltage aktiv. Bei dem damaligen Bios hatte ich die Regler 2 und 3 in der Voltage table mit min Werten von 600mv.

Bei meinem festen Einstellungen nun musste ich Regler 2 und 3 auf Min und Max gleich setzen da sonst die 1.243v im 3D nicht anlagen. Passt soweit auch wunderbar jedoch liegen nun im Desktop auch immer 1.243v an.
Das Problem generell liegt wohl an dem 1440p und 144hz da meine 2.Karte mit gleichem Bios wunderbar runtertaktet auf 135mhz mit 0.8v.

Frage nun wäre aber ob man das nich doch mit dem Bios so wie im Precision hinbekommt das er zumindest auf 1.043v geht und dann halt im 3D die vollen 1.243v anlegt.
Vielen liebne dank schonmal für eure Hilfe
Hier nochmal meine Bios Screens:
Unbenannt.jpg
 
@webmi
In welcher Auflösung spielst du denn The Witcher 3?
Ich spiele in 2880x1620 und bin mit einer Titan X noch nie unter 60 FPS gekommen, nutze aber auch nur SSAO und Objektsichweite auf High ohne Hairworks, dann läuft es perfekt.
 
Zuletzt bearbeitet:
@webmi
In welcher Auflösung spielst du denn The Witcher 3?
Ich spiele in 2880x1620 und bin mit einer Titan X noch nie unter 60 FPS gekommen, nutze aber auch nur SSAO und Objektsichweite auf High ohne Hairworks, dann läuft es perfekt.
Schatten auf Mittel und haarworks aus sonnst alles ultra. Absolut smooth mit einer Titan x. Hab stellenweise 100 fps
 
@der Aff

ehrlich gesagt ganz einfach:

"Leider" einen 5930k mit 2 Titanen" ... :d

:d ... aber ehrlich:

Nimm wirklich einen 5930k mit einer Titan... die zweite Titan kann immer noch nachkommen UND dich würde es doch garantiert ärgern, wenn du mit deinem 5 GHz Setup trotzdem nicht an Zahlen anderer Sli benuzter rankommst, nur weil dein Chipsatz generell nicht für SLI perfekt ausgelegt ist, da du zu wenige PCI Express Lanes hast...

Nimm einen 5930k und freue dich auf top performance und die aussicht SLI in perfektion später zu kaufen ;)

Und wenn du nun absolut "NEIN" sagst... ^^ hast du deine Antwort und bestellst noch heute zwei Titanen :d

(oder kaufe ein perfektes 5960X Setup und dann später zwei 980TI ^^)
 
Zuletzt bearbeitet:
Titan X Sli mit meinen 2700k @5GHz oder eine Titan X mit neuen i7 5930K usw ?

Hilfe, ich kann mich nicht entscheiden!:wall:

Ich hatte jetzt 2 mal Crossfire und einmal SLI. Bin wieder auf eine Karte umgestiegen, 2 Karten sind zwar in einigen Spielen nützlich und auch für 4k unabdingbar, aber man muss dann auch mit einigen Problemen rechnen.
Mit dem 2700k würde ich auf keinen Fall SLI fahren, da du mit dem nur PCIe 2.0 hast und das die Karten doch arg bremsen würde. Nimm doch einfach das günstige MSI X99 Board mit dem 5820k, dann hast du immerhin 2x8 PCIe bei SLI, das entspricht ungefähr 2x16 PCIe 2.0.

Ansonsten würde ich nur eine Karte fahren wenn kein 4K genutzt wird. Wie gesagt, Witcher läuft mit DSR und fast allem auf Ultra mit einer Titan X sehr gut, wenn du unbedingt alles auf Ultra + Hairworks haben willst, brauchst du natürlich SLI, aber das ist es mir nicht wert.
 
und auch für 4k unabdingbar

W3 ist das einzige meiner Games, das jetzt unter 4K nach mehr Grafik-Power-Verlangt, sofern ich Hairworks benutzen möchte. Ansonsten geht es sich aus mit einer X.
Aber ich hätte schon gerne das Hairworks aktiv^^

 
43fps... unspielbar!

ich schwanke 1440p Ultra (ohne Hair) zwischen 60 und 80+

der 60er bereich wird dann absolut grenzwertig, auch mit gsync

eine zweite karte und dann noch hair + evtl DSR etc wäre halt schon super lecker
 
Ich hab in den 40ern überhaupt keine Probleme mit der X. W3 ist ja kein schneller Shooter, erst mit Hairworks wirds bei 30+ grenzwertig. Mit SLI gerade noch 50% drauf, dann wäre ich ohne Hairworks bei 60 FPS in 4K und darunter rutsche in für mich unglückliche SLI-MR-FPS ab.
Bringt keine Punkte. Thx für die Entscheidungsfindung.
 
Zuletzt bearbeitet:
Ein Shooter ist es nicht, aber ich finde die "Smoothness" beim Umschauen/Kämpfen geht unter 60 flöten. Kann ich gar nicht leiden :d
 
eben, sobald ich was mit bewegung spiele und in den 60er bereich falle, bekomm ich zustände, für mich nahe an der unspielbarkeit und evtl sogar kopfschmerzen. :kotz: so verwöhnt bin ich mittlerweile ;D

nur mit einem X-SLI dann mit Hair und evtl DSR bei 70-90 rauszukommen, wo SLI fps nicht gliech sgpu fps sind... ich würde es gerne testen nur ist mir der aufwand mit der wakü zu hoch um das "mal eben" zu machen
 
Ich glaube unter 60 kann man nur mit Gsync ertragen...
Hat jemand erfahrungen mit Gsync und der Titan X? Spürt man wenn die FPS unter 60 gehen oder sind dann auch 45 FPS erträglich?
 
... selbst 60-70 sind mit gsync grenzwertig bei mir. man merkt einfach, dass es nicht mehr so smooth ist, wie man es kennt oder gerne hätte. ab 70+ gehts dann schon wirklich gut. zwischen 80-120 dann so gut wie kein unterschied. aber der 60er bereich ist auch mit gsync (zumindest für mich) eigtl schon zu wenig. gibt sicher leute, die können das so spielen. gibt leute *hust* die 4k mit 40fps spielen und sich die frames in ihrer super bq am liebsten echt einzeln ansehen. gibt im witcher thread welche, die spielen mir 30fps auf 30hz gefixt... da würd ich mich dann aber lieber erschießen, glaube ich
 
Zuletzt bearbeitet:
Wie gerade geschrieben, 40+ sind mit der Single X für mich kein Problem. Auch mit einem 4K-Moni ohne gSync
Genau das war ja der Grund warum ich das letzte SLI abgeschafft habe. Die Suche nach 60 FPS/Vsync ist mir so auf den Sack gegangen.
 
Zuletzt bearbeitet:
Also ich spiele W3 @1440p mit 1460/2000 @1,218V mit allem an (auch Hairworks, weil die Monster einfach geiler aussehen) und dem SweetFX preset von Powerplay <3 mit durchschnittlich 55-60 FPS auf dem ROG Swift. Ich muss zugeben, dass sich alles unter 50 FPS trotz Gsync nicht mehr so smooth anfühlt, aber das ist wirklich jammern auf höchstem Niveau...

Wer DSR und SLI will braucht eh noch nen Monitor ohne Gsync, weil es zurzeit einfach noch nicht möglich ist...(wurde hier schon besprochen)...

Naja ich persönlich würde an deiner Stelle dazu tendieren meine Settings zu versuchen und mit 60FPS und einer TX plus Gsync glücklich zu sein. W3 sieht erstaunlich gut aus auch ohne jegliches DSR und dem normalen ingame FXAA... :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh