[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was kostet ein 4790k und was kostet ein 5820k?

ddr4 ist jetzt auch nicht mehr so teuer.

wer sich ein tx sli leisten kann/will hat die 100 mehr gegenueber einer 4790 basis fuer ne ordentliche 2011er basis auch ueber
 
der reicht doch?
 
@ChewbakkaPL

Wall of Text Incomming^^

Entschuldige bitte, das Thema ist so breitgekaut in den Foren, ein bisschen lesen anstatt eine Frage zum 1000. mal zu stellen erwarte ich dann doch manchmal.

a) Es gibt kein generelles Limit, egal was ihr anstellt, es ist praktisch unmöglich ein generelles Limit aus dem Namen von zwei Hardware-Teilen abzuleiten. Denn sie machen ganz unterschiedliche Sachen. Die CPU ackert Deine Software ab, die GPU beackert Deinen Monitor. Da gibt es keine Abhängigkeit, das sind zwei grundverschiedene Dinge. Zwei paar Schuhe.
b) Es ist immer von Deiner Software und Deinen Settings abhängig. Wenn in Game XXX die CPU limitiert (Arma3/DayZ) bedeutet es nicht das es auch im Game YYY so ist (Witcher3, GTA5). Es gibt keine pauschal richtige Antwort auf diese zigtausendmal gestellte pauschale Frage. Ich kann BF3 mit der gleichen Hardware im CPU-Limit und im Graka-Limit betreiben, einfach dadurch, dass ich die Einsteller im Game benutze. Du hast Einsteller in der Software wie schwer Du die CPU und die Graka belasten kannst.
c) Es ist immer an der Auslastung der Graka zu sehen (da könnte man selbst drauf kommen, wenn man schon so eine Frage stellt, meinst Du nicht?)
d) Und weil es so viele Unbekannte in der Gleichung gibt (Software/Settings/Graka/CPU) ist es unmöglich für uns DIR zu sagen ob DEINE CPU DEINE Graka in DEINER Software mit DEINEN Settings limitiert. Und noch viel schwieriger ist es zu sagen ob es überhaupt relevant ist.


Beispiel: Gleiche Hardware, ein mal CPU und ein mal Graka-Limit, und jetzt? Ist jetzt meine CPU zu lahm, oder das verwendete SLI?


Und jetzt kommen die Spezialisten und sagen: Schau mal, im GPU-Limit sind Deine Grakas gar nicht zu 99% ausgelastet.
Klar... schiebe ich die CPU auf 6Ghz, dann kommen da sicher noch ein paar Prozente mehr Auslastung zusammen. Relevant für Dich? Für mich ist das schon wieder hypothetisch/surreal/akademisch. Eventuell ist es nur ein nicht optimal funktionierendes SLI-Profil oder eine nicht optimal mit AFR zusammenarbeitende Game-Engine, eventuell.

Für mich ist das ganze (also wirklich das ganze Thema) inzwischen rein akademisch. Es wird ständig von Leuten aufgegriffen die irgendwo mal irgendwas gelesen haben, sich aber nicht hingesetzt haben und sich darüber Gedanken machen, sondern es einfach nur wiederkäuen.
Deshalb reagiere ich inzwischen leicht allergisch drauf.

Ich meine spielst Du CSG bist Du mit der X selbst in 4K immer noch CPU-Limitiert unterwegs bei 270 FPS. Wo ist jetzt der Beinbruch? Wen interessiert das wirklich bei 270+ FPS?

Erst in 8K komme ich langsam ins Graka-Limit.


Und das ist es was mich am meisten Aufregt ... wen interessiert ein CPU-Limit bei 270 FPS? Ist das nicht ein völlig unsinniges Gewese und Geeier um gar nix?
Am Ende stellst Du nämlich Deine Grafik immer auf Anschlag. Automatisch. Niemand heult rum und sagt: Heul Heul Heul, meine Graka ist nur zu 80% ausgelastet, sondern jeder (vernünftig denkende Mensch) wird da sagen: Cool, Graka ist nur zu 80% ausgelastet, da hau ich mehr Antialiasing drauf, da hau ich mehr Hairworks drauf, da geb ich DSR drauf. Und das ist das, was ich am allermeisten verwirrend finde. Warum wird über etwas rumgeeiert, das ein normaler Gamer gar nicht erfährt, weil er es (unwillkührlich/automatisch) beseitigt?

Wenn Du Angst hast, dass Deine CPU zu lahm ist, dann probier es doch einfach aus. Es ist doch nicht so schwer.
Vergiss den Zusammenhang mit der Graka, den ihr versucht herzustellen, den gibt es nicht. Nimmt die Graka aus der Rechnung.

Setting im Game, wie Du sie gerne hättest (Ultra nehme ich an). Dann Auflösung runter auf Minimum, Antialiasing aus, Ambient Occlusion aus, Post-Prozessing aus, Hairworks aus. Auf die FPS schauen. DAS ist es was Deine CPU leistet (musst Du natürlich in JEDEM DEINER GAMES machen, sorry, es ist ein bisschen Mitarbeit und eigener Gehirnschmalz notwendig). Und dann überlegst Du Dir, ob das für Dich ausreichend ist.
So einfach ist es.
Dabei interessiert die Graka gar nicht. Denn Deine CPU ist entweder FÜR DICH schnell genug, oder nicht. Was hat die Graka damit zu tun? Wirklich? Ehrlich? Der ist es doch völlig egal wie schnell die CPU ist. Das spielt sich alleine in Deinem Kopf ab.


<-- Textblock markiert und gespeichert, für den nächsten der diese Frage stellt :-)
 
Zuletzt bearbeitet:
Hab bei mir den 5820K drin mit den 28 Lanes. Ich spüre keinen Verlust der FPS im SLI. Irgendwo total Marketingkram. In vielen Tests wirst du sehen, dass du vielleicht 0,5 FPS verlierst. Und maximal 0,5 fps weniger aber wesentlich weniger bezahlen. Absolut okay :)
 
Hab bei mir den 5820K drin mit den 28 Lanes. Ich spüre keinen Verlust der FPS im SLI. Irgendwo total Marketingkram. In vielen Tests wirst du sehen, dass du vielleicht 0,5 FPS verlierst. Und maximal 0,5 fps weniger aber wesentlich weniger bezahlen. Absolut okay :)

Geht doch nicht darum;).. Aber wenn ich 2011er System anpreise wegen tollen Lanes etc. dann doch bitte nicht mit dem 5820k...!!
 
gpu1 x16
gpu2 x8
ssd x4

klingt besser als

gpu1 x8
gpu2 x4
ssd x4

nur als beispiel

dazu hast du nen hexa statt quad und ein dickes chipset für kaum mehr geld.

ps: drüben im 980 Ti thread :bigok:

Ist die Karte nicht so ein bisschen ein Schlag ins Gesicht für alle, die sich vor 2 Monaten eine Titan für 400 mehr gekauft haben?:hmm:


JA die Titankäufer wurden wie gewohnt verarscht, was anderes war auch nicht zu erwarten, von diesem Verein.
 
Zuletzt bearbeitet:
naja ich hab GTA, Witcher, Project Cars alles genossen mit der X
 
ja, wird zeit das was neues und vor allem deutlich schnelleres kommt :bigok:
 
ne Pascalvollausbau dauert
hole mit diesmal nicht den Midrangechip
 
wenn er entsprechend schneller wird als die x werd ich zugreifen müssen :stupid:
 
Die Custom-Kühler der 980 Ti der Hersteller müssten doch theoretisch auch alle auf die Titan X passen, oder? Das Layout ist bis auf die rückseitig fehlenden Speicherchips identisch. Bei EVGA wird man ja auch den ACX Kühler für die Titan ordern können.

Wenn ein Custom-Kühler der 980 Ti besonders gut ist, lohnt sich vielleicht ein Umrüsten der TX, wenn man an den Kühler so rankommt.
 
So meine 900€ Gainward ist heute auch gekommen ;)

Hier das ganze unter Luft @ Anschlag :d



Scheiß Asic :coffee: aber für Air glaub net schlecht, wie reagiert sie auf Wasser bzw. was bringts Max noch?
 
glaube nicht, dass du da mit wasser noch was rausholen kannst.
 
Heute noch mal @Air weiter probiert bei 1410 MHZ 1,193V ca 74 ° im 3DMark Fire Strike Ultra letzte Szene ausgestiegen zurück auf den desktop.

Sag mal hilft in dem Fall eine Wakkü überhaupt noch bei der X um den Takt eventuell doch fixen bei selber Spannung ?.
GPU habe ich wohl ne ziemlich schlechte erwischt.:heul:
Von 400W ereiche ich nun 85%.
 
Zuletzt bearbeitet:
kälte hilft evtl das ein oder andere was nicht durch den fs läuft, gerade noch so irgendwie durch zu bekommen, wenn man glück hat. aber große mhz wird man hier nicht machen.

der chip reagiert weder auf spannung noch auf kälte.
 
Warum wird deine sooooo Heiß ?

Schau mal meine Temps im Screen, das bei 1,27v 100% Fan und offens Gehäuse.
 
Asic bedeutet immer noch nix. Das ist wie Voodoo! :X

Die 980Ti ist ja doch ne feine Karte geworden. Als Titan X-Käufer würde ich mir auch nicht in den Allerwertesten beißen. So konnte man wenigstens eine Zeit lang den kleinen Benis kompensieren... :d Spaß...

Ne ehrlich, beides brachiale Karten, finde den Cut aber dieses mal echt gering. Vor allem weil 6 zu 12GB kein Argument sind.

Aber was soll man zu dem Preis der 980Ti sagen? Hat nVidia doch ein wenig Angst vor Fiji? Oder warum hat man eine so geringe unverbindliche Preisempfehlung gewählt?

Achja:
Ich bin immer noch von meiner 295x2 überzeugt @Naenaiaononon
 
So meine 900€ Gainward ist heute auch gekommen ;)

Hier das ganze unter Luft @ Anschlag :d



Scheiß Asic :coffee: aber für Air glaub net schlecht, wie reagiert sie auf Wasser bzw. was bringts Max noch?



unter wasser geht auf jeden fall mehr. weniger Spannung bei gleichem takt bzw. das was benchbar war,wird gamestable.. so als anhaltspunkt
 
Heute noch mal @Air weiter probiert bei 1410 MHZ 1,193V ca 74 ° im 3DMark Fire Strike Ultra letzte Szene ausgestiegen zurück auf den desktop.

Sag mal hilft in dem Fall eine Wakkü überhaupt noch bei der X um den Takt eventuell doch fixen bei selber Spannung ?.
GPU habe ich wohl ne ziemlich schlechte erwischt.:heul:
Von 400W ereiche ich nun 85%.

Wie hast du den Ram? Probiere es mal bitte mit 3901MHz aus. Wenn du 4100 Ram fährst wundert mich das nicht.
 
Zuletzt bearbeitet:
Heute noch mal @Air weiter probiert bei 1410 MHZ 1,193V ca 74 ° im 3DMark Fire Strike Ultra letzte Szene ausgestiegen zurück auf den desktop.

Sag mal hilft in dem Fall eine Wakkü überhaupt noch bei der X um den Takt eventuell doch fixen bei selber Spannung ?.
GPU habe ich wohl ne ziemlich schlechte erwischt.:heul:
Von 400W ereiche ich nun 85%.


mit Sicherheit hat sie sich untervoltet o.ä. unter wasser wird die sicherlich ein anderes bild von sich geben
 
Der geht mit 4150 durch den FsU leider erreiche ich bei Witcher schon 370W ca die GPU scheint echt griff in Klo zu sein.

@instandrulz

V ist fest.

Wenn ich sehe das Powerplay nicht mal 275W erreicht mit seiner 64Asic bei 1400 wird mir bei meiner Karte echt komisch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh