[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
So isses.
Stellt die Frage wieder, wenn Win10 draußen ist, und DX12 weit verbreitet. Bis dahin ändert sich nix.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mh ok danke.. da ich auch gerade die problematik SLI + GSYNC + DSR lese.. wird es wohl kein Sinn machen :/
 
Wahnsinn die Titan X.
Habe heute den MK-26 mit 2x BeQuiet Silent Wings 2 140mm angebracht. Was soll ich sagen... Bei fast lautloser Geräuschkulisse kühlt der Mk-26 die Titan bei 1402Mhz und 4000 Mhz Speicher bei Dauerbelastung von 109% auf maximal 72c. Und ist dabei quasi lautlos da selbst bei 100% die BQs kaum zu hören sind. Bin überglücklich. Die Titan X war jeden Cent wert. Sie hat bei Crysis 3 fast doppelt soviele Frames wie meine GTX 780 bei 1243 Mhz. Wahnsinn was Nvidia da rausgehauen hat. Und Wahnsinn wie der Mk-26 das Ding so leise und dennoch so potent kühlt. Gute Arbeit Nvidia, Prolimatech und BeQuiet. :)
 
Zuletzt bearbeitet:
Standard PT sind 250W. Wie kommst du oder EVGA auf 121% bei 450W?

Weil sie selbst Mods erstellt haben, die die Leistungsaufnahme durch das anheben des TP Wertes gesteigert haben.

- - - Updated - - -

ATELCO haut die X ab 1025€ jetzt ziemlich günstig raus. Da kommt man echt in Versuchung. Ist jetzt schon 100% sicher das die 980 Ti genauso oder noch schneller als die X ist?

Ich glaube, dass die 980ti nicht die "volle" Vollauslastung hat wie TX. Ließ mal meinen post mit dem Gespräch mit EVGA, er hat zwar durch die Blume gesprochen, aber durch die andere Chipbezeichnung die die 980ti hat meinte er, dass der Chip nicht ganz so schnell sein wird, lediglich der Speicher aber gleich von der Anbindung sein soll. Irgendwas von Vollausbau bei TX hat er gesprochen und es wäre das Maximum, daher kann man 1+1 zusammen zählen. So ungefähr hatte er mir die Frage beantwortet. Was Fakt sein wird, warten bis sie da ist :-) dann haben wir Fakten auf dem Tisch ;-)
 
GK110 (Kepler)
GK110-300 = 780 = 2.304 Cores
GK110-400 = Titan = 2.688 Cores
GK110-425 = 780 Ti = 2.880 Cores
GK110-430 = Titan Black = 2.880 Cores

GM204 (Maxwell)
GM204-200 = GTX 970 = 1.664 Cores
GM204-400 = GTX 980 = 2.048 Cores

GM200 (Maxwell)
GM200-310 = 980 Ti = ???? Cores
GM200-400 = Titan X = 3072 Cores

jetzt kann man sich die wahrscheinlichkeit eines vollausbaus ja mal ungf. ausmalen
 
Es könnte aber sehr wohl ein Vollausbau werden...es fehlt nur etwas anderes ;)
 
Naja, ob ich ein VA Panel mit halbwegs echtem Schwarz und gutem Kontrast habe oder ein TN oder IPS Panel, wo das Schwarz grau ist oder das halbe Bild Orange vom Glow wird wenn ich den Kopf 2mm zur Seite bewege, macht zumindest für MEINE Spieleerfahrung schon einen großen Unterschied...

Stimme ich voll und ganz zu. Habe gerade meinen 34" LG 34UM95 21:9 (tolles Format, tolle Bildqualität aber böses Glow und schlechtes Schwarz) durch den 40" UHD Philips BDM4065UC ersetzt, weil dessen VA-Panel einen so herrlichen Schwarzwert hat. Hätte fast geheult vor Glück, als ich bei Elite raus in den Weltraum geflogen bin ;). Vor dem LG hatte ich ein Triple-View aus 3x BenQ XL2420T mit 120 Hz. Ich bin wohl mittlerweile in dem Alter (oder habe halt ensprechende Augen), in dem ich jederzeit bereit bin, hohe Bildwiederholraten gegen mehr Bildqualität einzutauschen. Ist natürlich auch ne Geschmacksfrage, aber bei mir sieht es nun mal so aus.
 
2560 Shader + 6 GB RAM wären möglich. Dann entscheidet vor allem der Preis, für 800 € würde ich auch eine X nehmen, wobei da natürlich die Unkosten für einen ordentlichen Kühler + Die Arbeit für die Montage dazu kommen. Es dürfte auch klar sein dass etwas wie die Titan X für 4K gedacht, leider wird es auf Dauer darauf hinauslaufen dass zwei davon notwendig werden. Der Preisunterschied allein dürfte zur Anschaffung einer 4K-VR-Brille ausreichen und das ist auch der einzige Grund warum ich so etwas überhaupt brauchen könnte...
 
Ok dann her mit den Info's?:)ich mein solange Amd nichts liefert dass mit der T'X konkurieren kann.es wäre ja auch möglich dass ein Gm200-425 kommt.
 
Moin. Kann mir mal jemand sagen warum es bei den x Hersteller gibt mit 4k und 5k?
Gainward hat bsp 4k . Evga 5k

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Haben zwei DP 1.2 Anschlüsse.
Der Anschluss is der Flaschenhals, die Grakas können weit mehr.
 
Hat jemand Temp.Sensoren auf der X?Wenn ja,was für ein Tape nutzt ihr?ich dachte an Aluminiumtape von Tesa, das soll bis 140 Grad aushalten. Die Backplate leitet ja keinen Strom.
 
@webmi
stell doch die hz deines M18xR2 mal von 60 auf 30. du müsstest eine verdoppelung der bq beobachten können

spaß bei seite, schönes notebook haste da! mit allem drum und dran! wirklich schade, dass die 18er nie das 120er display bekommen haben. hatte ne weile das M14x und war die zeit über viel in der AW-com unterwegs.

Ja danke das stimmt, einen 120HZ Screen hätte ich da auch gern drin gesehen, naja :) Auf der anderen Seite, spiele ich an dem "kleinen" Display eigentlich sowieso nicht, dafür sind die größeren Displays da.
Hab ein paar Beiträge von Dir in der AW-Community gelesen, bin da auch tätig.

eQualize87
 
Zuletzt bearbeitet:
Ok dann her mit den Info's?:)ich mein solange Amd nichts liefert dass mit der T'X konkurieren kann.es wäre ja auch möglich dass ein Gm200-425 kommt.

Spätestens im Juni wissen wir genaues.
Im OEM Markt kommen die neuen Karten ja schon im Juni zum Einsatz und dann hoffentlich im Juli auch einzeln.
Wen die Leaks stimmen ist Fiji noch ein gutes Stück schneller als GM 200.
 
Also weil Hp einen neuen Fertigrechner angekündigt hat den man mit der R9 380 austatten kann gehen alle davon aus dass sie dann erhältlich sein werden?Wie die Leute spekulieren und Sachen drehen:) Ich denk mal Dr. Su hats ja klar genug gesagt dass die Karten erst später kommen.
 
Auch ist da ja scheinbar nur von der R380 die Rede gewesen. Und die soll sich ja angeblich deutlich von der R390X unterscheiden. In sofern stellt sich für mich die Frage wie aussagekräftig diese neuen Rechner überhaupt sein werden.
 
Hmm..
Also EVGA muss es sein, sonst geht sie zurück
Und mindestens ein 80er Asic, sonst geht sie auch zurück
Und wenn ich dann eine bekomme, dann ist schon die nächste Generation da.

Ich weiß nicht Heinz ob das zielführend ist, was Du da machst :-)
 
Was wäre wenn im Gpuz ein Bug ist wo Asics alle falsch ausliest ? :shot:

Tausende von Perlen per FAG zurückgeschickt
 
Karte zurück wegen ASIC? LOL, du machst dich gerade lächerlich...

Wenn du schon so eine ehrlose Gestalt bist kannst wenigstens erstmal OC testen, aber selbst das macht dein Vorhaben nicht besser.


Gruß JM
 
Zuletzt bearbeitet:
Ich weiß auch ganz genau, warum du hier an verschiedenen Stellen im Forum unlängst gefragt hast, ob du die X neben deiner Black für einen "Funktionstest" betreiben kannst... Andere werden wegen FAG Abuse zerrissen hier im Forum.

uncool Heinzi, uncool und lächerlich
 
Ja, da hast du vollkommen Recht. Unter 70 sind die ja schon teildefekt ausgeliefert worden.

Du kannst dich gleich neben Sharif stellen. (No offense @ Sharif ;))


Gruß JM
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh