[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Eigentlich nicht. Man wird wohl den GM200 nur in 28nm rausbringen. 2016 soll dann auch schon Pascal in 16nm kommen (auch mit HBM)
 
schreib doch bitte das "reiner" vor "Gaming-Chip" klein oder verlink das großgeschriebene "Reiner" mit meinem sig-Link "Reiner zu Fall @deviantart", ja?
 
Klar, sorry :d Hatte ich vorhin eben in Eile geschrieben - nun aber korrigiert :)
 
Auf unseren Broly ist immer Verlass :bigok:
 
Ein paar weitere Spekulationen:

Quadro- und Tesla-Karten besitzen normalerweise immer eine 800er im Codenamen-Suffix - es könnte sich daher doch um eine GeForce GTX TITAN II / X handeln.
nVidias GM200-Chip zeigt sich | 3DCenter.org

Würde zumindest bedeuten, dass die neue Titan 12 GiB Vram besitzen würde. Eine Desktop GTX 1080 dann 6 GiB.
Hinzu kommen diese Daten: Der Chip ist aus der 40. Kalenderwoche 2014 (A1, also scheint der chip gut zu laufen) , das PCB aus der 42. (mitte Oktober 2014).


Außerdem scheint der GM200 doch klar größer als der GK110 zu sein (nvidia gibt offiziell für den GK110 551mm² an; die vergleichsbilder zeigen eher 512mm² (GK110) gegen 578mm² (GM200))
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Thunderburne wenn du so ein Teil Kaufst zwingst du mich auch zu Kaufen. Ich will nicht Low sein.
Würde dann meine beiden FTW+ für 340€ das Stück Verkaufen und eine 12GB Monster Kaufen, dann kann ich Sagen ich habe Männer GPU :lol:
 
Zuletzt bearbeitet:
Ich bin gespannt, ob wieder das Titan/Ti Spiel wieder losgeht und was uns der Spaß kosten wird.


Gruß JM
 
Ist immer relativ zur Leistung... nochmal 1000€ für ne Titankarte und danach dann Ti Release ist halt blöd. Lieber warte ich ein bischen bis alles raus ist und kaufe dann.


Gruß JM
 
Bis alles raus ist geht noch ne weile :) bzw. never end...........

Klar bei 40-50% mehr Leistung als die 980iger bin ich auch dabei ;)
 
Ist immer relativ zur Leistung... nochmal 1000€ für ne Titankarte und danach dann Ti Release ist halt blöd. Lieber warte ich ein bischen bis alles raus ist und kaufe dann.


Gruß JM

Es wird immer was schnelleres kommen.
Mir wäre es auch lieber wenn Nvidia gleich den Vollausbau raushaut, aber da es beim Kepler so gut funktioniert hat, werden die es beim Maxwell wieder so machen.
 
Hab mir jetzt ne kleine 670 Gtx DCII für den Übergang geholt :cool:

Igpu rockt nicht soooo.......
 
Dass es immer was schnelleres geben wird ist mir egal - ich ziele auch auf den Maxe Vollausbau, ob das Titan oder Ti wird ist mir fast egal. Vollausbau -> kaufen (sofern nicht 1,5k oder so) -> fertig. Das reicht dann ne ganze Weile für mich bis ich irgendwann mal wieder Geld für den Rechner ausgeben kann/WILL.


Gruß JM
 
Ob und wann ein Vollausbau erscheint hängt diesesmal auch etwas mit AMD zusammen. Bringen die Zeitnah (und nicht 9 Monate später) vergleichbare Konkurenz in Form von Bermuda/Fiji (ebenfalls mit einem Die über 500mm²), glaube ich nicht, dass nvidia wieder zuerst einen Teilaktivierten GM200 bringen kann, nicht wenn beide GPUs ähnlich schnell wären (oder AMD sogar etwas schneller wäre). Bei der ersten Titan hat ein 93% Vollausbau eben 9 Monate und ein 80% Vollausbau (780) 5 Monate gereicht, um einsame Kreise zu ziehen. Die Preise müssen aber dadurch nicht signifikant sinken (siehe GTX Titan Black :fresse:)

Auf jedenfall wird dieses Jahr richtig Interessant im High End Bereich. Mal schauen, was AMD so liefern kann. Ein 4096 Shader Ship mit HBM ist antürlich auch interessant anzuschauen :d
 
Zuletzt bearbeitet:
Sehe ich genauso wenn AMD nun doch noch mit 20Nm kommt kommt könnte ein ganz anderes Bild entstehen.
 
Ich glaube auch bei AMD nicht an 20nm, nicht, wenn nächstes Jahr schon 16nm auf dem Plan stehen soll. Irgendwie würde sich das nur lohnen, wenn man dadurch massiv Vorteile gegenüber 28nm haben würde, was laut gerüchten aber nicht so der Fall zu sein scheint.
 
Wie du sagtest es wird sehr spannend.
 
Auf jedenfall wird dieses Jahr richtig Interessant im High End Bereich. Mal schauen, was AMD so liefern kann. Ein 4096 Shader Ship mit HBM ist antürlich auch interessant anzuschauen :d

Na irgendwann muss es ja mal vorran gehen... Die größten OC Modelle der 780 non TI sind nun nicht unbedingt viel langsamer als die 780TI/TitanBE/980er Karten. Und die gibts auch schon seit mitte 2013... Das sind 1,5 Jahre und es geht nicht weiter irgendwie.

Ansonsten glaube ich nach wie vor nicht an HBM bei AMD. Und wenn doch, dann wird das Ding mit 4GB kommen... -> Was nicht gerade darauf schließen lässt, dass es HighEnd ist. Oder doch? Kann ich mir zumindest schwer vorstellen. Ggf. fährt da AMD eher sowas wie bei der HD4770, sprich man versucht schonmal was neues in die "alte" Generation einzubauen. So nach dem Motto, HBM bei der 380er, später dann die 390er mit HBMv2 und mehr ALUs sowie mehr Performance.
HBM beim Dickschiff wird sich aus meiner Sicht erst ab HBM v2 lohnen, nämlich weil der Chip sicher auch wieder im Profimarkt herhalten muss und entsprechend eben auch ausreichend Speichermenge notwendig ist/wird... Mit HBM v1, selbst wenn man das Ding verdoppelt kommt man nach Angaben von Hynix auf 8GB, bei übertriebenen Durchsatzraten von 1TB/sec... Kann man machen, klingt aber unwarscheinlich.

Im 3dc vermeldete vor einiger Zeit mal Jemand einen Beitrag, das womöglich der AMD Chip auch nicht profimarkt tauglich ist/wäre, sprich ohne DP Performance. -> das würde dann zumindest mit HBM v1 in Einklang zu bringen sein. 4GB "reichen" im Desktop Gamergeschäft heute ja erstmal aus... Eventuell ist das dann eine 380X. Und die 390er kommt später... Gibt da halt noch ne Menge hin und her in den Spekulationen, weil bei AMD immernoch zwei Namen als mögliches HighEnd gehandelt werden. Bei NV hingegen nur der GM200. Und bei AMD geistern auch zwei ALU Ausbauten in der Gerüchteküche rum. Die mit um die 3000 oder etwas mehr und die mit 4096. Wenn AMD hier splittet in zwei Produkte, quasi ähnlich dem Tahiti/Hawaii, dann wird der erste Part sicher nicht über GM200 agieren. Eher der zweite Anlauf... Hier hätte NV dann wiederum freie Hand auch nen abgespeckten GM200 zu bringen.

Für mich bleibt am Ende nur die Frage, wie viel Abspecken beim GM200 macht überhaupt Sinn? Ich mein GK110 war bedeutend fetter als GK104. Und 3072 ALUs sind "nur" 50% mehr. Wenn dazu noch 10-15% weniger Takt auf der Uhr stehen sollten, bleiben da in etwa "nur" 30-35% über. Da nochmal Shadercluster zu deaktivieren, würde den Vorsprung noch weiter eingrenzen... Viel Luft ist da nicht aus meiner Sicht.
~40% mehr Power gibts da sicher nur im Vollausbau bzw. maximal mit einem deaktivierten Cluster und hohen Taktraten... Hoher Takt und 550mm²+ könnten sich aber ebenso beißen.

Fragen über Fragen ;)
 
Zuletzt bearbeitet:
AMD muss spätestens Ende Februar relaesen, ansonsten wird das nix mehr. Zu groß die Kluft an keinen NEUEN Karten.
Denke HMB-1 mit 8GB Speicher und etwas über GTX 980 sollte man schaffen, sodass eine womögliche GTX 980 TI einzugrenzen wäre.
NV bringt wohl auch nur eine GTX 980TI 6GB und das Flagschiff lässt man mal aussen vor, wohl auf die echte R9 390-er (14nm Verfahren)
 
Denke HMB-1 mit 8GB Speicher und etwas über GTX 980 sollte man schaffen, sodass eine womögliche GTX 980 TI einzugrenzen wäre.

HBM v1 mit 8GB heist dann aber auch eben wie oben erwähnt, 2x HBM v1 mit je 4GB. Was die Bandbreite verdoppelt, die Kosten verdoppelt, das SI verdoppelt, den Platzbedarf verdoppelt und im Grunde eingentlich vollkommen unsinn ist... Der Verbrauchsvorteil sinkt zudem ziemlich stark zu den von Hynix genannten Werten bei Verdopplung auf 8GB.

HBM v1 taugt da aus meiner Sicht einfach nicht für. Entweder 4GB oder HBM v2 abwarten...
 
@fdsonne
Ach beim OC bin ich da guter dinge .
Schau die 680 ging so zu Ocen wie die 780 ti.
Wieso sollte der GM200 nicht genauso gut gehen wie die 980 .
Denke mal das wird eine Karte wo Wakkü wieder lohnt.
Ich weiss noch damals als ich sagte der GK 110 wird 1200-1300 MHZ rum machen so war es dann auch.
Denke mal den GM werden wir unter Wakkü auch bei an die 1500MHZ+- rum sehen unter Wasser.:)
 
Zuletzt bearbeitet:
Für mich bleibt am Ende nur die Frage, wie viel Abspecken beim GM200 macht überhaupt Sinn? Ich mein GK110 war bedeutend fetter als GK104. Und 3072 ALUs sind "nur" 50% mehr. Wenn dazu noch 10-15% weniger Takt auf der Uhr stehen sollten, bleiben da in etwa "nur" 30-35% über. Da nochmal Shadercluster zu deaktivieren, würde den Vorsprung noch weiter eingrenzen... Viel Luft ist da nicht aus meiner Sicht.
~40% mehr Power gibts da sicher nur im Vollausbau bzw. maximal mit einem deaktivierten Cluster und hohen Taktraten... Hoher Takt und 550mm²+ könnten sich aber ebenso beißen.
)

Der Unterschied ist aber trotzdem der, dass ein GK110 (vollausbau) bei selber GPU-Taktrate und passender Speicherbandbreite niemals soviel schneller als ein GK104 war. Selbst bei gleicher Taktrate ist ein GK110 "nur" gut 40 bis 50% schneller, und nicht die satten 87,5%, welche der GK110 mehr an ALUs als der GK104 hat. Oder auch, dass eine GTX 780 Ti trotz 29% mehr Rechenleistung und 17% mehr Speicherbandbreite "nur" gute 15% schneller als die 780 ist. Das soll ja mit der Vorteil von Maxwell sein - die deutlich gesteigerte Auslastung der ALUs - Absolut zwar weniger als GK110<->GK104, relativ aber ähnliche Performancegwinne.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh