[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Hab heute mal zwei Stunden gezockt. Alles stabil bei mir.
Selbst Alt-Tab auf den Desktop oder ein startender Bildschirmschoner bringen das Game nicht aus der Ruhe.
Auch Project Cars hat gerade ein paar Runden Nordschleife mitgemacht.
Liegt eventuell an Win8.1?

Hab dann ehrlich gesagt nichtmehr viel rumprobiert da ich Witcher 3 nicht zocke. Hab dann einfach den älteren wieder drauf gemacht und seitdem alles Tutti :bigok:

Bin eher grad damit beschäftigt das 24/7 Setup für die Karte auszuloten :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gestern die x bekommen. Meine fresse. 1360 ohne Spannungserhöhung. Mit dem Propeller. Morgen wird der ek mal drauf gemacht. Und dann geht's rund.

Wahnsinn. Gta 5 in 4k mit 2x msaa 50 fps

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Gestern die x bekommen. Meine fresse. 1360 ohne Spannungserhöhung. Mit dem Propeller. Morgen wird der ek mal drauf gemacht. Und dann geht's rund.

Wahnsinn. Gta 5 in 4k mit 2x msaa 50 fps

Gesendet von meinem SM-G900F mit der Hardwareluxx App

Würde ich mir auch wünschen, wobei die 100 MHz wohl wenig bringen. Was für Settings nutzt du? Ich musste leider auf "Hoch" runtergehen jetzt habe ich meistens 60 FPS. Mit 2x MSAA geht es bis auf 40 runter. MFAA hilft leider auch nicht mehr.
 
Settings sind alle auf Maximum. Kann aber morgen ein screeni machen und den hier Posten.

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Wahnsinn wie unterschiedlich doch alles ist hier.... Der eine 4k maxed out but 2xMSAA 60fps. Der andere nur high 2xMSAA 40fps... So viel Unterschied macht das bisschen Takt nicht aus. Entweder spinnt einer von euch beiden oder es ist was faul.


Gruß JM
 
50 Fps?in der Stadt oder im Umland?Macht bei gta ein riesen Unterschied:)
 
Wahnsinn wie unterschiedlich doch alles ist hier.... Der eine 4k maxed out but 2xMSAA 60fps. Der andere nur high 2xMSAA 40fps... So viel Unterschied macht das bisschen Takt nicht aus. Entweder spinnt einer von euch beiden oder es ist was faul.


Gruß JM

Ich mach heute ein screeni vom benchmark.
Wer sagt was von 60? 50 fps sagte ich.
Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Ah, sorry. Habe mich da verlesen. Ist trotzdem noch 20% bzw 25% (je nach Ausgangswert) Unterschied zum niedrigeren Setting von dem anderen. Einer von euch beiden hat Murks.


Gruß JM
 
Ich hab eine Frage bezüglich des the Witcher 3 Keys. Ich hab mir die Beta von Geforce Experience und den neusten Geforce Treiber runtergeladen leider bekomm ich nicht den "Belohnungsbutton" angezeigt. Weiß einer von euch woran das liegen könnte?

Anhang anzeigen 324044

Hast dus nach Anleitung auf geforce.com gemacht? Glaub genau nur so funktioniert es.

"gesendet vom S5"
 
Nur mit Bios Manipulation und ich denke so einfach ist das Ganze auch nicht.

"gesendet vom S5"

?? es gibt/gab doch hacks dafür.

ps: geforce experience ist eine stick normale Anwendung.
jede Anwendung kann man manipulieren.

Grafikkarte -> Treiber -> geforce experience

methode 1:
cheat -0xC0B04C = 0x17c2; -> geforce experience

methode 2:
geforce experience -> ollydbg -> Device ID ändern -> abspeichern -> öffnen.

methode 3:
nvapi sdk im project einbinden, die jeweilige struct finden anschließend die Device ID ändern.


usw.
 
Zuletzt bearbeitet:
Ich hab eine Frage bezüglich des the Witcher 3 Keys. Ich hab mir die Beta von Geforce Experience und den neusten Geforce Treiber runtergeladen leider bekomm ich nicht den "Belohnungsbutton" angezeigt. Weiß einer von euch woran das liegen könnte?

Es funktioniert nicht mit der Beta Version. Die Funktion ist nur in der letzten offiziellen Version enthalten.
Hier der Link: GeForce Experience v2.4.1.21 herunterladen | NVIDIA (Version 2.4.3.31)
 
Ah du nimmst den internen Benchmark, klar der ist nicht so anspruchsvoll wie die richtigen Spielszenen.
 
Ok dass Spiele verbuggt sein können ist mir bewusst, aber bisher kenne ich das nur so, dass wenn es an einem Spiel liegt man höchstens ins Windows rausfliegt aber nicht so nen harten Freeze bekommt wie ich vorgestern...dachte das liegt an meiner Hardware oder Settings...

Ich habe gestern W3 nochmal angeschmissen und das Verhalten der Karte beobachtet...

Power geht zeitweise auf 113%, was den GPU Takt zum throtteln bringt. Einzige Lösung ist dieser BIOS Mod, vor dem ich ein wenig Angst habe was falsch zu machen (wäre das erste Mal für mich)...richtig?

Und ich bin nicht sicher, ob ich alles Richtig ausgelotet habe...Sind 1470/2000 bei 1,218V überhaupt realistisch? Hat jemand ähnliches stabil am Laufen, oder soll ich sicherheitshalber lieber noch bisschen mehr V draufklatschen? Kühlung mit Wakü (420+480+240 Radis) vorhanden, ich komme nicht über 33° Wasser und 41° GPU.


EDITH:
Ich habe als Stresstest lediglich Heaven...3D Mark habe ich gehsehen, dass es verschiedene Versionen gibt...welche müsste ich mir Kaufen um sichergehen zu können, dass meine Settings stabil sind?
 
Zuletzt bearbeitet:
bios mod flashen is easy

1455 @ 1.21 laufen bei mir ebenfalls stabil (evtl auch mehr, nicht geteset)

8 delta wasser/gpu is bissl wenig, unter volllast sollten da ca 12 delta herrschen, völlig unabhängig von radifläche

vergiss heaven für stabilitätstests, mach dein setting und teste es über tage hinweg beim gamen
 
Zuletzt bearbeitet:
Ist Witcher3 gut? Wie sieht aus mit Langzeitmotivation (erster Eindruck)? Sorry für OT, aber das muss ich einfach schnell fragen :)


Gruß JM
 
Tests lesen? Lets Plays auf yt schauen usw. und eigene Meinung bilden? ;)
 
Ist Witcher3 gut? Wie sieht aus mit Langzeitmotivation (erster Eindruck)? Sorry für OT, aber das muss ich einfach schnell fragen :)


Gruß JM

leider bisher nicht so lange gespielt. aber schon ziemlich geil. habe aber auch den vorgänger hart gesuchtet. hängt halt seit gestern bis übermorgen in brüssel auf dienstreise, sonst hätte ich schon weit mehr w3 gesuchtet.

wenn du das genre magst, ist w3 schon ne goile nummer
 
Zuletzt bearbeitet:
Tests lesen? Lets Plays auf yt schauen usw. und eigene Meinung bilden? ;)

In Gameplay Videos sieht auch Medal of Honor gut aus und auch die Kritiken waren nicht so schlecht - noch Fragen?
leider bisher nicht so lange gespielt. aber schon ziemlich geil. habe aber auch den vorgänger hart gesuchtet. hängt halt seit gestern bis übermorgen in brüssel auf dienstreise, sonst hätte ich schon weit mehr w3 gesuchtet.

wenn du das gerne magst, ist w3 schon ne goile nummer
Danke :wink:


Gruß JM
 
Ich werde mir ne Anleitung suchen und mich heute Abend daran machen...Welches BIOS werde ich für mein Vorhaben Brauchen? Das, was vor paar Tagen hier gepostet wurde?

Du meinst meine GPU Temp sollte 45°C sein, oder hab ich was falsch verstanden? Kühler ist doch Besser oder nicht?

Hmm...also ich kann mal nen Screen machen...ich habe laut Aquaero 6XT mit Aquastream XT Ultra ne Wassertemp von 33,68°C und Precision X16 hat mir noch nie mehr als 41°C GPU Temp angezeigt. Durchfluss sind grob 84l/h...Lese ich vllt etwas falsch aus? Habe keinen zusätzlichen Wassertemp Sensor geholt. Der in der Pumpe sollte doch reichen...
 
Du modifizierst Dein Bios, ist sicherer als sich irgend ein Bios aus dem Netz zu beschaffen, obwohl wir bei der X ja keine Bios-Vielfalt haben :-)
 
Ich wollte nicht frech sein, aber gut dass du das auch selbst sagst...meine größte Angst wäre irgend nen Pfusch von irgendwo drauf zu bügeln...

Gibts denn irgendwo ne relativ Idiotensichere Anleitung für das BIOS unserer TX? Prinzipiell müsste ich ja nur irgendwie meinen Takt und meine Spannung einstellen und dann brauche ich auch kein EVGA Precision X mehr oder?

Habe mich halt noch nie an sowas getraut...

Was werde ich einstellen müssen?
-PT auf 130% erhöhen sollte reichen...korrekt? Ich will nicht übertreiben und über 1500 GPU gehen...
-Muss ich was an der Spannung machen? Also ich würde sagen meine Karte läuft bei 1470/2000 @ 1,218V stabil...Battlefield, GTA und Mortal Kombat machen keine Faxen...


EDITH:
http://www.computerbase.de/forum/showthread.php?t=1445972

Kann ich das als Grundlage nehmen? Und was ist besser? Den Gewünschten Takt als Boost einzustellen oder besser direkt fix?
 
Zuletzt bearbeitet:
Der Maxwell BIOS Tweaker ist sehr gut, da kann man alles einstellen. Bei dem Thema: Ich habe damit meine Voltage erhöht und schaffe jetzt 1420 MHz stabil. Mal schauen ob noch etwas geht, wenn nicht gibt es Schlimmeres. Die Regionen um 1400 sind hier scheinbar normal.
 
Reicht es aus GFE einfach nachträglich installieren? Hab derzeit den W3 GameReady drauf aber keine Lust auf großartige action :d

Es sollte reichen, wenn man GFE nachträglich installiert. Sollte die Beta Version von GFE bereits auf dem Rechner sein, dann diese am besten erst deinstallieren und dann die verlinkte Version installieren. Den Treiber brauchst du nicht deinstallieren. Falls es nicht funktioniert einfach den Rechner nach der Installation nochmals neustarten.
 
EDITH:
[Anleitung / Tutorial] Maxwell Bios Tweaker - ComputerBase Forum

Kann ich das als Grundlage nehmen? Und was ist besser? Den Gewünschten Takt als Boost einzustellen oder besser direkt fix?


Kannst Du als Grundlage nehmen, und was besser ist musst Du für Dich selbst entscheiden. Ich glaub da gibt es verschiedene Meinungen zu.
Vieles davon ist auch hier im Thread schon bequatscht/ergänzt worden, vielleicht einfach noch mal Querlesen.
Webmi und Naennon haben das z.b. erledigt.
 
Es sollte reichen, wenn man GFE nachträglich installiert. Sollte die Beta Version von GFE bereits auf dem Rechner sein, dann diese am besten erst deinstallieren und dann die verlinkte Version installieren. Den Treiber brauchst du nicht deinstallieren. Falls es nicht funktioniert einfach den Rechner nach der Installation nochmals neustarten.


Danke für deinen Hinweis mit der Version von GFE. Ich hab meine Beta Version deinstalliert und deinen angegeben Link genutzt und jetzt habe ich den "Belohnungsbutton" nur leider steht da dass es derzeit keine Belohnungen gibt und ich das ganze später nochmal prüfen soll. Naja bin ich anscheiend zu spät.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh