[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
nachdem bei mir nach dem hardwareupgrade des motherboards und anderen gründen eine frische windowsinstallation ansteht und das release von win10 ja quasi vor der tür steht, frage ich mich ob es sich aus performancegründen auf win10 zu warten. gibt es irgendwo win10 (dx12) benchmarks der aktuellen dx11 games? hat man unter win10 einen performancevorteil?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jo der ist echt genial! Leider wird im Batman Treiber der TDR Fix noch nicht enthalten sein. Wird erst via Hotfix kommen aber es scheint als haben sie das Problem lokalisiert...

Gesendet von meinem SM-G900F mit der Hardwareluxx App

Wird auch endlich Zeit, seit meinem Reinstall habe ich zwar erst ein paar TDRs gehabt, aber es nervt schon höllisch wenn man gerade Witcher 3 spielt und dann plötzlich auf dem Desktop landet wegen TDR. Ich werde wieder nen Treiberdowngade machen auf den GTAV Treiber und warte noch nen Monat mit dem nächsten Update, Batman spiele ich eh nicht bevor ich Witcher 3 durch habe.
 
Klar, der ist genau so gut wie die zuvor, habe nie nen TDR gehabt mit den beiden zuvor, keine Abstürze in Games nichts, obwohl ich G-Sync habe.
 
Ich auch nicht. Der 353.30 läuft auch ganz normal wie der .12er davor (Firefox mit Hardwarebeschleunigung, Games...) Habe aber auch das Boost Zeugs deaktiviert, so dass die Karte immer mit einem fixen Takt wie zu Fermi Zeiten läuft. Viell. deswegen keine TDR Probleme. Diese Boost Geschichte sollte NV bei der nächsten Gen. wieder komplett raus schmeissen. Ich halte von dem überhaupt nichts und wie man siehts machts eh nur Probleme.
 
Zuletzt bearbeitet:
taugt der neue Treiber was ?

Ich bin am testen... mal sehen ob der was taugt aber laut Blaire hat auch dieser den TDR Fix nicht inne bzw. nur einen davon im Zusammenhang mit G-Sync. Der generelle TDR/Crash Fix wird voraussichtlich in Form eines Hotfix Treibers erscheinen.
 
@coldfingers, du wirst die TDRs auch nach dem Hotfix vom Hotfix vom Hotfix noch weiter haben, ich weiß es jetzt schon. :d
 
Also ich habe extreme Probleme mit den Treibern..
Beide Karten einzeln laufen sau gut mit mit 1500Mhz und über stunden aber im SLI stürzt mir sograd im Desktop der Treiber oft ab!
In the Witcher 3 habe ich im SLI eben nen Blackscreen@ 1300mhz bekommen mit Treiberreset! Ohne SLI läuft es dann mit 1500mhz den ganzen tag top stabil.
welcher treiber läuft denn aktuell am besten??

Habe Aktuell den 353.12@ Win 8.1
 
Zuletzt bearbeitet:
@coldfingers, du wirst die TDRs auch nach dem Hotfix vom Hotfix vom Hotfix noch weiter haben, ich weiß es jetzt schon. :d

Wieso sollte ich? Hab weder mit dem 347.88 noch mit dem 350.12 TDR´s und ging erst mit den beiden Neueren los. nV ist sich dessen auch bewusst und wenn du auch mal im offiziellen sowie guru3d Forum lesen würdest, dann würdest du schnell erkennen was für ein Ausmaß das mittlerweile annimmt. Ohne modded Bios ist kaum noch eine Karte stabil ganz zu schweigen von Werks OC Karten...
Und ihr Egomanen ääähm hilfsbereiten Menschen teilt euer Wissen ja nicht für ein anständiges modded Bios, damit wir auch in den Genuß der Absturzfreiheit kommen, zumindest bis nV es gebacken bekommt ihre Treiber zu fixen...
Ja jetzt hast du das Recht dir auf den Schlips getreten vorzukommen. Bei meiner sachlich gestellten Frage war dazu nämlich kein Grund vorhanden....... :rolleyes:
 
Zuletzt bearbeitet:
Hey was hast denn an deinem bios gemacht weil du sagtest mod bios.
Ich habe aktuell das Original bios einfach auf 400watt erweitert und würde das auch gerne so modden das es top läuft
 
Zuletzt bearbeitet:
Hey was hast denn an deinem bios gemacht weil du sagtest mod bios.
Ich habe aktuell das Original bios einfach auf 400watt erweitert und würde das auch gerne so modden das es top läuft

Das musst du die Pros hier fragen, die ihr Wissen für sich behalten. Angeblich muss man die Taktstufen entsprechend mit mehr Voltage versorgen aber nicht nach Bauchgefühl :rolleyes:, sondern auf die jeweilige Karte abgestimmt :fresse2: Aber das ist zu viel Arbeit, also mach dein Scheiß selbst... so die Aussage von den Pros hier ;)
 
Klar warum sollte man sein Wissen auch teilen? Ich meine die Physik wird ja auch von jedem Menschen erneut erforscht :shot:
 
Das musst du die Pros hier fragen, die ihr Wissen für sich behalten. Angeblich muss man die Taktstufen entsprechend mit mehr Voltage versorgen aber nicht nach Bauchgefühl :rolleyes:, sondern auf die jeweilige Karte abgestimmt :fresse2: Aber das ist zu viel Arbeit, also mach dein Scheiß selbst... so die Aussage von den Pros hier ;)

Das ist auch kacke zu machen habe da ja auch gefummelt.
Das beste ist einfach den boost zu killen und nen Festen Takt für 3D und gut weil Boost ist dreck
 
ok...
Dann hilft wirklich nur auf den 350.12 zurück zu gehen weil es nervt einfach nur.
 
Das ist auch kacke zu machen habe da ja auch gefummelt.
Das beste ist einfach den boost zu killen und nen Festen Takt für 3D und gut weil Boost ist dreck

Dito, habe ich schon oft gesagt und auch bei der Titan Black wurde der per Biod Mod deaktiviert. Warum dieses Glump mit der Kepler Generation eingeführt wurde, weiss auch nur Nvidia. :stupid:
 
Zuletzt bearbeitet:
Wieso sollte ich? Hab weder mit dem 347.88 noch mit dem 350.12 TDR´s und ging erst mit den beiden Neueren los. nV ist sich dessen auch bewusst und wenn du auch mal im offiziellen sowie guru3d Forum lesen würdest, dann würdest du schnell erkennen was für ein Ausmaß das mittlerweile annimmt. Ohne modded Bios ist kaum noch eine Karte stabil ganz zu schweigen von Werks OC Karten...
Und ihr Egomanen ääähm hilfsbereiten Menschen teilt euer Wissen ja nicht für ein anständiges modded Bios, damit wir auch in den Genuß der Absturzfreiheit kommen, zumindest bis nV es gebacken bekommt ihre Treiber zu fixen...
Ja jetzt hast du das Recht dir auf den Schlips getreten vorzukommen. Bei meiner sachlich gestellten Frage war dazu nämlich kein Grund vorhanden....... :rolleyes:

Ach je, dein Geblubber ist mir doch so was von egal! Deine Beschwerden über TDRs und sonstige Unzulänglichkeiten überall in den Foren erheitert mich nur, mehr nicht, ich fühle mich dadurch doch nicht auf den Schlips getreten - doch nicht weil ein User seine Hardware nicht im Griff hat und dann wie ein Baby überall rumheult. ;)
 
Das heisst, die neueren Treiber sind nur für Leute interessant die ihr Bios richtig gemoddet haben? Weil man seine Hardware ja auch im Griff haben sollte.^^
 
Zuletzt bearbeitet:
Nö, habe ich zumindest nie gesagt und das ist auch nicht so, also das mit dem Mod-Bios, das behauptet User "coldfingers" aus seinem persönlichen Ärger mit den Treibern heraus.
 
Zuletzt bearbeitet:
@Powerplay habe das Bios cyclops3 drauf was genau da macht kann ich dir nicht sagen:fresse2:
 
So habe grade beide karte geflasht so das sie ohne Boost laufen@ 1405Mhz. Mal sehen ob das nun rennt aber glaube kaum dran

@Powerplay habe das Bios cyclops3 drauf was genau da macht kann ich dir nicht sagen:fresse2:

:lol:
 
Hab keine Bios Mod's auf den Karten laufen bei 1415/3940 bei 1.199 V, hab die Taktzahlen noch nicht ganz ausgreizt bei dieser Spannung. Seit 3H TW3 gezockt und Pc läuft den ganzen Tag noch keinen Absturz etc. mit dem 353.12.
 
Wie bei mir, Witcher 3 lief eben über eine Stunde auf 1506/1950, Chrome nicht ein einziger Absturz, alles sauber mit dem 353.12.
 
Dann scheinen die TDRs ja anscheinend wirklich nur an der Hard/Softwarekombination zu liegen. Und Nv konnte es ja reproduzieren. Mein einziges Problem mit einem NV Treiber war noch zu GTX 570 Zeiten. Da gab es beim beenden von Bf3 oft einen Bluescreen der mit einer neueren Version wieder verschwand, sonst eigentlich nie Probleme gehabt.

Warum gibts eigentlich nur im Chrome TDRs und nicht auch im Firefox (hardwarebeschleunigter Modus)?

Der 353.30 bringt bei mir übrigens mehr Leistung im klassichen Metro 2033 Benchmark. Da hatte ich gegen Ende 180 fps und jetzt 200 fps mit gleichen Einstellungen. Karte läuft mit Standardboosttakt aufgrund sommerlicher Temps. Langt auch, da ich nur in FullHD und gelegentlich DSR spiele.
 
Zuletzt bearbeitet:
Wie bei mir, Witcher 3 lief eben über eine Stunde auf 1506/1950, Chrome nicht ein einziger Absturz, alles sauber mit dem 353.12.

bei mir grade abgestürzt und the witcher hat sich einfach beendet!
Kein Boost mehr auf den karten vorhanden.
DSR macht bei mir aber auch sau oft probleme
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh