[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Mit Erhöhung der Spannung rutschst du automatisch im Boost-Table nach oben->sprich der Takt steigt pro Spannungsstufe im normal Fall um eine Taktstufe.
Dass nicht jede kleine Spannungserhöhung sich auf die Spannung selbst ausschlägt liegt ebenfalls am bios. Standardspannung z.B. 1,18v max. Spannung 1,25v bedeutet eine max. Differenz von 70mv. Du kannst aber im Tool von 0-112mv einstellen. Dementsprechend steigt die Spannung nur bei gewissen Stufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt, es waren 80fps. Ich glaube viele setzen sich jedes mal ne neue rosa Brille auf und noch größere Scheuklappen wenn ne neue Generation kommt... Hauptsache vor 48“ Inputlag sitzen und über 27“ Highrefresh Sync wettern.


Gruß JM
 
es sind 12/13 MHz und es geht nur alle 2 halbe VCore Stufen hoch

Jup, allerdings. Ich finde das sehr lästig, da man den Takt immer auch etwas reduzieren muß, um erhöhte Spannung X mit gewolltem Takt Y testen zu können.
Warum hat beim V-Core eigentlich nur ein 0,25mV Schritt eine Wirkung?
 
Habe heute meine beiden endlich unter Wasser gesetzt. So laufen sie mit original Bios ständig mit 1164 Mhz. Denke ich werde das erst mal so lassen. Genug fps habe ich nun.
 
ich hab mir das EVGA TitanX Hydrocopper Bios nachgebastelt, bzw gibt ja keins, aber die Taktraten ^^

Stock VCore
300W
und halt die Takte reingeklimpert, boostet auf 1380, ok hab ich auf 1405 gedreht, aber passt ja
was verkauft wird und läuft sollte auch so laufen ;)
 
Stell mal on :d
 
Welche Kühler? Backplate montiert?

2 von Aquacomputer, ohne Backplate. Die schickte ich ja wieder zurück weil die Abstandshalter nicht in die dafür vorgesehen Löcher passten. Und mit einem Hammer schlage ich die nicht ein. Das Zeug muß von Haus aus passen.
Temperaturen nach 2 Stunden The Witcher 3, Karte 1 45°C, Karte 2 52°C. Wasser Temp kratzt an der 35 °C Grenze.
 
Die schickte ich ja wieder zurück weil die Abstandshalter nicht in die dafür vorgesehen Löcher passten. Und mit einem Hammer schlage ich die nicht ein. Das Zeug muß von Haus aus passen.
.

Stimmt, die passen nicht zu 100% so einfach. Aber das ist kein großes Problem. Die sitzen schnell und dann ist der Kühler sehr gut. Bei EK sitzt die Backplate dafür nicht optimal. Irgendetwas ist meistens :d
Ich bin überaus zufrieden mit dem Kühler und der Backplate. Nur die Schrauben sind billig.
 
Zuletzt bearbeitet:
Ich schnall das OC bei der Karte auch noch nicht so richtig... Habe vom Psycho "Vanilla Bios mit 350W PT bei 100% bzw. 425W bei 121%" geflasht und 1325MHz laufen jetzt mit 1,19V bzw. +25 im Afterburner, gestern 1350MHz probiert, immer abgeschmiert, auch mit 1,243V. Vielleicht ist der Sweetspot erreicht, aber irgendwie glaube ich das die Karten sich anders verhalten beim Volten als Kepler.

Was mir auch aufgefallen ist das die GPU Spannung sich nur bei 5 verschiedenen Einstellungen ändert und auch der Takt ändert sich automatisch, wenn man die Spannung erhöht. Habe folgendes beobachtet:

+0mV = 1,1620V = 1300MHz
+7mV = 1,1800V = 1312MHz
+25mV = 1,1990V = 1325MHz
+44mV = 1,2180V = 1337MHz
+69mV = 1,2430V = 1350MHz

Habe im Afterburner +110 beim Coretakt eingestellt. Ist euch das auch aufgefallen? Vielleicht machen nur diese Werte Sinn und alles andere dazwischen verursacht Abstürze?

Edit:
scheint ja immer ca. 12 MHz höher zu gehen mit jeder neuen VCore Stufe...

Könntest du das Bios mal hochladen? Hätte Interesse daran :wink:

Übrigens Webmi, du musst dich noch mal ans benchen machen :asthanos:
 
Zuletzt bearbeitet:
Stimmt, es waren 80fps. Ich glaube viele setzen sich jedes mal ne neue rosa Brille auf und noch größere Scheuklappen wenn ne neue Generation kommt... Hauptsache vor 48“ Inputlag sitzen und über 27“ Highrefresh Sync wettern.


Gruß JM

Wenn du auch nur einen Test zu dem Samsung UE48JU7590 gelesen hättest, wüsstest du auch wieso ich diesen als PC-Monitor gekauft habe.
Aber billige One-Liner vom Stapel zu lassen erfordert bedeutend weniger Arbeit...
Und von mir aus könnte dein 27er Acer/Asus über 9000 Hz haben. Trotzdem bleibt er für mich nur ein mickriger Bilderrahmen.^^
 
Zuletzt bearbeitet:
Hat einer von euch, mit SLI System, versucht AC Unity zum laufen zu bringen? Wenn ich SLI an habe geht mein PC aus wenn ACU startet. Ohne SLI geht es. Da ich nicht übertaktet habe (aktuell nicht mal die CPU) kann es also an zu hohen Einstellungen nicht liegen.
 
Klingt so, war es aber anscheinend nicht. Habe mal mit Geforce Experience das Spiel optimieren lassen. Dann lief es. Ich habe ein Be Quiet Dark Power Pro 10 mit 750W. Und im Valley Benchmark zeigt das Strommessgerät maximal 583 Watt an. Also ist noch reichlich Luft nach oben.
 
bei mir mehr als 100mhz weniger auf der gpu
gibt mal deine karte :bigok:
gratz zum score :bigok:
evtl mal mit stift auf meiner karte rummalen :bigok:

Nee nee, da ließt Firestrike einen scheiß aus, es waren 1560 / 4000 :shot:
Hättest mal dein bench1.35 Bios nicht hochgeladen :asthanos:
 
Zuletzt bearbeitet:
Nee nee, da ließt Firestrike einen scheiß aus, es waren 1560 / 4000 :shot:
Hättest mal dein bench1.35 Bios nicht hochgeladen :asthanos:

Firestrike liest nur falsch aus wenn man per Software taktet
festgetackerte Raten im Bios zeigt er richtig an
 
So nach ein Tag spielen mit der Titan x kann ich sagen Monsterkarte.
Spiele zwar nur auf fhd aber auch da merkt man deutlich ein Sprung nach vorne. Bf 4 fallen die frames fast nie unter 100 frames ein Traum für eine Single Karte
 
Hat einer von euch, mit SLI System, versucht AC Unity zum laufen zu bringen? Wenn ich SLI an habe geht mein PC aus wenn ACU startet. Ohne SLI geht es. Da ich nicht übertaktet habe (aktuell nicht mal die CPU) kann es also an zu hohen Einstellungen nicht liegen.
Liegt am NT. ACU Hauptmenü ist wie ein GPU Burner. Das ist auch bekannt. Das zieht schon eine Karte bei mir das Power Limit von 350W. Schalte das PT auf 100% bevor du das Game startest und dann geht es! Ingame kannst du versuchen wieder umzustellen. Aber im Hauptmenü knallt dir dann wieder alles durch.
 
Alle Sammys haben >25ms Inputlag. Und ich habe keinen Asus/Acer...

Warum beantwortest du nicht die Frage des Abstandes?


Gruß JM
 
Hat Ubi eigentlich das SLI Problem in Unity inzwischen gepatched?
 
Hat Ubi eigentlich das SLI Problem in Unity inzwischen gepatched?

Ist das nicht NV seine Aufgabe. Schon traurig NV AAA Titel läuft nicht mal mit NV Karten Perfekt.
Ich installiere mal Assassins genau aus diesen Gründen habe ich damals deinstalliert weil ich so nicht Spielen wollte.
 
Zuletzt bearbeitet:
Könntest du das Bios mal hochladen? Hätte Interesse daran :wink:

Übrigens Webmi, du musst dich noch mal ans benchen machen :asthanos:

NVFlash.rar (1,29 MB) - uploaded.net

Gerade nochmal nen Firestrike Extreme gemacht mit 1350MHz und +25mV im AB eingestellt, Treiberreset. Dann nur +7mV eingestellt und Takt entsprechend um 12 erhöht um wieder auf 1350MHz zu kommen, FSE läuft durch... häh?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh