[Sammelthread] NVIDIA TITAN X (GP102) Sammelthread + FAQ

NVIDIA TITAN X (GP102) Sammelthread + FAQ


Impressionen der Karte:

nvidia-titanx-sli-1-840x560.jpg

nvidia-titanx-sli-2-840x560.jpg

nvidia-titanx-sli-3-840x560.jpg

nvidia-titanx-sli-4-840x560.jpg

nvidia-titanx-sli-6-840x560.jpg

nvidia-titanx-sli-9-840x560.jpg

nvidia-titanx-sli-12-840x560.jpg

nvidia-titanx-sli-13-840x560.jpg

nvidia-titanx-sli-15-840x560.jpg

nvidia-titanx-sli-18-840x560.jpg

Technische Daten der nVidia Titan X
  • Chip = GP102-???-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 12,0 Milliarden
  • Die-Größe = 471 mm²
  • Shader-Einheiten = 3.584 (1D) (28 SMM)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 136,0+ GPixel/s
  • Texelfüllrate = 317,4+ GTexel/s
  • Chiptakt = 1.417 MHz Baseclock + Boost (1.531 MHz) + Max. Boost (~1.700? MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = G5X
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 480,6 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250 Watt
  • Leistungsaufnahme 2D = ~10 Watt
  • Versorgung über einen 6-Pin und einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the NVIDIA TITAN X


"Kauf" Link:
nVidia Titan X | Deutschland - nVidia

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei nVidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die nVidia Titan X erreicht im Leerlauf mit 0,X Sone in etwa das Niveau der GTX 1080. Der Radiallüfter dreht mit ~XXX RPM bei XX% PWM-Stärke. Unter Last steigt die Lautheit auf rund X,X Sone (~51%), was etwas etwas lauter als die GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.800 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der nVidia Titan X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 85 °C, wobei das Temperatur-Target genau 84°C beträgt. Sobald die 84°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei knapp 84°C verweilt.

Wie hoch ist der Stromverbrauch?
Die neue Titan X verbraucht im Leerlauf um die X Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Titan X (Pascal), egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GP102 GPU eine ebenfalls sehr hohe Effizienz (auf dem Niveau der GTX 1080) . Die Karte ist gut 60% schneller als die Maxwell GTX Titan X und verbraucht dabei genau so viel.

Passt die Karte in mein Gehäuse?
Wie bei der GeForce GTX 1080 und 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 1120% (1080p), bzw. 173% (4K) und ist so im Mittel in 4K rund 30% schneller als eine GTX 1080 und somit klar die schnellste Single-GPU-Grafikkarte. In der 1080p Auflösung ist die Karte stark CPU-limitiert und kann sich so nur wenig von der 1080 absetzen.
Launch-Analyse nVidia nVidia Titan X | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass die neue GP102 GPU ebenfalls rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Standardmäßig limitiert der Referenzkühler mit Radiallüfter die Karte stark. Stock erreicht die Karte im Mittel nach längerem Aufheizen Taktraten von gut 1.600 MHz. Das liegt klar über den Offiziellen Angaben von nVidia von 1.531 MHz, aber auch deutlich unterhalb der maximal erreichbaren Taktraten von gut 1.800 MHz. Hinzu kommt das Powertarget. Zwar erlaubt nVidia dieses mal bis zu 300 Watt, was aber für konstante Taktraten über 2.000 MHz in jedem Spiel dennoch nicht ganz reicht.

Anders als bei den GP104 GPUs limitiert die Speicherbandbreite die GP102 GPU, trotz der Verwendung von GDDR5X statt HBM, weniger.
Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.

Für genauere Angaben zum Thema Leistungsaufnahme, erreichte Taktraten und mehr wird noch auf Reviews von PCGH, CB, "TomsHardware" und HT4u gewartet.
 
Zuletzt bearbeitet:
Ich warnte vorm Bepinseln des unteren Shunts beim PCIe-Slot, da sollen nicht mehr wie 66 Watt drüber. Durch den Mod gehn da deutlich mehr drüber, das kann nur ungesund sein.

Den unteren Shunt nicht einpinseln. Nur meine Empfehlung.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ULTRA DX12 3440x1440 100Hz capped 75% GPU Load
 
Zuletzt bearbeitet:
Ich warnte vorm Bepinseln des unteren Shunts beim PCIe-Slot, da sollen nicht mehr wie 66 Watt drüber. Durch den Mod gehn da deutlich mehr drüber, das kann nur ungesund sein.

Den unteren Shunt nicht einpinseln. Nur meine Empfehlung.

Ein Gedankenspiel zum Shunt Mod. Meine Karte hat KEINEN Mod. Sie verhält sich wie folgt:
Die Karte hat +210MHz anliegen, was in etwa in 2112, bzw 2088MHz Max Boost endet.
Der Realtakt liegt bei voller Auslastung der Karte zwischen 2025 und 2088MHz. Hält sich also IMMER oberhalb der 2GHz.
Geht man jetzt davon aus, dass der Mod die Karte stabil bei 2112MHz halten würde, wären das im Schnitt 60MHz Mehrleistung.

Jetzt stellen sich folgende Fragen:

Ist es das wert (Takt und Risiko, bin ich Balken und Benchmarkfreak)?
Ist das ökonomisch sinnvoll?

Deine Antwort: jaaaaa; Shunt Mod.
Deine Antwort: neeee... max Takt ausloten und über eine Mosterkarte freuen, die zwar hier und da ins PT rennt, dafür aber heil bleibt und nur 0-1 FPS langsamer ist als die SM Karten ;)

Meine subjektive Meinung :d

Btw. HisN, du hast mein Mitgefühl.
 
Zuletzt bearbeitet:

Mit 8 Kernen @ 4.4Ghz sind 144+ FPS kein Problem. Jedenfalls in FHD im CPU-Limit.
Aber ganz klares "kein kaufen" bei mir.
Der einzige Satz im Chat war etwas mit "noob". Also typisch 12-Jährige und deren Seelenverwandte. Ich könnte immer kotzen wenn ich sowas sehe.
Wenn ich da an mein geliebtes MWO denke ... da gibt es sowas praktisch gar nicht.
Es sieht gut aus und läuft super, aber der Rest typisches BF online geballer. Defenetiv kein Kauf von mir. Bin schon lange kein online Spieler mehr. Und für den kurzen Singleplayer lohnt sich das Geld ausgeben sicher auch nicht. Nein von mir gibt es kein Geld für so was.
Bin aber wirklich auch mega schlecht in den Spielen. Erste Runde eine K/D von 3/7 zweite Runde sogar 0/8. Immer nur getötet zu werden macht keinen Spaß und hilft dem Team auch nicht wirklich.
 
Ich finde es schon beeindruckend, dass die Karte bei BF1 3440x1440 @ Ultra nicht komplett ausgelastet ist. Da muss man den Resolution Scale erst hochdrehen damit die auf 99% kommt. Ich freue mich schon wenn der Heatkiller da ist.
 
Die Karte muss net defekt sein, vllt war es nur zu hoher Gputakt, davon geht sie normal net kaputt und Vram hat er ja nicht übertaktet.
 
Und genau das versuche ich gerade herauszubekommen. Und genau deshalb ist zur Zeit der Speichertakt auch unten.
 
Auch der Shunt Mod macht nix kaputt... Nur Spannung mit Temperatur tötet. Ob unten 66w oder 80w drüber fließen, stört höchsten den pcie slot ;)

Gesendet von meinem HUAWEI NXT-L29 mit Tapatalk
 
Ich hab das "Problem" extrem selten und bis jetzt nicht reproduzierbar herausgefunden woran es liegt.
Die Karte schmiert auch nicht ab oder sowas. Es gibt kurz die Artefakte und dann gehts ganz normal weiter.
 
Zuletzt bearbeitet:
mal ne frage.

Kann ich eine 2 Dual GPU Grafikkarten auf SLi Mainboards nutzen welche nur 2 SLI Slots haben ?

Also quasi sowas wie 2 x GTX690 auf nem Board mit 2 x PCI-e 16 fach.
Oder sowas wie 2 x Titan Z auf so nem board.

Ich vermute es würde 3-5% leistungsverlust haben da ich keine 2 x 32 PCI-E Lane anbindung habe, sondern nur 2 x 16 fach, aber damit könnte ich leben.

Würde das gehen ?

Ich danke im vorraus.
 
Warum sollte es nicht gehen? Die Karten brauchen 2 Slots, das Board hat zwei Slots. Wo siehst Du das Problem?
Aber Du kannst das Kind ruhig beim Namen nennen, um welches Board handelt es sich denn konkret? Ist doch viel einfacher für uns, als wenn Du da ein philosophisches Problem draus machst :-)
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Ich finde es schon beeindruckend, dass die Karte bei BF1 3440x1440 @ Ultra nicht komplett ausgelastet ist. Da muss man den Resolution Scale erst hochdrehen damit die auf 99% kommt. Ich freue mich schon wenn der Heatkiller da ist.

Eh? 99% bei 1440p ultra hier.
 
Warum sollte es nicht gehen? Die Karten brauchen 2 Slots, das Board hat zwei Slots. Wo siehst Du das Problem?
Aber Du kannst das Kind ruhig beim Namen nennen, um welches Board handelt es sich denn konkret? Ist doch viel einfacher für uns, als wenn Du da ein philosophisches Problem draus machst :-)

Brauch eine Dual Karte nicht schon die Anbindung von 2 x 16 ?

Also Quasi für 2 x Dual Grakas = 4 Grakas ein Quad SLI Board der anbindungen wegen ?
 
Brauch eine Dual Karte nicht schon die Anbindung von 2 x 16 ?

Also Quasi für 2 x Dual Grakas = 4 Grakas ein Quad SLI Board der anbindungen wegen ?

Wie sollen sie denn mit nur einem PCI-E 3.0 x16 Connector 2*16 Lanes ansprechen können? Ob 2 GPUs auf der Karte sitzen interessiert doch eher wenig oder übersehe ich was?

Edit: Die Verteilung in den Dual GPUs erfolgt doch über PLX Switches oder sowas in der Art, die eine 16 Lane Anbindung über den Slot haben und den GPUs entsprechend theoretische Lanes zur Verfügung stellen. Sollte also im Betrieb nicht anders also normales SLI sein was die Lanes die über die Steckplätze zur Verfügung gestellt werden angeht. Sprich jedes X99 Board das SLI unterstützt würde mit einer 40 Lane CPU den 2 Dual GPUs die bestmögliche Anbindung liefern.

Edit 2: http://www.avagotech.com/products/pcie-switches-bridges/pcie-switches/pex8747#overview Das ist der PLX Switch der auf Titan Z und GTX 690 verbaut ist. Der gleiche sitzt auch zwei mal auf nem X99 E-WS und anderen Boards mit PLX Switches nutzen auch oft den Chip. Der kann bei 16 Lane Anbindung 32 zur Verfügung stellen, siehe:

PLX.jpg
 
Zuletzt bearbeitet:
Brauch eine Dual Karte nicht schon die Anbindung von 2 x 16 ?

Also Quasi für 2 x Dual Grakas = 4 Grakas ein Quad SLI Board der anbindungen wegen ?

Eine Dual Grafikkarte braucht wie eine Single Grafikkarte nur einen pci-E Slot. Da reicht sogar 2x8 für 2 Dual Grafikkarten. Das ist auch der Sinn hinter solchen Karten. Die Chips selbst kommunizieren auf der Grafikkarte auch über Pci-e, allerdings befindet sich hier für ein extra Chip auf dem Grafikboard, welcher zur Kommunikation untereinander nochmals 16 Pci-e Lanes zur Verfügung stellt.
 
@ Ali G. Ja die CPU,s Unterstützen 40 Lanes, aber nicht alle Boards. Manche SLi Boards unterstützen nur 1 x 16 und im SLI teilen sich diese dann auf beide slots so das man für jeden Slot nur 1 x 8 hat zb.

Und ich wollte wissen ob eine Dual GPU zwingend 16 x anbidnung in einem Slot vom Mainboard bereit gestellt bekommen haben muss um zu Funktionieren, oder es notfalls auch mit nem Billig SLI board laufen würde was zb insgesamt nur 16 anbidnungen hat und so für eine GTX690/Titan Z lediglich nur 8 pci e anbidnungen bereit stellen kann weil die anderen 8 für die andere Dual Karte gebraucht wird.
 
@ Ali G. Ja die CPU,s Unterstützen 40 Lanes, aber nicht alle Boards. Manche SLi Boards unterstützen nur 1 x 16 und im SLI teilen sich diese dann auf beide slots so das man für jeden Slot nur 1 x 8 hat zb.

Und ich wollte wissen ob eine Dual GPU zwingend 16 x anbidnung in einem Slot vom Mainboard bereit gestellt bekommen haben muss um zu Funktionieren, oder es notfalls auch mit nem Billig SLI board laufen würde was zb insgesamt nur 16 anbidnungen hat und so für eine GTX690/Titan Z lediglich nur 8 pci e anbidnungen bereit stellen kann weil die anderen 8 für die andere Dual Karte gebraucht wird.

Fast jedes X99 Board kann SLI mit 2 Slots x16. Musst halt nur schauen ob die Abstände der Slots für die Karten passen, wenn die mehr als 2 Slots brauchen.
"Billig-SLI-Boards" auf X99 gibt es praktisch keine, wenn du wie gesagt was gescheites kaufst, und damit meine ich keine 400€+ Boards, solltest du keine Probleme haben. Selbst ein Gigabyte X99 UD4 für 250 Euro kann alles was du dafür brauchst. Sag doch einfach um welches Board es geht?
 
Zuletzt bearbeitet:
Du willst ein Quad-SLI aufbauen, oder sollen die beiden Karten einfach so vor sich hinrechnen?
NV sagt ja mindestens 8x Anbindung für ein SLI, und das ist ja in jedem Fall gegeben, denn der PLX-Chip stellt ja für jeden Chip der GPU eine x8 Verbindung bereit.

Aber ich muss zugeben, dass ich es noch nicht ausprobiert habe eine Dual-GPU in einem x8 Slot zu betreiben.
 
Habe heute auf Wasserkühlung umgerüstet. (AC Nickel)
Dabei den Shunt-Mod nur auf 2 von den 3 Shunts ausgeführt. (Dicke Schicht Silberleitlack, nur auf denen bei den Stromanschlüssen)
Nur am Powertarget hat sich nicht wirklich was geändert, läuft da ständig rein und drosselt auf 2000Mhz runter.
Evtl. müssen doch alle 3 bepinselt werden!?

Hat das schon wer mit nur 2 hinbekommen?



Ich warnte vorm Bepinseln des unteren Shunts beim PCIe-Slot, da sollen nicht mehr wie 66 Watt drüber. Durch den Mod gehn da deutlich mehr drüber, das kann nur ungesund sein.

Den unteren Shunt nicht einpinseln. Nur meine Empfehlung.
 
Habe heute auf Wasserkühlung umgerüstet. (AC Nickel)
Dabei den Shunt-Mod nur auf 2 von den 3 Shunts ausgeführt. (Dicke Schicht Silberleitlack, nur auf denen bei den Stromanschlüssen)
Nur am Powertarget hat sich nicht wirklich was geändert, läuft da ständig rein und drosselt auf 2000Mhz runter.
Evtl. müssen doch alle 3 bepinselt werden!?

Hat das schon wer mit nur 2 hinbekommen?

Wieso sollte es auch, an der Verteilung wie (über welche Quellen) die Karte ihren Strom zieht ändert sich ja durch das Verringern der zwei anderen Shuntwiderstände nichts. Wenn die Karte an Shunt 3 trotzdem einen zu hohen Spannungsabfall misst wird sie wegen Powertarget drosseln, je nachdem wie das im Grafikkartenbios programmiert ist. Glaube nicht dass da irgendwelche Durchschnitte gebildet werden um zu entscheiden ob gedrosselt wird, sobald einer der Shunts einen zu hohen Spannungsabfall verursacht wird gedrosselt. Wenn die anderen beiden Shunts die wären, bei denen dieser Mechanismus "zuerst auslöst", dann könnte es zumindest ein wenig bringen den Shuntmod nur auf den anderen 2 Shunts zu machen, wenn nicht bringt es nach meiner Theorie gerade Nullkommanix. Aber ich hab auch noch nie ein Grafikkartenbios programmiert/modifiziert oder dergleichen, dementsprechend alle Angaben wie immer ohne Gewähr ;)
 
Bei der 1080 FE funktioniert es doch auch mit nur einem gepinselten Shunt (beim 8-Pin). Ergo kommen dort auch nur 66Watt von unten. Wieso sollte es dann bei der Titan X nicht funktionieren?
Oke, vllt weil die 1080 unten keinen Shunt hat, hab jetzt auf Bildern keinen entdeckt.

Hast du im AB das PT maximiert? Hast du die Poweranzeige im AB vorher und nachher verglichen?
 
Ich hab das "Problem" extrem selten und bis jetzt nicht reproduzierbar herausgefunden woran es liegt.
Die Karte schmiert auch nicht ab oder sowas. Es gibt kurz die Artefakte und dann gehts ganz normal weiter.

Das mag jetzt etwas weit hergeholt klingen, aber hast du evtl. den Kühler mit Backplate etwas zu fest angewürgt?
Ich hatte das beim ersten Titan mit EK Kühler + Backplate. Durch die Pads hatte sich das PCB so verzogen, dass es Artefakte gab. Auch nur hin und wieder. Hab dann die Schauben etwas gelockert und es war OK.

Wie gesagt; klingt komisch, aber als letzte Möglichkeit...
 
Zuletzt bearbeitet:
Bei der 1080 FE funktioniert es doch auch mit nur einem gepinselten Shunt (beim 8-Pin). Ergo kommen dort auch nur 66Watt von unten. Wieso sollte es dann bei der Titan X nicht funktionieren?
Oke, vllt weil die 1080 unten keinen Shunt hat, hab jetzt auf Bildern keinen entdeckt.

Hast du im AB das PT maximiert? Hast du die Poweranzeige im AB vorher und nachher verglichen?

Da die 1080 und die Titan X unterschiedliche BIOS haben ist das ähnliche Boardlayout denke ich nur beschränkt aussagekräftig. Nur weil etwas für die 1080 gilt, muss das nicht heißen dass es für die Titan gilt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh