[Sammelthread] NVIDIA TITAN X (GP102) Sammelthread + FAQ

NVIDIA TITAN X (GP102) Sammelthread + FAQ


Impressionen der Karte:

nvidia-titanx-sli-1-840x560.jpg

nvidia-titanx-sli-2-840x560.jpg

nvidia-titanx-sli-3-840x560.jpg

nvidia-titanx-sli-4-840x560.jpg

nvidia-titanx-sli-6-840x560.jpg

nvidia-titanx-sli-9-840x560.jpg

nvidia-titanx-sli-12-840x560.jpg

nvidia-titanx-sli-13-840x560.jpg

nvidia-titanx-sli-15-840x560.jpg

nvidia-titanx-sli-18-840x560.jpg

Technische Daten der nVidia Titan X
  • Chip = GP102-???-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 12,0 Milliarden
  • Die-Größe = 471 mm²
  • Shader-Einheiten = 3.584 (1D) (28 SMM)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 136,0+ GPixel/s
  • Texelfüllrate = 317,4+ GTexel/s
  • Chiptakt = 1.417 MHz Baseclock + Boost (1.531 MHz) + Max. Boost (~1.700? MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = G5X
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 480,6 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250 Watt
  • Leistungsaufnahme 2D = ~10 Watt
  • Versorgung über einen 6-Pin und einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the NVIDIA TITAN X


"Kauf" Link:
nVidia Titan X | Deutschland - nVidia

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei nVidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die nVidia Titan X erreicht im Leerlauf mit 0,X Sone in etwa das Niveau der GTX 1080. Der Radiallüfter dreht mit ~XXX RPM bei XX% PWM-Stärke. Unter Last steigt die Lautheit auf rund X,X Sone (~51%), was etwas etwas lauter als die GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.800 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der nVidia Titan X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 85 °C, wobei das Temperatur-Target genau 84°C beträgt. Sobald die 84°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei knapp 84°C verweilt.

Wie hoch ist der Stromverbrauch?
Die neue Titan X verbraucht im Leerlauf um die X Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Titan X (Pascal), egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GP102 GPU eine ebenfalls sehr hohe Effizienz (auf dem Niveau der GTX 1080) . Die Karte ist gut 60% schneller als die Maxwell GTX Titan X und verbraucht dabei genau so viel.

Passt die Karte in mein Gehäuse?
Wie bei der GeForce GTX 1080 und 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 1120% (1080p), bzw. 173% (4K) und ist so im Mittel in 4K rund 30% schneller als eine GTX 1080 und somit klar die schnellste Single-GPU-Grafikkarte. In der 1080p Auflösung ist die Karte stark CPU-limitiert und kann sich so nur wenig von der 1080 absetzen.
Launch-Analyse nVidia nVidia Titan X | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass die neue GP102 GPU ebenfalls rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Standardmäßig limitiert der Referenzkühler mit Radiallüfter die Karte stark. Stock erreicht die Karte im Mittel nach längerem Aufheizen Taktraten von gut 1.600 MHz. Das liegt klar über den Offiziellen Angaben von nVidia von 1.531 MHz, aber auch deutlich unterhalb der maximal erreichbaren Taktraten von gut 1.800 MHz. Hinzu kommt das Powertarget. Zwar erlaubt nVidia dieses mal bis zu 300 Watt, was aber für konstante Taktraten über 2.000 MHz in jedem Spiel dennoch nicht ganz reicht.

Anders als bei den GP104 GPUs limitiert die Speicherbandbreite die GP102 GPU, trotz der Verwendung von GDDR5X statt HBM, weniger.
Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.

Für genauere Angaben zum Thema Leistungsaufnahme, erreichte Taktraten und mehr wird noch auf Reviews von PCGH, CB, "TomsHardware" und HT4u gewartet.
 
Zuletzt bearbeitet:
Bei mir war das eher hinten drann, die MR-Problematik.
Viel weiter vorne war:
Schauen ob meine Software mit SLI skaliert
Schauen das keine Grafik-Fehler auftreten
Limiter auf 59 FPS stellen
Vsync aktivieren
Ein 60 FPS-Setup finden, damit ich nicht in die MR-Regionen abrutsche und der Limiter ein CPU-Limit erzeugt und damit die MR vollständig eliminiert.

Das ganze Brimborium nervt mit der Zeit mehr.
Betrachte das nicht immer "einzeln". SLI ist viel mehr als MR^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sind die Takt und Tempschwellen was das absenken angeht bei der X eigentlich gleich wie bei den 1070/1080ern ?
 
Zuletzt bearbeitet:
Max. 1847,5Mhz bei max. 1.0620V ... wenig spektakulär :(
 
Zuletzt bearbeitet:
Skaliert das so mies bei Witcher?
In dem Video ist die TX ja exakt auf dem Level zweier TI`s.
In der Praxis ist die neue TX aber nicht mal Ansatzweise doppelt so stark wie eine TI.
Im Schnitt (je nach Spiel) ist die neue TX ja zwischen 40 und 50% schneller als eine 980Ti.
Die Tests zeigen die TXP @stock. Die Karte wird brutal vom Kühler limitiert und taktet auf so ca 1500mhz rum.
Wenn die Karte den Boost Takt von 1900mhz hält ist sie bei hohen Auflösungen auch ohne OC fast zwei Mal so schnell wie eine 980TI.
Die von dir erwähnten 40 bis 50% kommen dazu von CPU limitierten 1080p Benches.
 
Hat hier schon jemand ein Titan X Pascal SLI im Einsatz. Sind die Microruckler wirklich so stark wie auf dem Video zu sehen?
Ich hoffe ja das die neue SLI Brücke im Zusammenspiel mit G-Sync das Spielgefühl etwas flüssiger darstellen lässt.

Eigentlich reicht ja die Leistung einer Titan X für 3440x1440. Da ich aber leider super empfindlich gegenüber Alaising bin, nutze ich DSR bis ich kein flimmern mehr sehe. Und da ist dann schnell die Leistung einer Titan ausgereizt. Habe mir gestern eine zweite bestellt. Wenn ich das jetzt hier so lese, überlege ich es mir doch glatt, die wieder zu stornieren.
 
Zuletzt bearbeitet:
Was hat die neue Brücke mit den MR zu tun?
Und G-Sync stellt ein Bild dar, wenn es von der Graka geliefert wird. Es verhindert also die Ruckler nicht, denn die kommen ja durch die unregelmäßige Lieferung der Bilder durch die Graka.

Wunschdenken.
 
Was die Brücke mit MR zu tun hat? Keine Ahnung. Deswegen schreibe ich ja hier ins Forum und frage nach.

Aber danke für deinen hilfreichen Beitrag HisN
 
Die Brücke liefert Bandbreite.
Witcher3 in UHD mit Antialiasing und Rainbow Six in UHD mit Antialiasing haben die alten Brücken überfordert. Das scheint mit den neuen Brücken besser zu gehen.
 
Hat hier schon jemand ein Titan X Pascal SLI im Einsatz. Sind die Microruckler wirklich so stark wie auf dem Video zu sehen?
Ich hoffe ja das die neue SLI Brücke im Zusammenspiel mit G-Sync das Spielgefühl etwas flüssiger darstellen lässt.

SLI fühlt sich IMHO nur wirklich rund an, wenn die Karten in einen Framelimiter laufen, zb. VSYNC. Sobald die FPS unter das Limit sinken und somit die GPUs unter "Zeitdruck" stehen, das nächste Bild zu berechnen, merke ich das Stuttering. Es ist nicht in jedem Spiel so, aber meine Erfahrungen sagen, dass es in den meisten Spielen so ist.

Ist SLI was für dich?
+ dir macht es Spaß zu tüfteln und die richtigen Einstellungen für ein Spiel zu finden
+ dir macht ein etwas höherer Inputlag nichts aus
+ dir ist es egal, wenn du ein neues Spiel nicht sofort mit guter SLI Unterstützung spielen kannst
+ du hast kein Problem mit der Abwärme der zweiten Karte
+ Sockel 2011 Plattform mit 2x16x PCIe 3.0 Slots wünschenswert
+ Sehr schnelle CPU

Ich hatte in den letzten Jahren:
690 Quad-SLI
Titan Classic 4-Way-SLI
980 SLI
GM200 Titan X SLI

jetzt habe ich aber nur eine TXP, weil mir die obigen Dinge auf den Sack gehen.
 
Zuletzt bearbeitet:
ich hatte 8800 GTX SLI, Titan SLI, 780ti SLI und 4870x2 ^^

also SLI is auf alle Fälle mal > Cripple Fire, aber MR merkst dennoch und es geht nix über feine sauber Single FPS
 
Da hilft wohl nur testen. Werde hier dann mal berichten, wie sich SLI vs Single GPU anfühlt. Da ja jeder eine andere Wahrnehmung was Microruckler angeht hat, wäre mein Fazit wahrscheinlich nicht für alle brauchbar aber vielleicht hilft es ja den einen oder anderen. Jedenfalls denke ich das ich lieber etwas Stuttering habe als das Alaising beim Witcher.


Danke für eure Antworten.
 
Witcher3 in UHD mit Antialiasing und Rainbow Six in UHD mit Antialiasing haben die alten Brücken überfordert.
Ich habe bei mir beide Brücken dran. Das sollte doch langen? TW3 wird leider erst noch geliefert, vorher kann ich da nichts testen. Jetzt ist erst einmal Wow Legion und No Man´s Sky an der Reihe. Vor allem auf No Man´s Sky warte ich ungeduldig!!!!!!!
 
Hat einer von euch Hitman auf seiner Titan gestartet (die 2016 Version)?
Das lief mit er 1080er FE bei mir noch anstandslos, mit der Titan X habe ich aber lustige Probleme.

Sowohl in DX11 wie auch in DX12 wird ständig die Taskleiste ein- und ausgeblendet, und das ganze Spiel verschiebt sich um die größe der Taskleiste (bei mir nach unten, weil die Taskleiste oben ist, und zurück).

Und die Custom 21:9-Aufösung will es auch nicht mehr annehmen :-(




Oder ist das etwa ein Problem vom neuen Windows-Build? Das wäre auch möglich.
 
Zuletzt bearbeitet:
Immernoch mit custom Auflösung unterwegs? :d
 
Hö grad beim 40"er Philips Monitor ist doch wegen der "größeren" Pixel Aliasing praktisch immer sichtbar? Also mir fällt das in jede Game auf. Bei kleineren Monitoren in UHD sicher weniger. Aber generell führt doch die höhere Auflösung nicht automatisch zu weniger Aliasing sondern nur je nach Bildschirmgröße und Abstand.
 
Das war auch meine Vermutung. Aber dem ist nicht so. Die höhere Auflösung verhindert scheinbar sehr gut das Aliasing. Auf meinem 30" Dell mit 2560x1600er Auflösung (etwa 100ppi) ist z.b. GTA4 (ein Game, dessen Engine gar kein Anti-Aliasing bietet) überhaupt nicht zu ertragen. Stromkabel und Ampelmasten zappelten wie verrückt. Das ist beim 40" UHD völlig verschwunden. Und der hat ja "nur" 110ppi.
 
Also grade bei GTA 5 seh ich das Aliasing überall vorallem bei Objekten in der Entfernung. Vielleicht bin ich auch zu anspruchsvoll (geworden). Gut GTA 4 kann viell. sein, hab ich ewig nicht mehr laufen gehabt. Am Ende dürfte es aber nicht groß anders aussehen als 1440p auf 27".
 
Zuletzt bearbeitet:
Hö grad beim 40"er Philips Monitor ist doch wegen der "größeren" Pixel Aliasing praktisch immer sichtbar? Also mir fällt das in jede Game auf. Bei kleineren Monitoren in UHD sicher weniger. Aber generell führt doch die höhere Auflösung nicht automatisch zu weniger Aliasing sondern nur je nach Bildschirmgröße und Abstand.

Richtig, der Philips hat "nur" eine marginal höhere PPI, als ein 27 Zoll 1440p (was meiner Meinung nach aber zu seinen Stärken zählt).

Das Aliaising fällt in der Tat zwar etwas auf, ist aber bei Weitem nicht so störend. Liegt wohl auch daran, dass man dennoch versucht, das gesamte Bild zu erfassen. Im Gesamtbildeindruck sieht fällt das Aliasing nicht mehr ins Gewicht.

Ich spiele allerdings auch gerne mit kurzem Sitzabstand, dann ist der Philips nämlich Sichtfeldfüllend. Dabei konzentriert man sich allerdings eher auf den inneren Bereich, wo dann auch Aliasing wieder stören kann. Der umgebende Bereich ist dann quasi nur noch für die Immersion zuständig, was durch ein passendes Field of View erreicht wird.



Das war auch meine Vermutung. Aber dem ist nicht so. Die höhere Auflösung verhindert scheinbar sehr gut das Aliasing. Auf meinem 30" Dell mit 2560x1600er Auflösung (etwa 100ppi) ist z.b. GTA4 (ein Game, dessen Engine gar kein Anti-Aliasing bietet) überhaupt nicht zu ertragen. Stromkabel und Ampelmasten zappelten wie verrückt. Das ist beim 40" UHD völlig verschwunden. Und der hat ja "nur" 110ppi.

Richtig, Gta 4 ist hier einfach das Vorzeigespiel nummer eins, was Aliasing angeht.
 
Zuletzt bearbeitet:
Hat hier schon jemand ein Titan X Pascal SLI im Einsatz. Sind die Microruckler wirklich so stark wie auf dem Video zu sehen?
Ich hoffe ja das die neue SLI Brücke im Zusammenspiel mit G-Sync das Spielgefühl etwas flüssiger darstellen lässt.

Eigentlich reicht ja die Leistung einer Titan X für 3440x1440. Da ich aber leider super empfindlich gegenüber Alaising bin, nutze ich DSR bis ich kein flimmern mehr sehe. Und da ist dann schnell die Leistung einer Titan ausgereizt. Habe mir gestern eine zweite bestellt. Wenn ich das jetzt hier so lese, überlege ich es mir doch glatt, die wieder zu stornieren.

ganz ehrlich, ich hab MRs bis ich dieses video gesehen habe nie wahrgenommen. danach war ich so penibel darauf fixiert dass ich es sogar bei mir wahrgenommen habe, zwar nicht so krass wie beim video, sondern evtl nur 1/8 davon aber ich habs trotzdem gesehn weil man dann so darauf fixiert war

meh.
 
ich hatte 8800 GTX SLI, Titan SLI, 780ti SLI und 4870x2 ^^

also SLI is auf alle Fälle mal > Cripple Fire, aber MR merkst dennoch und es geht nix über feine sauber Single FPS

Ja, lieber eine High End Karte und feine saubere Single FPS! Und natürlich wesentlich günstiger ;)
 
Ja, lieber eine High End Karte und feine saubere Single FPS! Und natürlich wesentlich günstiger ;)

Leider reicht oft eine Karte nicht aus. OK jetzt mit der Titan X sind wir fast durchwegs bei 60 fps bei 4K Ultra. Aber früher halt nicht. Und wer, so wie ich, 4k nutzen will und möglichst viele fps haben will kam um eine zweite Karte nicht rum. Das Spiel fängt dann wieder an wenn es 4k Monitore mit mehr als 60 Hz gibt.
 
... oder man bedient sich der Regler im Spiel ;)
 
ÄH nein. Zwischen Ultra bzw. sehr hohen Einstellungen auf einem HighEndPC und einer Konsole liegen Welten. Auch wenn man den einen oder anderen Schatten-/Tesselationsregler um 1 oder 2 Klicks reduziert.
Es ist ein rein psychologisches Ding, dass manche damit nicht leben können, wenn nicht alle Regler zum rechten Bildschirmrand rausfallen.
Und davon profitiert die Hardwareindustrie enorm.
 
Jap. Witcher 3 Sichtweite von Ultra auf Hoch setzen, man sieht keinen Unterschied, zack aber 15-20fps mehr. Da freue ich mich dann auf meine konstanten 75-100fps gepaart mit GSync anstatt paar Millimeter mehr Sichtweite zu haben.
 
Hast Du denn in QWHD noch viel Aliasing? In UHD ist davon praktisch nix zu sehen, selbst die Vegetatiton ist ruhig.



:-) Macht bei manchen Games gut was her^^


Ja, leider habe ich immer noch viel Alaising beim Witcher. Ich bin da wirklich extreme anfällig. Es muss bei mir wie ein Trickfilm aussehen erst dann bin ich zufrieden. Bäume, Sträucher und auch das Gras flimmert fröhlich vor sich hin. Daher nutze ich ja momentan auch DSR um wenigstens das flimmern möglichst gering zu halten was auch wirklich sehr gut funktioniert. Auch habe mich mal die TextureMipBias verändert was aber nicht wirklich was gebracht hat.

Durch DSR fällt die FPS Zahl wieder auf die 40-55. Nutze nebenbei auch noch Reshade + einige Mods was ja auch noch Leistung zieht. Vanilla möchte ich mir Witcher einfach nicht mehr antun. Vor allem Blood and Wine ist ja so bunt, da rollen sich meine Nägel hoch :-(..

Ich werde jetzt einfach warten, bis meine zweite Titan hier ankommt und dann berichten. Wenn es wirklich mit den Microruckerln so stark ist das es mein Spielerlebnis einschränkt, werde ich diese dann halt wieder zurückschicken und die Grafikeinstellungen runterschrauben müssen :-(
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh