[Sammelthread] NVIDIA TITAN X (GP102) Sammelthread + FAQ

NVIDIA TITAN X (GP102) Sammelthread + FAQ


Impressionen der Karte:

nvidia-titanx-sli-1-840x560.jpg

nvidia-titanx-sli-2-840x560.jpg

nvidia-titanx-sli-3-840x560.jpg

nvidia-titanx-sli-4-840x560.jpg

nvidia-titanx-sli-6-840x560.jpg

nvidia-titanx-sli-9-840x560.jpg

nvidia-titanx-sli-12-840x560.jpg

nvidia-titanx-sli-13-840x560.jpg

nvidia-titanx-sli-15-840x560.jpg

nvidia-titanx-sli-18-840x560.jpg

Technische Daten der nVidia Titan X
  • Chip = GP102-???-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 12,0 Milliarden
  • Die-Größe = 471 mm²
  • Shader-Einheiten = 3.584 (1D) (28 SMM)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 136,0+ GPixel/s
  • Texelfüllrate = 317,4+ GTexel/s
  • Chiptakt = 1.417 MHz Baseclock + Boost (1.531 MHz) + Max. Boost (~1.700? MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = G5X
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 480,6 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250 Watt
  • Leistungsaufnahme 2D = ~10 Watt
  • Versorgung über einen 6-Pin und einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the NVIDIA TITAN X


"Kauf" Link:
nVidia Titan X | Deutschland - nVidia

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei nVidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die nVidia Titan X erreicht im Leerlauf mit 0,X Sone in etwa das Niveau der GTX 1080. Der Radiallüfter dreht mit ~XXX RPM bei XX% PWM-Stärke. Unter Last steigt die Lautheit auf rund X,X Sone (~51%), was etwas etwas lauter als die GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.800 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der nVidia Titan X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 85 °C, wobei das Temperatur-Target genau 84°C beträgt. Sobald die 84°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei knapp 84°C verweilt.

Wie hoch ist der Stromverbrauch?
Die neue Titan X verbraucht im Leerlauf um die X Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Titan X (Pascal), egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GP102 GPU eine ebenfalls sehr hohe Effizienz (auf dem Niveau der GTX 1080) . Die Karte ist gut 60% schneller als die Maxwell GTX Titan X und verbraucht dabei genau so viel.

Passt die Karte in mein Gehäuse?
Wie bei der GeForce GTX 1080 und 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 1120% (1080p), bzw. 173% (4K) und ist so im Mittel in 4K rund 30% schneller als eine GTX 1080 und somit klar die schnellste Single-GPU-Grafikkarte. In der 1080p Auflösung ist die Karte stark CPU-limitiert und kann sich so nur wenig von der 1080 absetzen.
Launch-Analyse nVidia nVidia Titan X | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass die neue GP102 GPU ebenfalls rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Standardmäßig limitiert der Referenzkühler mit Radiallüfter die Karte stark. Stock erreicht die Karte im Mittel nach längerem Aufheizen Taktraten von gut 1.600 MHz. Das liegt klar über den Offiziellen Angaben von nVidia von 1.531 MHz, aber auch deutlich unterhalb der maximal erreichbaren Taktraten von gut 1.800 MHz. Hinzu kommt das Powertarget. Zwar erlaubt nVidia dieses mal bis zu 300 Watt, was aber für konstante Taktraten über 2.000 MHz in jedem Spiel dennoch nicht ganz reicht.

Anders als bei den GP104 GPUs limitiert die Speicherbandbreite die GP102 GPU, trotz der Verwendung von GDDR5X statt HBM, weniger.
Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.

Für genauere Angaben zum Thema Leistungsaufnahme, erreichte Taktraten und mehr wird noch auf Reviews von PCGH, CB, "TomsHardware" und HT4u gewartet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist es nicht so, dass NVIDIA den Wechsel des Kühlers erlaubt aber nur bei dem Erstkäufer? Korrigiert mich wenn ich da falsch liege. Daher wäre der hohe Preis für mich nichts. Die 100 Euro machen es dann auch nicht mehr aus. Die Karte ist halt gebraucht.
 
Zuletzt bearbeitet:
Kommt gleich mal ein Video zum liquid tape

- - - Updated - - -

https://youtu.be/lstEavew4e0

- - - Updated - - -

https://youtu.be/lstEavew4e0
 
und das zeug bekommste runter ohne evtl irgendwelche SMD´s abzureißen ? da muss man aber geduldig sein und vorsicht walten lassen.
 
So meine GPU ist nun auch da, zirpt minimal mehr als die Maxwell Titan, aber wirklich harmlos.

Ich warte nun auf Watercool....

@webmi 1885.5 im RenderTest GPU-Z
 
Zuletzt bearbeitet:
So hab meine Titan X auf Arctic Hybrid AIO Wakü umgebaut. Kurz: Es lohnt sich auf jeden Fall.
1949 Core/5599 Mem 0,9V maximal 43°C. :fresse:
 
GPU-Z öffnen -> Valley, Pin-Ball, Mahjong oder sonst was starten -> GPU-Z im Sensor Tab bei Takt auf max. anzeigen -> Wert merken und hier melden (und zwar den genauen Wert und nicht irgendwas geschätztes, denn ob ein Step Takt mehr oder weniger ist genau das, was ich wissen will, genau hier unterscheidet sich die "Güte" der Chips bzw lässt dieser max Peak Rückschlüsse auf die Güte erahnen)

Der Anfangswert, der Mittelwert oder sonst was anderes ist irrelevant. Diesen max Wert den euch GPU-Z da anzeigt werdet ihr mit normalen Monitorfunktionen wahrscheinlich nicht mal sehen, denn der liegt für einen Bruchteil einer Sekunde an unter Luft.

Habe es genau so gemacht mit dem Rendertest als Belastung und komme auf einen Max Wert von 2.050 Mhz, kann ich mir aber irgendwie bei den anderen Ergebnissen nicht vorstellen.
Natürlich sind andere Tools wie z.B. Afterburner aus gewesen.

Hier auch ein entsprechender Screenshot:
Titan X_Pascal.JPG

Bitte um eure Meinung, was ich evtl. nicht richtig gemacht habe oder habe ich doch soviel Glück in der Chiplotterie ?

Ergänzung:
Habe den Rechner gerade neu hochgefahren und vorher noch nichts gemacht, das heißt die Temperatur war 22 °C (Raumtemperatrur)
Habe es jetzt nochmals wiederholt, nachdem der Chip seine normale Temperatur von 35 °C hat und liege jetzt bei 1885,5 , was sich schon realistischer anhört.
 
Zuletzt bearbeitet:
die Leistung ist schon der Hammer es juckt in den Fingern. Hier mal 980ti SLI vs Titan x

 
bestes Beispiel für Single > Multi
wer die µRuckler nicht sieht tut mir echt leid

Bei dem Video fällt das schon richtig auf. So krass nahm ich das aber beim selber spielen gar nicht war. Glaube das entscheide hier ist das man beides nebeneinander sieht.
 
Voltage dingeling für Afterburner:

You can add unofficial support for TITAN X via editing hardware profile (profiles .\VEN_10DE&DEV_....cfg) and adding the following lines to it:

[Settings]
VDDC_Generic_Detection = 1
 
die curve methode wird sicherlich genauso weniger performance liefern wie mit der 1080
 
Das hängt mit dem Video Clock zusammen (mit hwinfo auslesbar).
Je nachdem ob man die Curve locked (mit L) oder ob man die Punkte perfekt zurecht legt ohne lock liegt ein andere Video Clock an.
Kann man also ausloten wenn man viel Geduld hat.
 
Habe es genau so gemacht mit dem Rendertest als Belastung und komme auf einen Max Wert von 2.050 Mhz, kann ich mir aber irgendwie bei den anderen Ergebnissen nicht vorstellen.
Natürlich sind andere Tools wie z.B. Afterburner aus gewesen.

Hier auch ein entsprechender Screenshot:

Bitte um eure Meinung, was ich evtl. nicht richtig gemacht habe oder habe ich doch soviel Glück in der Chiplotterie ?

Ergänzung:
Habe den Rechner gerade neu hochgefahren und vorher noch nichts gemacht, das heißt die Temperatur war 22 °C (Raumtemperatrur)
Habe es jetzt nochmals wiederholt, nachdem der Chip seine normale Temperatur von 35 °C hat und liege jetzt bei 1885,5 , was sich schon realistischer anhört.

War vor dem Neustart eventuell ein GPU-Offset im Afterburner aktiv? Der Takt bleibt ja auch oben, wenn du den Afterburner zu machst, nur ein Neustart des Systems bzw. Neustart des Treibers setzt den Takt wieder auf Standardwerte.
 
wer die µRuckler nicht sieht tut mir echt leid

Warum das ? Ist doch prima wenn man sie nicht sieht, ein Problem weniger mit dem man sich rumschlagen muss. Für mich persönlich spielen jedenfalls nur praxisrelevante Probleme eine Rolle. Theoretische Probleme sind mir relativ egal.
Ich z.B. sehe zwar Mikrorucker wenn ich genau darauf achte, nehme sie beim zocken aber nicht mehr wahr, weil meine Konzentration dort anderweitig benötigt wird. Daher war ich mit meinen SLIs immer sehr zufrieden. Die bloße Existenz von Mikrorucklern alleine genügt mir nicht um das SLI abzuschaffen, ich tue mir also überhaupt nicht leid, im Gegenteil :)
 
Voltage dingeling für Afterburner:

You can add unofficial support for TITAN X via editing hardware profile (profiles .\VEN_10DE&DEV_....cfg) and adding the following lines to it:

[Settings]
VDDC_Generic_Detection = 1

Thx, auch wenn ich gerade 1.7Ghz mit 0.8V ausprobiere^^
Der Switch bewirkt nebenbei dass man die Spannung auch wieder im OSD anzeigen lassen kann. I Like.




How Low can you go?

BTW ..ich bin mit 1.7Ghz auf der Titan X bei 0.8V 20% schneller als die 1080FE mit 2.1Ghz und 1.04V ... ich will nix sagen. Nice Nice NV.
 
Zuletzt bearbeitet:
Wie "leise" bekommst du das Teil mit den Einstellungen?
 
Brüllt sich einen ab. Nervt wie sau. Ich mag es allerdings auch nicht wenn die Karte warm wird, also habe ich eine angepasste Lüfterkurve.
 
Hmm, wie langsam bekommst du die Lüfter den mit den settings bei 80 grad oder so?
 
Das hängt mit dem Video Clock zusammen (mit hwinfo auslesbar).
Je nachdem ob man die Curve locked (mit L) oder ob man die Punkte perfekt zurecht legt ohne lock liegt ein andere Video Clock an.
Kann man also ausloten wenn man viel Geduld hat.

gibts dazu irgendwie weiterführende literatur ?

ist schade die sache mit der curve, undervoltig oder OC wäre halt schon nice ohne den extra performanceverlust
 
Geht ja auch ohne Verlust, nur halt nicht über den lock.
Einfach mal nebenbei HW-Info offen haben und gucken was der Video Clock macht und das richtige Setting dann im Afterburner speichern.
 
die Leistung ist schon der Hammer es juckt in den Fingern. Hier mal 980ti SLI vs Titan x

Skaliert das so mies bei Witcher?
In dem Video ist die TX ja exakt auf dem Level zweier TI`s.
In der Praxis ist die neue TX aber nicht mal Ansatzweise doppelt so stark wie eine TI.
Im Schnitt (je nach Spiel) ist die neue TX ja zwischen 40 und 50% schneller als eine 980Ti.
 
Zuletzt bearbeitet:
Hmm, wie langsam bekommst du die Lüfter den mit den settings bei 80 grad oder so?

Also die 50%, die die normale Lüfterkurve als Maximum anlegt, reichen nicht um die Karte vom runtertakten zu bewahren. Ich teste mal kurz weiter und editiere das hier ein.
Edit: mit 70% Fanspeed kommt er kurz unter 80° an und hält den Takt.
 
Zuletzt bearbeitet:
oijoijoi da kann ich mir glatt überlegen meine Fury X gegen die Titan X auszutauschen oder sogar auf die BE zu warten :) Ob AMD oder Nvidia ist mir normal egal da beide Kartenhersteller bei mir keinen Unterschied machen sofern die Leistung stimmt. Könnte also auch Aldi draufstehen :lol:
 
Real bei weitem nicht so schlimm. Aber dennoch deutlich wahrnehmbar. Weshalb ich auch wieder auf Single gpu umgestiegen bin

Was ist euer subjektiver Eindruck:

Von den Leuten, die SLI benutzen oder benutzt haben, ist der Anteil derer höher, die die Mikroruckler stören, oder der Anteil derer, die sie nicht stören?

Hintergrund:

Wollte eigentlich dieses Jahr zum ersten Mal SLI ausprobieren, aber dann 6850K statt 6800K, neues Netzteil und noch eine Titan X plus Wasserkühler geht halt schon ordentlich ins Geld nur um dann festzustellen, dass mich die Mikroruckler stören. Allerdings habe ich die Hoffnung, dass es mit den neuen HB-Bridges vielleicht besser geworden ist.
 
Also ich nehme die deutlich wahr. Zwar sind die im Video schlimmer als real aber aber zeigen dennoch die Nachteile von sli.
Allerdings gewöhnt man sich beim zocken dran. Nach 5-10 Minuten hab ich die MR nur noch wahrgenommen, wenn ich es wollte.
 
Ich gehöre auch zu denen die keine Probleme mit Mikrorucklern haben, evtl hab ich auch keine oder sehe sie nur nicht. Das es direkt ruckelt würde mir bestimmt auffallen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh