[Sammelthread] NVIDIA TITAN X (GP102) Sammelthread + FAQ

NVIDIA TITAN X (GP102) Sammelthread + FAQ


Impressionen der Karte:

nvidia-titanx-sli-1-840x560.jpg

nvidia-titanx-sli-2-840x560.jpg

nvidia-titanx-sli-3-840x560.jpg

nvidia-titanx-sli-4-840x560.jpg

nvidia-titanx-sli-6-840x560.jpg

nvidia-titanx-sli-9-840x560.jpg

nvidia-titanx-sli-12-840x560.jpg

nvidia-titanx-sli-13-840x560.jpg

nvidia-titanx-sli-15-840x560.jpg

nvidia-titanx-sli-18-840x560.jpg

Technische Daten der nVidia Titan X
  • Chip = GP102-???-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 12,0 Milliarden
  • Die-Größe = 471 mm²
  • Shader-Einheiten = 3.584 (1D) (28 SMM)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 136,0+ GPixel/s
  • Texelfüllrate = 317,4+ GTexel/s
  • Chiptakt = 1.417 MHz Baseclock + Boost (1.531 MHz) + Max. Boost (~1.700? MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = G5X
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 480,6 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250 Watt
  • Leistungsaufnahme 2D = ~10 Watt
  • Versorgung über einen 6-Pin und einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the NVIDIA TITAN X


"Kauf" Link:
nVidia Titan X | Deutschland - nVidia

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei nVidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die nVidia Titan X erreicht im Leerlauf mit 0,X Sone in etwa das Niveau der GTX 1080. Der Radiallüfter dreht mit ~XXX RPM bei XX% PWM-Stärke. Unter Last steigt die Lautheit auf rund X,X Sone (~51%), was etwas etwas lauter als die GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.800 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der nVidia Titan X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 85 °C, wobei das Temperatur-Target genau 84°C beträgt. Sobald die 84°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei knapp 84°C verweilt.

Wie hoch ist der Stromverbrauch?
Die neue Titan X verbraucht im Leerlauf um die X Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Titan X (Pascal), egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GP102 GPU eine ebenfalls sehr hohe Effizienz (auf dem Niveau der GTX 1080) . Die Karte ist gut 60% schneller als die Maxwell GTX Titan X und verbraucht dabei genau so viel.

Passt die Karte in mein Gehäuse?
Wie bei der GeForce GTX 1080 und 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 1120% (1080p), bzw. 173% (4K) und ist so im Mittel in 4K rund 30% schneller als eine GTX 1080 und somit klar die schnellste Single-GPU-Grafikkarte. In der 1080p Auflösung ist die Karte stark CPU-limitiert und kann sich so nur wenig von der 1080 absetzen.
Launch-Analyse nVidia nVidia Titan X | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass die neue GP102 GPU ebenfalls rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Standardmäßig limitiert der Referenzkühler mit Radiallüfter die Karte stark. Stock erreicht die Karte im Mittel nach längerem Aufheizen Taktraten von gut 1.600 MHz. Das liegt klar über den Offiziellen Angaben von nVidia von 1.531 MHz, aber auch deutlich unterhalb der maximal erreichbaren Taktraten von gut 1.800 MHz. Hinzu kommt das Powertarget. Zwar erlaubt nVidia dieses mal bis zu 300 Watt, was aber für konstante Taktraten über 2.000 MHz in jedem Spiel dennoch nicht ganz reicht.

Anders als bei den GP104 GPUs limitiert die Speicherbandbreite die GP102 GPU, trotz der Verwendung von GDDR5X statt HBM, weniger.
Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.

Für genauere Angaben zum Thema Leistungsaufnahme, erreichte Taktraten und mehr wird noch auf Reviews von PCGH, CB, "TomsHardware" und HT4u gewartet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@thegian: du hast die voltage Kurve aber auch schon per Hand nachgearbeitet, richtig?
 
Nein daran habe ich noch nichts geändert. Dachte einfach langsam Schritt für Schritt, zuerst PL, Core Clock und erst dann am Vcore optimieren. Aber da geht ja anscheinend kein einziges Prozent mehr wenn man dem 3D Mark und der Afterburner Anzeige glauben darf/muss sobald 99% Last.
 
Zuletzt bearbeitet:
das is normal bei 3dm. der zieht sau viel pt. das haben alle.
 
ok, super dann habe ich schon mal einen Anhaltspunkt. V-Curve anpassen :)
Dachte schon, bei diesen niedrigen Temps, kann ja nicht sein das ich dann doch soviel Pech habe XD

Webmi, wieviel Vcore bzw. wieviel musstest du in % erhöhen, damit deine @2100 Mhz läuft?
Auf die schnelle lief die bei mir auf 1900@1.05 V im 3D Mark.
 
Zuletzt bearbeitet:
mit der aktuellen x hab ich glueck, die laeuft mit stock volgate 2100. bf1 kann ich mit 2150 benchen.
 
Hey HisN und wie läuft SLI.
Genau wie immer, bei ein paar Programmen gut, bei ein paar Programmen schlecht und bei anderen gar nicht. Hab die zweite Karte schon wieder verkauft.

Für meine Ansprüche/Software geht SLI einfach nicht vernünftig.

Nächstes Update Volta.

Gesendet von meinem A0001 mit Tapatalk
 
Zuletzt bearbeitet:
Gestern Suite wieder installiert. Delta GPU unten rechts, stellenweise liest der Temp Sensor der X niedrigere Temperatur als die zwei Temperatur Sensoren im Loop.



Ich weiß nicht genau ob der Sensor in der X wirklich die Temperatur liest, oder das eher so wie bei den Prozessoren läuft und er sie berechnet. Bei den Prozessoren kann man in den unteren Bereichen ja auch nicht immer von 100% richtigen Werten ausgehen.

Man sieht das auch nur, wenn man so einen Graph bzw. MIN Werte hat, denn die Temperatur liegt nur sehr sehr kurz an, schwankt halt schnell und stark.
 
Zuletzt bearbeitet:
@webmi: liest du die Daten mit HW Info aus für die Suite?
 
Ich glaube die Karte mit dem Heatkiller samt der dicken Backplate ist noch schwerer als meine AC mit BP. Das Teil wiegt unbefüllt 1.625Kg. :fresse2:

 
Ja mit WC sauschwer das Teil :d
 
Hast auch die Backplate dran? Schade, dass ich die AC+BP nicht gewogen hab.
 
Ja beides in schwarz und dann mit dem WC-SLI Verbinder. Das wiegt extrem viel ^^
 
Jepp.



Das geilste an SLI ist, das man es ausschalten kann. :d
 
Das geilste an SLI ist, dass man, wenn es abgeschaltet ist, auf der 2. Graka einen F@H-Client volle Pulle rechnen lassen kann, während man auf der 1. Karte Division in 4K zockt^^
 
Oder halt PhysX. :d
 
das is dann 5k ^^
 
eben..nicht ganz :d :p
 
es ist sogar mehr als 5k
 
Wegen den Quark-Temps, gerade mal 2h BF1 maxed out @1440p gezockt. 2GHz @0.950mV ergibt das:



33.6° Wasser max. ergibt 35° GPU max. Auslastung ist wie zu sehen meist voll bei mir.
 
mal ne andere Frage, wie bekomme ich die Wassertemp ins Afterburner overlay?
 
naja habs nun...

brauchst MSI-Afterburner, den Nvidia RSS Statsserver da, das starten, dann HwInfo Starten > Sensors > Config > OSD > Wasser

aber das sind mir zuviele Tools dann
 
Wegen den Quark-Temps

kannst du mal min temps nach 15 min idle pruefen. min gpu und min wasserr bevor du das system aufheizt. am besten gleich so eine delta anzeige basteln. unter load gehen die werte auseinander aber idle sehe ich bei mir komische werte.

hab den IN sensor mehr oder weniger direkt vor der gpu und das ich da weniger auf der gpu hab ist doch bullcrap.
 
Zuletzt bearbeitet:
Naennon
Du hast einen Wasser Sensor Wert in hwinfo? Aus dem Aquaero oder steckt dein Sensor am Mainboard?

Gesendet von meinem A0001 mit Tapatalk
 
Zuletzt bearbeitet:
hwinfo liest doch mittlerweile den AE auch aus oder?

hisn. du hast doch auch eine starke wakue. teste mal bitte idle temp und gib min werte von wasser und gpu. mein wasser liegt dank viel flaeche so nahe am raum das ich glaube die x liest bullcrap aus.
 
Bei mir zeigt Wasser IN 22,0° an, die X 19° im Idle.
Die Raumtemp ist 20°C.
 
Ich habe heute Nacht ein delta von -0.2K im Idle an der Graka gehabt. Mein Wasser Sensor ist hinter der Graka.

Für genaue Werte kann ich erst heute Nacht nach der Arbeit schauen.
Gesendet von meinem A0001 mit Tapatalk
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh