[Sammelthread] NVIDIA TITAN X (GP102) Sammelthread + FAQ

NVIDIA TITAN X (GP102) Sammelthread + FAQ


Impressionen der Karte:

nvidia-titanx-sli-1-840x560.jpg

nvidia-titanx-sli-2-840x560.jpg

nvidia-titanx-sli-3-840x560.jpg

nvidia-titanx-sli-4-840x560.jpg

nvidia-titanx-sli-6-840x560.jpg

nvidia-titanx-sli-9-840x560.jpg

nvidia-titanx-sli-12-840x560.jpg

nvidia-titanx-sli-13-840x560.jpg

nvidia-titanx-sli-15-840x560.jpg

nvidia-titanx-sli-18-840x560.jpg

Technische Daten der nVidia Titan X
  • Chip = GP102-???-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 12,0 Milliarden
  • Die-Größe = 471 mm²
  • Shader-Einheiten = 3.584 (1D) (28 SMM)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 136,0+ GPixel/s
  • Texelfüllrate = 317,4+ GTexel/s
  • Chiptakt = 1.417 MHz Baseclock + Boost (1.531 MHz) + Max. Boost (~1.700? MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = G5X
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 480,6 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250 Watt
  • Leistungsaufnahme 2D = ~10 Watt
  • Versorgung über einen 6-Pin und einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the NVIDIA TITAN X


"Kauf" Link:
nVidia Titan X | Deutschland - nVidia

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei nVidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die nVidia Titan X erreicht im Leerlauf mit 0,X Sone in etwa das Niveau der GTX 1080. Der Radiallüfter dreht mit ~XXX RPM bei XX% PWM-Stärke. Unter Last steigt die Lautheit auf rund X,X Sone (~51%), was etwas etwas lauter als die GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.800 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der nVidia Titan X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 85 °C, wobei das Temperatur-Target genau 84°C beträgt. Sobald die 84°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei knapp 84°C verweilt.

Wie hoch ist der Stromverbrauch?
Die neue Titan X verbraucht im Leerlauf um die X Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Titan X (Pascal), egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GP102 GPU eine ebenfalls sehr hohe Effizienz (auf dem Niveau der GTX 1080) . Die Karte ist gut 60% schneller als die Maxwell GTX Titan X und verbraucht dabei genau so viel.

Passt die Karte in mein Gehäuse?
Wie bei der GeForce GTX 1080 und 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 1120% (1080p), bzw. 173% (4K) und ist so im Mittel in 4K rund 30% schneller als eine GTX 1080 und somit klar die schnellste Single-GPU-Grafikkarte. In der 1080p Auflösung ist die Karte stark CPU-limitiert und kann sich so nur wenig von der 1080 absetzen.
Launch-Analyse nVidia nVidia Titan X | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass die neue GP102 GPU ebenfalls rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Standardmäßig limitiert der Referenzkühler mit Radiallüfter die Karte stark. Stock erreicht die Karte im Mittel nach längerem Aufheizen Taktraten von gut 1.600 MHz. Das liegt klar über den Offiziellen Angaben von nVidia von 1.531 MHz, aber auch deutlich unterhalb der maximal erreichbaren Taktraten von gut 1.800 MHz. Hinzu kommt das Powertarget. Zwar erlaubt nVidia dieses mal bis zu 300 Watt, was aber für konstante Taktraten über 2.000 MHz in jedem Spiel dennoch nicht ganz reicht.

Anders als bei den GP104 GPUs limitiert die Speicherbandbreite die GP102 GPU, trotz der Verwendung von GDDR5X statt HBM, weniger.
Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.

Für genauere Angaben zum Thema Leistungsaufnahme, erreichte Taktraten und mehr wird noch auf Reviews von PCGH, CB, "TomsHardware" und HT4u gewartet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wollte auch keinen shitstorm ... Kenne sehr viele die das lieben... Ich bin halt eher der anno Zocker... Da fragen sich meine bekannten immer, kann man seine Zeit nicht anders verschwenden?

Gesendet von meinem HUAWEI NXT-L29 mit Tapatalk
 
Ist schon wahr, jedem das Seine. GTA und Battlefield habe ich noch nie gespielt.
 
J

Hier noch ein kurzer Test zu Windows High Performance Profil (links) vs Bitsum Highest Performace Profil (rechts):

was soooll ds denn. 4k. kein cpu limit in 4k und trrotzdem 10 prozent gain. wie soll ds gehen. das ding ist nichts anderes al reg edit eintraege machen. kein parking und max cpu takt. glaub daas nicht.
 
was soooll ds denn. 4k. kein cpu limit in 4k und trrotzdem 10 prozent gain. wie soll ds gehen. das ding ist nichts anderes al reg edit eintraege machen. kein parking und max cpu takt. glaub daas nicht.

Beim 6700K bringt es nix. Wahrscheinlich erst ab 6 Kerne
 
also mit dem neuen treiber sind 2050 nicht mehr stable. er soll ja aber dafuer besser performen. 2025 laufen jetzt schon 5h.

ich bin immer noch ganz buff von der performance. division alles maxed in 3440. ALLES. und dann noch sweetfx mit 80 bis 100 fps. meist glatte 100. so krass. vor allem die grafik.
Ich kann das immernoch nicht nachvollziehen, wie du bei The Division mit den höchsten Einstellungen zwischen 80-100FPS hast. Ich komme auf ca. 60-80 FPS. Wir haben ein sehr ähnliches System nur dein Prozzi ist 400 MHz höher geraktet und zur Zeit auch die Titan X. Meine fällt zur Zeit im Boost auf ca. 1800 MHz ( unerträglich laut). Machen diese beiden Unterschiede so einen großen Unterschied?
 
was soooll ds denn. 4k. kein cpu limit in 4k und trrotzdem 10 prozent gain. wie soll ds gehen. das ding ist nichts anderes al reg edit eintraege machen. kein parking und max cpu takt. glaub daas nicht.

Es sind zwei Karten bei mir im Einsatz und da bin ich in 4k sehr wohl im CPU-Limit.
 
ach, stimmt, SLI

trotzdem find ich den gain etwas zu hart

entweder dein windows ist beschissen eingestellt oder ds tool kann zaubern

ich teste jetzt selbst bissl damit rum

- - - Updated - - -

Ich kann das immernoch nicht nachvollziehen, wie du bei The Division mit den höchsten Einstellungen zwischen 80-100FPS hast.

DarkZone, ich spiele eigtl nur DarkZone bzw PVP. in der DZ sinds etwa 10 FPS mehr. ich mach dir später einen screen.

- - - Updated - - -

Profil: Höchsleistung




Profil: Bitsum Highest Performance




Alles andere hätte mich auch stark gewundert... und Division ist ein Game, das wie man am Taskmanager sieht, sehr an der CPU zieht.

(Der zweite Bench hat 1 FPS weniger, da sich die Karte bzw das Wasser da bereits so aufgeheizt hatte, das die von mir anvisierten 2025 statt der 2037 anlagen)
 
Zuletzt bearbeitet:
ach, stimmt, SLI

trotzdem find ich den gain etwas zu hart


Alles andere hätte mich auch stark gewundert... und Division ist ein Game, das wie man am Taskmanager sieht, sehr an der CPU zieht.

(Der zweite Bench hat 1 FPS weniger, da sich die Karte bzw das Wasser da bereits so aufgeheizt hatte, das die von mir anvisierten 2025 statt der 2037 anlagen)

Es kommt wohl auch stark auf die Software drauf an die man verwendet. Ich werde das mal beim Witcher testen, weil Heaven ist ja eigentlich Mist.
 
Also beim Witcher macht es keine wirklichen Unterschied ob Balanced, High Performance oder den Bitsum Highest Performance Modus. Erst wenn ich auf Power Saver einstelle, verliere ich gut 50% FPS, was aber klar ist, weil die CPU dann auf 1,2 GHz fixiert ist. Die starke Anstieg beim Heaven Benchmark dürfte dann wohl eine Eigenheit diese Benchmarks sein.
 
Was soll das Tool auch machen, was nicht Windows selbst kann? Wie soll das Tool damit im CPU Limit so viel besser performen? Das Tool beseitig ja das CPU Limit nicht. Es liegen mit Windows eigenem Profil Höchstleistung 100% Takt auf allen ungeparkten Kernen an. Ende. Ob dann CPU Limit oder nicht, die CPU Performance ändert sich doch deshalb nicht... Mal davon abgesehen, dass CoreParking soweit ich mich erinnere, mal ein Thema zu Win7 war, da hat man dann aber einfach in der Registry einen Wert geändert und schon konnte man die Zahl der zu parkenden Cores in den Windows eigenen Energieoptionen einstellen. Im RessourcenManager konnte man im Reiter CPU geparkte Kerne sehen. Das gibts aber unter Win10 nicht mehr. Zumindest habe ich dort in Win10 nie geparkte Cores gesehen.
 
Zuletzt bearbeitet:
Die Mikroruckler sind mit Bitsum definitiv weg und ausbalanciert sofort wieder da. Reproduzierbar.
 
Schaut mal ob ihr hpet an oder aus habt im os

Gesendet von meinem HUAWEI NXT-L29 mit Tapatalk
 
Die Mikroruckler sind mit Bitsum definitiv weg und ausbalanciert sofort wieder da. Reproduzierbar.

balanciert ist auch was anderes als höchstperformance ;-)

warum man sich ein tool für etwas runterlädt, was windows schon an board hat (höchstperformance) ist halt die frage

der unterschied zwischen balanced und performance was die cpu angeht ist:

balanced: minCPU = 5%, maxCPU = 100%
performance: minCPU = 100%, maxCPU = 100%

performance ist auch etwas aggressiver was hochtakten angeht, stellt man dort dann halt einfach auch minCPU = 5% ein, sodass die CPU mit höchstperformance idle auch runtertaktet.

wie gesagt, geparkte cores siehste im ressourcenmanager. sollten unter win10 nicht mehr geparkt werden.
 
Zuletzt bearbeitet:
You can enable HPET via command line:

Enable: bcdedit /set useplatformclock true
Disable: bcdedit /deletevalue useplatformclock

Gesendet von meinem HUAWEI NXT-L29 mit Tapatalk
 
Ich habe nun mal SLi ein bisschen getestet.
Je nach Spiel läuft es schlechter ja, aber ich muss ehrlich sagen, so schlimm wie das Thema Mikroruckler da immer dramatisiert wird, empfinde ich das nicht und ich würde mich schon eher zu den empfindlicheren Usern zählen was das angeht. Ich finde ohne GSync zu zocken deutlich schlimmer und ruckeliger als SLi mit GSync.

Ziemlich unrund lief eigentlich nur The Division, das hatte deutliche Ruckler. Crysis 3 @SLi auch etwas schlechter als ohne. Witcher 3 fast genauso gut wie single. Anno2205 lief genauso, allerdings auch single nicht butterweich, minimalste Ruckler ab und an. BF4 läuft aber imho genauso gut wie mit einer Karte. Selbst Drehungen im Heli waren noch absolut smooth.
Ich weiß nicht wie stark GSync SLi "glattbügeln" kann und ob überhaupt, aber mal abgesehen von Division empfinde ich das Spielen ohne GSync als deutlich schlimmer als SLi+GSync (bei den 5 Games die ich getestet habe). Am besten läuft nach wie vor nur eine Karte @GSync. =)
 
G-Sync kann die Microruckler gar nicht glätten
 
Anno2205 lief genauso, allerdings auch single nicht butterweich, minimalste Ruckler ab und an.

Da es kein Anno2205 SLI-Profil gibt, ist das nicht weiter verwunderlich dass sich nix ändert. Anstatt nur auf die MR zu achten, könnte man auch einen Blick auf die Auslastung der Grakas/FPS werfen :-)
 
Zuletzt bearbeitet:
@AK0511: Sehr große Spielwiese und viele Storys und Seitenpfade, ich find`s toll.
:btt2:
an die die hier mit "nur" einer Titan X unter Wasser rumspielen: Wieviel Radiator Fläche habt ihr?
Bin im Moment (heute gebastelt) bei einem 420 und einem 280 je 45 dick, GPU alleine.
 
Zuletzt bearbeitet:
Da es kein Anno2205 SLI-Profil gibt, ist das nicht weiter verwunderlich dass sich nix ändert. Anstatt nur auf die MR zu achten, könnte man auch einen Blick auf die Auslastung der Grakas/FPS werfen :-)

GPU-Z hatte ich doppelt auf, aber wohl aus den Augen verloren. Na immerhin habe ich es nicht falsch wahrgenommen von wegen SLi läuft VIEL VIEL schlechter in Anno. :d
 
Heute extra noch mal Wasser abgelassen und einen zweiten Temp-Sensor installiert.
 
2114 tomb raider benchmark... Hammer was Wasser ausmacht

Gesendet von meinem HUAWEI NXT-L29 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh