[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
In der Stadt fast durchgehend 60 fps, hab meinen 5960 aber auch auf 4,75ghz ( ht off, aber nicht wegen der Stabilität sondern weil es mehr FPS bringt) und die titan mit 1530/2000 laufen. V-Sync aus, das ist absolut gebugged in dem Spiel.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok ja hoffe Nvidia reicht ein Treiber Update nach,denke da schlummert noch Performance in den X'en. Vorallem lauft 4k nativ besser als DSR.
 
Stell V-Sync aus, setzt einen Framelimiter auf 58 oder 59 Fps, probier auch mal HT off, erweiterte Schattendistanz aus, im Treiber Einzel Display Leistungs-Modus einstellen. Das sind ein paar Tipps die du mal probieren kannst.
Nutze übrigens DSR, hab keinen 4k Monitor.
 
Alter.. solche Teile im Rechner und Bildquali @4k volle Pulle und dann mit Tearing spielen... crank... :wall:

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Die Mischung macht es. Habe fast kein Tearing durch den FPS Limiter. Was bringen dir "solche Teile im Rechner" wenn sie die halbe Zeit durch V-Sync 30% weniger ausgelastet werden und man sich mit 30 Fps rumschlagen muss? Probier es doch mal aus ;)

Tante Edit: Der Bildschirm ist auf 75 Hz übertaktet, das bringt auch noch einiges zwecks Tearing.
 
Zuletzt bearbeitet:
Ne danke hasse Tearing und fahre eh mit G-Sync, was in GTA V top arbeitet! ;)

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Hiho,
habe heute mal mit dem EVGA Guru gesprochen der die OC Geschichte bei EVGA durchführt und für die Reklamationen zuständig ist. Aaaalso, alles was über 1,25mv geht, "kann" unmittelbar die Transistoren beschädigen oder nach einer bestimmten Dauerbelastung(die Transistoren sind für mehr bei dem gm200 nicht ausgelegt und damit das Maximum bei diesen Chips erreicht). Die Aussage von ihm war, dass der TP Wert bis 450watt ~121% ohne weiteres aufgestockt werden kann. Somit wurde mir auch indirekt bestätigt, das der gm200 Chip der 980ti nicht ganz der Leistung der TX entsprechen wird. Die TX kann sich alleine durch den übermäßigen Speicher und freien Transistoren profilieren. Das heißt, dass das übertakten der Speicher im Verhältnis zu dem Core über die Hälfte mehr bringt(im normal Anwender Bereich, wie spielen zB) Sie selber haben mehrere Tests mit den Grakas durchgeführt und haben Mod BIOS und den Stock SC BIOS gegenübergestellt und festgestellt, dass im 4k play der Mod ca. Max ~5-10FPS im Durchschnitt mehr bringt das die Lebenszeit aber drastisch verkürzt. Fazit des sehr langen Gespräches war, dass ich mir ein Custom BIOS mit den veränderten TP und Max vcore von 1,25mv erstellen soll und damit probieren das 24/7 Max rauszubekommen. Beste Ergebnisse ohne Frame Drops ect, war bei EVGA 1450/3900 mit 1,2mv 24/7 Modi.

Ach und noch was, macht euch mit dem Asic nicht verrückt alles über 60% hört sich zwar schlecht von dem Wert an, ist aber von dem Potenzial genauso wie jede andere der TX. Einfach das Mod BIOS anpassen, damit gleicht man den schlechten Asic Wert aus. Auch von dem Guru :-)

Wollte es einfach mal weiter berichten.

Greetz
 
Ok eben da sagt z.B der 8auer dass die Karten ohne Probleme 1.27 V vertragen sollen unter Wasser.
 
@Fleischer
Ich dachte hier sind alle(mich eingeschlossen) eher scharf auf eine hohe ASIC? Verstehe auch nicht was man jetzt von der TX auf die TI schließen kann. Kann mir das nochmal einer erklären? Hört sich für mich alles nicht so logisch an....
@Dancop
Das sieht doch schonmal super aus, der Score sagt mir jetzt nicht soviel. Benche meistens nur 3DM11 und 3DM. Aber ich gehe mal davon aus dass der Score sehr gut ist. Hast du noch Ergebnisse von 3DM11 oder 3DM? War bei 1620 Schluss? Wie hat die Karte sich so geschlagen?
 
Zuletzt bearbeitet:
@Heinz, eins muss ich dir sagen, mir pers. wäre der Aufstand, den du machst, viel zu dumm.
 
@Fleischer
Ich dachte hier sind alle(mich eingeschlossen) eher scharf auf eine hohe ASIC?

Es geht eher darum, daß ein niedriger ASIC-Wert beim Übertakten gerade mit MOD-Bios und Wasserkühlung kein Nachteil ist und daher nicht ins Gewicht fällt.

Der ASIC Wert sagt meines Wissens erst mal nichts über die Übertaktbarkeit aus, sondern lediglich wieviel Spannung für einen bestimmten Takt benötigt wird, wie weit die Karte bei Standardtakt boostet und wieviel Abwärme sie dabei erzeugt. Unter Wasser + MOD-Bios spielt das aber alles eher keine wirkliche Rolle, weil man das ausgleichen kann ohne OC-Potential zu verlieren. Ich denke, das war damit gemeint.
 
Es geht eher darum, daß ein niedriger ASIC-Wert beim Übertakten gerade mit MOD-Bios und Wasserkühlung kein Nachteil ist und daher nicht ins Gewicht fällt.

Der ASIC Wert sagt meines Wissens erst mal nichts über die Übertaktbarkeit aus, sondern lediglich wieviel Spannung für einen bestimmten Takt benötigt wird, wie weit die Karte bei Standardtakt boostet und wieviel Abwärme sie dabei erzeugt. Unter Wasser + MOD-Bios spielt das aber alles eher keine wirkliche Rolle, weil man das ausgleichen kann ohne OC-Potential zu verlieren. Ich denke, das war damit gemeint.

Besser hätte ich es nicht beschreiben können :-)
 
@Heinz, eins muss ich dir sagen, mir pers. wäre der Aufstand, den du machst, viel zu dumm.

Stimme ich dir voll zu. Macht langsam Sinn auf neue Karten zu warten(390X oder 980ti). Ich meine die Titan X ist nunmal nicht lange exclusiv. Macht Sinn die sofort zu kaufen.

Habe mein Meinung zu Backplates nochmal überdacht, nachdem ich festgestellt habe wie scheisse heiss der Ram wird. Welche Backplate eignet sich denn Kühltechnisch da am besten. Und muss der Wasserkühler wieder runter um die zu montieren? Wäre echt doof.
 
Zuletzt bearbeitet:
a) Kühltechnisch haben wir schon drüber gequatscht. Eigentlich keine.
b) Montage: Hängt davon ab. Bei EK z.b. muss der Kühler nicht runter. 6 Schrauben raus (6 bleiben drinne) und an die frei werdenden Gewinde kommt die Backplate. Bei AC mussten früher alle Schrauben wieder ab und durch längere, die bei der Backplate dabei waren ersetzt werden. Weiß nicht wie das jetzt bei der X ist.
 
Zuletzt bearbeitet:
So Txs kamen gestern samt Netzteil.

Bis das mal alles funktioniert hat. Wer kommt bitte auf die Idee Windows (wurde zuerst als "VGA-Controller" erkannt) automatisch nach Treibern suchen zu lassen.. erst dann wurde sie erkannt. Das es letztendlich so einfach war.. wenn das normal ist ok, kann mich an keinen Umbau erinnern wo man das manuell machen musste, seis drum.

Fix Heaven-Benchmark angeschmissen und dann gings ab mim Spulenfiepen. Ich hatte es noch nie, jetzt weiss ich endlich wie nervig es sein kann. Ab 50 FPS fiept die Tx rum wie en Schwein das abgestochen wird..

Werde heute mal die zweite Karte alleine testen, nicht das die auch fiept.. Bin schon bisschen sauer, da ich die jetzt umtauschen muss, aber ausschließen kann man es wohl nie ganz ("Dank ausgewählter Bauteile soll die GeForce GTX Titan X nur ein minimales Spulenfiepen aufweisen." => my ass!)

Asic von der fiependen is 75, von der anderen 70. Schade das die 75er zurück geht :(
 
Hmm, muss mal schauen ob meine eigentlich fiepen. Da mein Gehäuse sehr groß ist, neben dem Schreibtisch steht und ich kein absoluter Silent-Freak bin habe ich da noch nie was wahrgenommen. Da es mir aber noch nie aufgefallen ist kann es bei mir also nicht störend sein ;)

Bei AC mussten früher alle Schrauben wieder ab und durch längere, die bei der Backplate dabei waren ersetzt werden. Weiß nicht wie das jetzt bei der X ist.

Ja, war bei mir damals auch so. Ich habe die Karte aber einfach auf den Kopf gelegt, Schrauben raus, Backplate drauf und neue rein. Den Kühler habe ich dabei nicht bewegt. Wenn man also geschickt ist muss man da nix neu machen. Ich bin ziemlich sicher, daß es bei der X wieder genau so läuft. Sobald AC meine Backplates verschickt kann ich es genauer sagen.
 
Zuletzt bearbeitet:
Stimme ich dir voll zu. Macht langsam Sinn auf neue Karten zu warten(390X oder 980ti). Ich meine die Titan X ist nunmal nicht lange exclusiv. Macht Sinn die sofort zu kaufen.

Habe mein Meinung zu Backplates nochmal überdacht, nachdem ich festgestellt habe wie scheisse heiss der Ram wird. Welche Backplate eignet sich denn Kühltechnisch da am besten. Und muss der Wasserkühler wieder runter um die zu montieren? Wäre echt doof.

was heisst heiß?
mit Finger messen ist sinnlos

mach an deinem Wasserhahn heißes Wasser an und halt den Finger rein, tut weh, sind aber grad mal 40-45 Grad

sprich: Finger als Sensor ist sinnlos
solang du da keine Infrarotmessung machst und mehr als 90 Grad hast ist es eh egal
 
Ja, das ist echt grenzwertig. Eine Alternative wäre auf die nächste warten und die Kaufabsichten verwerfen. Ein Händler hat mir eine Lieferung zugesagt. Falls das auch nix wird oder nur eine mit einem ASIC-Wert von -70% geliefert wird, bin ich endgültig bedient.

eine non-EVGA und dann noch mit einer ASIC unter 70 wäre auch absolut inakzeptabel !
da verzichtet man dann gerne auf die mehrleistung einer Tx, darum gehts nämlich auch garnicht !
 
Ach ich setz mir jetzt auf meine 1000€ Grafikkarte einfach VGA Ram Cooler :d
Reicht für den Zweck locker aus und dann bin ich zufrieden. Ist die günstigste und vielleicht sogar beste Lösung.
 
Backplate und dann oben drauf noch Ram Kühler :d


Edit:
Hmm Moment, eigentlich coole Idee. Gleich mal machen :d
 
Zuletzt bearbeitet:
Ihr stellt euch aber auch immer an:d
Habe gerade mal die neue PCGH gekauft und siehe da...dort wird auch empfohlen VGA Ram Cooler draufzupacken. Die Speicher sollen bis zu 90 Grad erreichen.
@Webmi
Habe mir jetzt 12er Lüfter und das externe Netzteil bestellt. Es gibt einfach keine leisen Tischventilatoren. Somit kann mein jetziger Düsenjet-Vetilator in Keller verbannt werden.
 
Kommt die neue PCGH nicht morgen erst raus?
 
Ihr stellt euch aber auch immer an:d
Habe gerade mal die neue PCGH gekauft und siehe da...dort wird auch empfohlen VGA Ram Cooler draufzupacken. Die Speicher sollen bis zu 90 Grad erreichen.
@Webmi
Habe mir jetzt 12er Lüfter und das externe Netzteil bestellt. Es gibt einfach keine leisen Tischventilatoren. Somit kann mein jetziger Düsenjet-Vetilator in Keller verbannt werden.

japp, BILD hat @ Air gemessen, betreibt Titan X mit einem Luftkühler bei 1500 und empfiehlt Kühlerchen auf den Rams

all said
 
Wie man auch bei Techpowerup gut erkennen kann, werden die VRams von alleine heiß, sobald die Karte in 3D geht. Das hat wenig mit Luft oder Wasser zu tun. Die werden einfach heiß weil sie sich selbst erhitzen. Und wenn du meinst dass das "Bild" Niveau ist, dann erklär mir mal was jetzt das beste wäre um die Karte und die Vrams zu kühlen....Da macht sich jemand die Mühe und macht schon Aufnahmen mit ner Wärmekamera, wo die Hot Spots wunderbar zu sehen sind, aber nein es ist Schwachsinn?:stupid:
 
Heinz du tust mir echt Leid...

Also Webmi...ich habe das mal ausführlich getestet...es ist so, wie du sagtest...

Wenn ich den Swift auf 120Hz stelle, geht der Takt auf 135MHz runter und Total-Power ist minimal...sobald ich auf 144Hz stelle passiert folgendes:
(Zeitpunkt der Umstellung am Ausschlag des Graphen deutlich zu erkennen)

wtf.jpg


Gibt es dafür keine Lösung oder nen Fix?? Letztendlich sind das Paar € im Jahr an Mehrverbrauch, aber es geht ums Prinzip...
 
Zuletzt bearbeitet:
ich will wärmebild aufnahmen mit einer wassergekühlten titan X sehen !

die rambausteine bzw die titan x karten sind dafür ausgelegt, (im SLI) unter härtesten bedingungen (im sommer) bei luftkühlung zu überleben. wer meint, die werden mit einer wasserkühlung zu (gefährlich) warm, sollte das mal bedenken.

und wenn mir die karte wirklich verreckt, was wohl mit meiner wakü im gut gekühlten pc mit sgpu wirklich so gut wie ausgeschlossen sein sollte, dann hab ich garantie ! gleiches gilt für die lustige 1.25v-sind-gerade-so-noch-ok-evga-aussage. wenn 1.25v gerade so noch ok sind, bzw es ab dann gefährlich wird, wie viel gefährlicher sind dann 1.27v?! verreckt die karte, gibts ne garantie...

wer angst um seine 1000€-karte hat, sollte die finger von oc lassen und die karte am besten in die vitrine legen, um sie da mit samthandschuhen ein mal die woche zu reinigen.

angenommen man klebt sich also so lustige mini ram kühler auf die rückseite der karte, wie viel grad celsius werden die wohl effektiv von dem rams wegnehmen? lass es 5°C sein. wenn wir aber wie auf dem bild oben bereits 102°C haben, dann ist das lediglich ein tropfen auf den heißen stein...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh