[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
meine 1550 score is auch da
denke meine issn mü besser, ASIC 77 @ Dancop

habe aber ehrlich gesagt 0 Bock zu testen

1500@ 1.23 -1.25 sind so die guten

Meine ist ne 82er...Test und Screens kommen.
Mit normalem Bios gehen 1470 bei 1.15V 2000Speicher bei 1,5H Heaven
mit nur geringer Voltage-Erhöhung rennt sie dann ins PT, macht aber 1540 bei 1,2V mit Artefakten und 1510 ohne
Sollte also was relative gutes sein
EVGA btw
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dann bios drauf, 1.274v angelegt und ab durch den 3Dmark. was max takt geht würde mich bei den "guten" mal interessieren

1510 bei 1.21? 1.5h heaven oder 3dmark?

wichtig ist hier halt die unterscheidung, läuft das mal eben irgendwo durch, oder ist das 14/7 stable, naennon meint glaube ich letzteres.
 
Zuletzt bearbeitet:
Nein ich dachte vielleicht gäbe es ja Vorteile bei den Wb von Ac, vorallem wenn du schreibst das die Backplate besser kühl Eigenschaften hat. Mich hat bei der Backplate von Ek gestört dass sie nicht unbedingt wie angegossen gepasst hat und dass auf der Montageanleitung ein Bild von einer 980er war.
Naja, das Problem mit Backplates und Heatspreadern ist, daß sie kontraproduktiv wirken können wenn sie nicht richtig konzipiert sind. Wenn der Wärmeübergang nicht gut ist kann sie sogar isolierend wirken weil keine Luft dran kommt und sich die Wärme darunter staut. Es ist also nicht zwingend ein Indiz für eine gute Backplate/Heatspreader, wenn sie kühl bleibt. Das kann nämlich auch bedeuten, daß die Wärme nicht übertragen wird und die Chips darunter vor sich hin kochen. Das ist der Grund warum manche durchaus zu Recht sagen, eine Backplate bringt nichts.
Eigentlich muss man den Effekt wirklich mit Temperaturfühlern unter der Backplate messen. Ich bin aber der Meinung, daß eine gut konzipierte Backplate sehr wohl etwas für die Kühlung bringt und nicht nur bessere Optik und Schutz vor einzelnen Wassertropfen aus undichten Anschlüssen.

Und da hat aus meiner Sicht die Backplate von AC da einfach designbedingt einige Vorteile, die sie für mich zu meiner persönlichen ersten Wahl macht, da mögliche Problemquellen gut entschärft wurden:
  • Sie ist so konzipiert, daß aufgrund der genauen Fertigung mit Paste gearbeitet werden muss statt mit Pads. Mit Paste läßt sich einfach eine bessere und auch zuverlässigere Wärmeübertragung gewährleisten. Klar kann man auch da was falsch machen aber normalerweise ist es besser. Niemand würde ja heute noch eine GPU mit einem Pad an den Kühler anbinden, oder ? ;)
  • Sie ist mindestens 3mm dick, also sehr massiv. Das bedeutet einmal, daß sie etwas mehr Wärme zwischenspeichern kann. Zudem ist sie dadurch steifer, weswegen sie nicht verzieht und es damit auch nicht zu potentiellen Problemen mit der Verbindung zwischen Speicherchips und Backplate kommt. Bei sehr dünnen kann es dagegen theoretisch passieren, das einzelne Chips nach einiger Zeit keine Verbindung mehr mit der Backplate haben ohne das man es merkt. Bei der AC ist das ausgeschlossen.
  • Durch die höhere Steifigkeit ermöglicht sie dem GPU-Kühler einen etwas höheren Anpressdruck was die Wärmeübertragung verbessert. Auch das PCB wird durch den schweren GPU-Kühler (der meistens ja nur mit 4 Schrauben befestigt ist) etwas weniger gebogen, die Kraft verteilt sich besser (wie bei einer guten CPU Backplate auf der MoBO Rückseite) und alle Kontaktflächen haben dadurch einen gleichmäßigeren Anpressdruck auf die jeweiligen Komponenten. Das ist ebenfalls gut für die Wärmeübertragung.
Das sind jedenfalls meine persönlichen Argumente weswegen ich den kryographics + Backplate haben will und keinen anderen. Ich bin damit bisher sehr gut gefahren. Ich behaupte aber nicht, daß irgendeiner dieser Punkte signifikant genug ist um zu einer Art Must-Have zu werden. Und man verliert in den meisten Fällen durch diese Backplate auch den Slot darüber bzw. bekommt Probleme mit RAM-Sockeln oder MOSFET-Kühlern. Muss also jeder entscheiden ob es einem das ganze Wert ist oder ob man es für Mumbo-Jumbo hält :d Und ein guter GPU-Kühler transportiert ja auch so viel Wärme ab, daß die Rückseite auch so möglicherweise kühl genug bleibt um ohne Backplate zu arbeiten.

Werden eigentlich bei allen WaKü-Blöcken die Speicherchips auf der Vorderzeite per Paste angebunden oder arbeiten da einge auch mit Pad ? Der kryo nutzt halt zwingend Paste für die Speicherchips auf der Vorderseite und ein Pad für die Spannungswandler. Mir gefällt das. Kann aber gut sein, daß dies andere Kühler auch alle haben.
 
Ich zitiere mal jemand der sich sicher mit der Materie auskennt:

Zitat von der8auer

Danke euch allen Die Wandler reichen für den normalen Betrieb problemlos aus. Es werden die gleichen Teile wie schon bei der GTX 780 Ti referenz / GTX Titan (GK 110) verwendet. Moderates Overclocking machen die ICs schon mit wenn entsprechend gekühlt wird. Gerade wer eine WaKü verwendet kann die Spannung per Software problemlos bis ans Limit verwenden. Mehr als 1,27 Volt sind meines Wissens nach per Software nicht möglich. Mehr als 1,35 Volt würde ich den normalen ICs auch nicht zumuten.
 
dann bios drauf, 1.274v angelegt und ab durch den 3Dmark. was max takt geht würde mich bei den "guten" mal interessieren

1510 bei 1.21? 1.5h heaven oder 3dmark?

wichtig ist hier halt die unterscheidung, läuft das mal eben irgendwo durch, oder ist das 14/7 stable, naennon meint glaube ich letzteres.

1.20V waren es ausgelesen...da das PT eingriff!
1.5h heaven liefen mit 1470/2000...und heaven ist weitaus heftiger als FSX ;)
 
eben, heaven is ne andere nummer, deshalb die frage. ich frage so genau, weil zwischen normal und gut eben nur 2-3 steps mit der voltage liegen und hier nachkommastellen wichtig wären für eine genau beurteilung. generell liegen alle sehr nahe beieinander, grobe ausreißer oder perlen gibts bisher nicht.

1500+ bei 1.20v heaven wäre gut
als vergleich 1440p extreme preset
naennon 1500/2000 @ 1.2490v
ich 1500/2000 @ 1.550v
 
Zuletzt bearbeitet:
wo soll der screen/score sein? ^^

0 bock zu testen? was isn das? das erste was ich mache, ist schauen wie viel mhz ich durch die benches bringe noch bevor ich ein stabiles 24/7 setting suche

möglichst wenig spannung für takt xy hat mich noch nie interesiert, das was mir mit mir gegebenen mitteln möglich ist, ist was mich interessiert :bigok:

NVIDIA GTX TITAN X video card benchmark result - Intel Core i7-5820K Processor,ASUSTeK COMPUTER INC. RAMPAGE V EXTREME

1660? ^^
 
woooow! wie haste das denn gemacht? nicht schlecht!

aber graphics ist weniger als ich mit 1533/2050, komisch
 
*aufgeräumt* und jetzt hatten wir alle unsere 5 Minuten. BTT
 
@Gigabyte Titan x users..

war eure karte versiegelt ,also der karton aussen mit schrumpffolie versehen?

antistatiktüte womit versiegelt?
 
Ja Schrumpffolie
Aufkleber auf der Antistatik-Hülle. Kein "Siegel" an sich. Also das Ding kann man 100x auf und zu machen ohne das man es sehen würde.

Angst einen Rückläufer zu bekommen?
 
Ja Schrumpffolie
Aufkleber auf der Antistatik-Hülle. Kein "Siegel" an sich. Also das Ding kann man 100x auf und zu machen ohne das man es sehen würde.

Angst einen Rückläufer zu bekommen?

jaein,wenn dann geht die halt zurück..

ja,also auf der antistatik war ein sauberer tesastreifen,kein siegel. karte sieht aus wie neu und auf den schrauben der GPU kein siegel (das ist gut)


deine war also in schrumpfolie durchsichtig außen verschrumpft?
 
Ja, aber das kann auch jeder Betrieb innerhalb von 10 Sekunden selbst erledigen.
Nur gut dass ich die erste Charge von Caseking bekommen habe, da isses schwierig ein Rückläufer reinzupacken^^
 
Nein, die Packung in Folie ziehen und einmal mit der Warumluftpistole rumgehen. Und schon ist sie verschweißt.
 
Nein, die Packung in Folie ziehen und einmal mit der Warumluftpistole rumgehen. Und schon ist sie verschweißt.

achso ...lol ich depp^^

klar,so ein schrumpfgerät haben wir auch in der Firma.. no Problem.


also,du hast keinen siegel auf den GPU Schrauben?

deine antsistatiktüte war nur mit einem tesastreifen verschlossen?


die karte hier macht aber einen guten eindruck... eventuell doch zu paranoid..^^
 
Naja, Siegel kann man das nicht nenne EVGA packt nen Aufkleber auf ne blöde Stelle an der GPU. Abgezogen woanders hingeklemmt.
 
Hab seitdem neuem Treiber ohne Spannungserhöhung einen Vcore von 1.199 V ihr auch?
 
Ok ja hab Asus wegen dem angeschrieben der zuständige Supporter meinte in dem Bereich ist alles i.O.:)
 
Geht denn dann automatisch mehr? Oder nur ein auslesefehler?
 
Naja, Siegel kann man das nicht nenne EVGA packt nen Aufkleber auf ne blöde Stelle an der GPU. Abgezogen woanders hingeklemmt.
Exakt so war es bei meinen EVGA auch. Keine Siegel auf Schrauben aber den Aufkleber völlig dämlich mitten über einen der Speicherchips geklebt. Der Aufkleber musste daher umziehen. Bei beiden Karten das gleiche.
Alles nur, damit man die Seriennummer auf der Karte mit der verpackung abgleichen kann ohne die Packung zu öffnen. Nützlich beim Kauf im Einzelhandel aber sehr lästig wenn man deswegen an Aufklebern rumfummeln muss.
 
Könnte mir mal jemand ein paar biose zur Verfügung stellen?
Offenes pt...und ich rede nicht von lumpigen 400W
800 oder gar 1000
Und mehr spannung...Besten Dank Jungs
 
Nimm doch das das Gm200boostmod?Was willst du denn mit mehr als 400 Watt?

Edit: wenn ich im Maxwell Bios Tweaker die Watt der Pci-E Stecker erhöhe dann nimm ich an spielt es keine Rolle ob der 6+2 Pin Stecker als 6 oder 8 Pin verwendet wird?Sprich ich hab nur 6 Pins angeschlossen könnte jedoch trotzdem 150 Watt geben? Klar dass dann nicht die 150 Watt ankommen.
 
Zuletzt bearbeitet:
Selbst Hand anlegen?Jemand der mit Flüssigstickstoff hantiert sollte wohl wissen wie er das PT einer Gk aushebelt ohne Software.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh