[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
"Richtigen" dann weil die gigabyte 1500 laufen und die Palit nicht ganz so gut ging;)?
Naja hört sich halt so an als ob die Palit mal fix wieder zurückging da sie nicht so gut lief...
Aber auch egal - las sich nur irgendwie komisch;)

Die Palit habe ich nicht auf Wasser umgebaut, da diese den niedrigsten ASIC hatte. Nein ich hab sie im 3DCenter für 1050 verkauft, sie ging innerhalb von 6! Minuten weg. So ein Arschloch bin ich nicht, das ich einfach Zeug kaufe und dann ohne Grund zurück schicke.

3DCenter Forum

Eine Warnung noch an SLI + Asus Rog Swift User: Sobald ihr diese Config betreibt, gibts kein DSR mehr. Man hätte jetzt brachiale Leistung für 4K oder sogar 5K und kann sie nicht ausnützen. Es gibt kein Datum ob das jemals berichtigt wird. Einzige Lösung wäre ein nativer 4K Monitor. Ich warte jetzt auf den Asus Rog Swift 2015, der hat dann 4K und G-Sync. Naja ziemlich blöde Sache. Mir ist das mit dem 980er SLI nicht aufgefallen, da dort für DSR meistens zu wenig VRAM da war.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nabend ;)
Ich hab den gesamten Thread nicht so wirklich mit verfolgt .. aber heute kam meine Titan X.
Sagt die Asic noch immer etwas aus sofern es ein hoher Wert ist oder kann man das getrost ignorieren?

Asic 76,6
 
Das weis ich. Ich wuste nur nicht, dass schon der angeschlossene G-Sync Monitor reicht, damit DSR nicht mehr funktioniert. Selbst wenn man G-Sync extra deaktiviert, ist kein DSR mehr vorhanden. Spiele jetzt auf dem Dell U2711, der eigentlich eher fürs arbeiten gemacht ist.
 
Eigentlich ja eine Sauerei. Wofür die ganze Leistung und der Preis, wenn man es dann nicht nutzen kann? Stark verbesserungswürdig.
 
ich denke das hat einfach technische hintergründe. AFR und die synchronisation mit dem buffer wird wohl mit gsync noch schwierigkeiten bereiten, könnte ich mir denken.
 
Das reduziert mein Verlangen nach SLI erheblich, da ich auf den Acer Predator XR341CK 34 warte. Das wäre eigentlich so ein Monitor, zu dem ein SLI Gespann gut passen würde.

Übrigens@webmi: mit Version 1.36 des MaxwellBiosTweaker geht es. ;)
 
Ich bin im Geforce Forum auch aktiv und kenne diese Tabelle. Laut Aussage von NV Leuten gibt es kein Datum für das Feature.
 
TITAN X BIOS Pack V2 by webmi
nvidialogohoiw71qms5.jpg

Inhalt:

- GPU-Z (v0.8.2)
- nvFlash (v5.199)
- MaxwellBiosTweaker (v1.31)
- EVGA Precision 16 (v5.3.1)

BIOS:

- EVGA Titan X Stock BIOS (GM200_STOCK.rom)
- EVGA Titan X 500W, 1.275 Volt fixed, Default Clock, Boost (GM200_500W_1.274v.rom)
- EVGA Titan X 500W, Default Voltage, Default Clock, Boost (GM200_500W_DefaultVoltage.rom)
- EVGA Titan X 1000W, Default Voltage, Default Clock, Boost (GM200_1000W_DefaultVoltage_LN2.rom)

Flashen wie schon beim kleinen Maxwell, GPU im Gerätemanager deaktivieren, nvflash starten und mit "nvflash BIOSNAME.rom" flashen. Karte im Gerätemanger wieder aktivieren und den PC booten. (Bei Fehler "adapter PCI subsystem mismatch" mit "nvflash -6 BIOSNAME.rom" flashen)

>> DOWNLOAD <<

(Benutzung wie immer auf eigene Gefahr. Ich übernehme keinerlei Verantwortung. Jedes BIOS wurde von mir auf Funktion getestet)

Warum kann ich mit dem MBT nicht ein einziges BIOS öffnen und könntest Du mir evtl ein BIOS mit 1000W und 1.31V machen?

Danke und Grüße
Daniel
 
Warum kann ich mit dem MBT nicht ein einziges BIOS öffnen und könntest Du mir evtl ein BIOS mit 1000W und 1.31V machen?

Das Problem kenne ich. Lade dir Version 1.36 dann geht es ;)
 
Zuletzt bearbeitet:
Meiner ist auch da. Auf den ersten Blick nicht perfekt verarbeitet. Aber nichts was man reklamieren müsste denke ich. Umbauen werde ich aber auch noch nicht, warte auch auf die Backplate. Denke die ist fürs Übertakten schon angebracht.
Und auf meine zurückgeschickte defekte EVGA warte ich ja auch immer noch.
 
für mich schaut der TitanX Launch nach einem Paperlaunch aus bei keinem meiner Händler verfügbar und dabei offiziell seit Anfang diesen Monats auf dem Markt inoffiziell seit Mitte letzten Monats:fresse:
Na gut wollte ja eh auf die 390X warten und dann entscheiden.
 
@Blackvoodoo:
Meine beiden Kühler sehen glücklicherweise perfekt aus, ich kann keine Makel ausmachen. Sehen praktisch aus wie die Vorgänger ;)

@PCTOM:
In der Releasewoche waren durchaus einige verfügbar. Danach wurde es aber schwierig. War bei der Titan classic meines Wissen ähnlich. Und die beiden Wochen um Ostern rum haben bestimmt dazu beigetragen, weil die Belegschaftsstärken in den meisten beteiligten Unternehmen durchaus deutlich reduziert waren in der Zeit.
Möglicherweise wurde auch die Nachfrage unterschätzt, eigentlich sogar verständlich bei dem Preis ;)
 
Zuletzt bearbeitet:
ich denke das hat einfach technische hintergründe. AFR und die synchronisation mit dem buffer wird wohl mit gsync noch schwierigkeiten bereiten, könnte ich mir denken.

Ich denke auch, dass GSync + DSR + SLI schwer zu realisieren ist. Allerdings nervt es gewaltig (und da wiederhole ich mich), dass NVIDIA es nicht mal hinbekommt, eine Wahlmöglichkeit von entweder GSync oder DSR zu implementieren. Denn das sollte problemlos gehen, da SLI + DSR mit nicht-GSync-fähigen Monitoren läuft und SLI + GSync auch kein Problem darstellt.

Aber NVIDIA scheint diesbezüglich zu stolz, solch eine Lösung anzubieten. Und das ko*** mich an.



Nvidia arbeitet allerdings daran:

NVIDIA arbeitet schon seit November daran. November - das ist laut Kalender 5 Monate her. Ich würde also nicht darauf hoffen, dass dieses Feature bald kommt.

Ich selbst hab mit dem Thema abgeschlossen - bis ich meine beiden 980er rausschmeiße, sehe ich kein funktionierendes GSync + DSR im SLI...
 
@PCTOM:
In der Releasewoche waren durchaus einige verfügbar. Danach wurde es aber schwierig. War bei der Titan classic meines Wissen ähnlich. Und die beiden Wochen um Ostern rum haben bestimmt dazu beigetragen, weil die Belegschaftsstärken in den meisten beteiligten Unternehmen durchaus deutlich reduziert waren in der Zeit.
Möglicherweise wurde auch die Nachfrage unterschätzt, eigentlich sogar verständlich bei dem Preis ;)

Hat mich zumindest von der Bestellung abgehalten und meinen selbsterklärten Ziel auf die 390X zu warten ein kleines Stück näher gebracht ;)
 


Wenn ich hier...las mal sagen 1,4V eingebe....kommt das dann überhaupt an?
 
Zuletzt bearbeitet:
Wenn ich hier...las mal sagen 1,4V eingebe....kommt das dann überhaupt an?

nein. 1.274 is max. das is ja das lustige an dem 1.31v bios ausm oc. der typ meint tatsaechlich das funktioniert und es wird nur falsch ausgelesen. die anderen spinner da glauaben das auch noch... teste es doch selbst. wenn du es nachmessen kannst waere das sogar noch besser.
 
Ich denke auch, dass GSync + DSR + SLI schwer zu realisieren ist. Allerdings nervt es gewaltig (und da wiederhole ich mich), dass NVIDIA es nicht mal hinbekommt, eine Wahlmöglichkeit von entweder GSync oder DSR zu implementieren. Denn das sollte problemlos gehen, da SLI + DSR mit nicht-GSync-fähigen Monitoren läuft und SLI + GSync auch kein Problem darstellt.

Aber NVIDIA scheint diesbezüglich zu stolz, solch eine Lösung anzubieten. Und das ko*** mich an.





NVIDIA arbeitet schon seit November daran. November - das ist laut Kalender 5 Monate her. Ich würde also nicht darauf hoffen, dass dieses Feature bald kommt.

Ich selbst hab mit dem Thema abgeschlossen - bis ich meine beiden 980er rausschmeiße, sehe ich kein funktionierendes GSync + DSR im SLI...

Ich verstehe nicht was daran so schwierig sein soll? An der Bandbreite kann es aber nicht liegen, weil sonst würde SLI + DSR mit normalen Monitoren auch nicht funktionieren. Aber wie du schon schreibst, am schlimmsten ist das Fehlen ein Option, damit man es zumindest ausschalten kann.
 
Zuletzt bearbeitet:
Ich verstehe nicht was daran so schwierig sein soll? An der Bandbreite kann es aber nicht liegen, weil sonst würde SLI + DSR mit normalen Monitoren auch nicht funktionieren.

Blaire hatte im 3DC mir mal was dazu geschrieben:

Blaire schrieb:
Das Problem ist das G-Sync nicht über SLI Bridge, sondern über den PCI-Express funktioniert und das kann zu Problemen führen.

Die Aussage ändert aber nichts daran, dass beides einzeln funktioniert - also eine Wahlmöglichkeit seitens NVIDIA angebracht wäre. Aber darauf warte ich nun schon über ein halbes Jahr. Denn das oben genannte Zitat stammt aus einer PM vom 30.09.2014...
 
@Blackvoodoo:
Meine beiden Kühler sehen glücklicherweise perfekt aus, ich kann keine Makel ausmachen. Sehen praktisch aus wie die Vorgänger ;)

Habe mal 2 Bilder gemacht.
20150415_161544.jpg
20150415_161645.jpg

Die Vorgänger (bei mir seit GTX480) waren auch nie verkratzt wie auf Bild 1 oder hatten bei den Wasseranschlüssen Späne drin. Der Kratzer ist zwar nicht schön, aber dürfte nichts aussmachen. Und die Späne bekommt man sicher mit einer Pinzette raus. Aber Qualität nenne ich das nicht. :(
 
sacht mal die evga sc ist doch sicher genau die gleich wie die normale evga also baulich , einzig mit anderem bios was andere werte hat oder ? also zb lüfter schneller drehen lassen ;D ist dem so ? sind nur meine vermutungen
 
Die Vorgänger (bei mir seit GTX480) waren auch nie verkratzt wie auf Bild 1 oder hatten bei den Wasseranschlüssen Späne drin. Der Kratzer ist zwar nicht schön, aber dürfte nichts aussmachen. Und die Späne bekommt man sicher mit einer Pinzette raus. Aber Qualität nenne ich das nicht. :(
Ahh ok, dann verstehe ich was Du meinst. Die Späne habe ich auch bei den Vorgängern gehabt und bisher bei allen Produkten von Herstellern vorgefunden, die auf Delrin-Anschlüsse setzen. Für mich zählte das immer unter "fertigungsbedingt", daher gibt das bei mir keine Abzüge ;)
Das Kupfer ist an allen Kontaktstellen bei mir Spiegelblank und Kratzerfrei, ebenso im Sichtbereich. Außerhalb der wichtigen oder sichtbaren Bereiche sind in der Tat leichte Werkzeugspuren zu sehen, die stellen für mich aber ebenfalls keinen Kritikgrund dar, weil sie in keiner Form eine praktische Rolle für mich spielen. Solche habe ich ebenfalls schon bei andren Produkten vorgefunden.

Wir haben daher wahrscheinlich einfach eine unterschiedliche Wahrnehmung, was "perfekt" oder "Qualität" angeht, ich bin da scheinbar etwas nachsichtiger ;). Meine entsprechend jedenfalls relativ genau den Exemplaren, die Du erhalten hast.

sacht mal die evga sc ist doch sicher genau die gleich wie die normale evga also baulich , einzig mit anderem bios was andere werte hat oder ? also zb lüfter schneller drehen lassen ;D ist dem so ? sind nur meine vermutungen

Ja, da das PCB nicht verändert werden darf. Eigentlich dürfen nicht mal andere Kühler verbaut werden. EVGA hat also nur die Möglichkeit ihre Modelle zu testen und die geeigneten mit neuem BIOS zu versehen und als SC zu verkaufen.
 
Zuletzt bearbeitet:
Also was Qualität angeht, da bin ich sehr penibel seit ich bei dem Auto Hersteller mit den 3 Buchstaben mit Hauptstandort München arbeite (fast schon 21 Jahre...). Da ist Qualität Thema Nummer 1.
 
Leichte Späne hatte ich auch an den Anschlüssen, aber kein Grund das zu beanstanden - weg machen, gut ist. Der Rest ist auch bestens, meine rennt jetzt mit Full-Cover 24/7 mit 1506/1950@1.205V. Mit 2000MHz Speicher bekomme ich übrigens beim Start von Windows öfter mal TDR-Fehler in Form das die nvlddmkm.sys crashed, deswegen lasse ich die Speicher auf 1950MHz, dann taucht der TDR-Crash nicht mehr auf.
 

Anhänge

  • TitanXaqua.jpg
    TitanXaqua.jpg
    86,4 KB · Aufrufe: 110
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh