[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Bin ich eigentlich der einzige der findet das es mit FXAA schlechter aussieht als ganz ohne AA ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz ohne ist es aber in der Bewegung zu unruhig find ich.
 
Leute, wann kommt denn die EVGA GTX Titan X Hydro Copper?
Ist bei EVGA direkt noch nicht gelistet?!
 
@HisN: mit welchem Tool liest du die Bildraten aus?
Nebenbei; traumhafte FPS... jetzt werde ich gierig.:asthanos:
 
Bei Caseking stand 6. Mai als Lieferdatum für die HydroCopper
 
@SVK
Klick auf "BEOBACHTE" in meiner Signatur.

@Heinz
Hab das von Webmi genommen. Läuft bis jetzt eigentlich ganz gut.
 
I see... danke. :d
 
Ganz ohne ist es aber in der Bewegung zu unruhig find ich.

ich muss atent da allerdings zustimmen. FXAA ist ein weichzeichner. die arma 3 engine reagiert allergisch auf den bereits eingebauten FX filter, finde ich. ich nutze ihn nicht. das bild wird sofort weich, schwammig, unscharf. ich baller lieber richtiges AA drauf oder nutze resolutionscaling bzw downsampling oder mixe das gar.

kann sein, dass bei 4k richtiges aa zu viel performance nimmt, aber mit absicht weichzeichnen will ich mir das bild nur ungern.
 
SAUGEIL


Crysis3 auf Hoch und auf Sehr Hoch jeweils mit FXAA

Single-Graka in 4K. <-- man lasse sich das auf der Zunge zergehen. Ich hatte mit dem Black-SLI nicht wirklich viel mehr FPS.

DA:I Ultra Settings allerdings nur PP-AA

Dieses rumgezuckel um die 40 Frames findest du Saugeil. Na, ich wette du hast innerhalb kürzester Zeit ne zweite im Rechner, hast jetzt nämlich Blut geleckt. ;)
 
Ich bin nicht aufm Ultra-Trip^^
Müsstest Du doch wissen.
Ich hab kein Problem damit Crysis auf High zu spielen und bei DA:I ein oder zwei Sachen auf High zu stellen.
Die Bilder sind nur zu Veranschaulichung.

Und .... persönlich finde ich 40 FPS mit einer Single-GPU angenehmer als 55 PFS mit SLI. DA:I skaliert nämlich stellenweise NULL mit SLI. Absolut NULL.
 
Zuletzt bearbeitet:
Weiß ich doch!;) Trotzdem weiß ich auch, dass so gut wie alle hier, die mich ständig wegen dem SLI angreifen, die ersten sein werden, die dann ein SLI bestehend aus zwei Titan X besitzen werden. Denn mal ehrlich, wie langweilig ist eine Titan X, die ausgelotet ist und man nichts mehr zu basteln hat. ;) Viele hier haben dich schon nach einer Woche, die die neue Karte im Rechner steckt, bereits wieder Langeweile und es juckt wieder in den Fingern.
 
Keine Sorge, mit SLI wirst Du nicht alleine bleiben hier ;)
Ich habe schon seit Jahren immer 2 Karten im Einsatz und kenne die Vor- und Nachteile. Das schöne an SLI für mich ist, daß man es ja nicht zwangsweise benutzen muss. Man schaltet bei Bedarf einfach eine Karte ab wenn es in einem Spiel Probleme gibt. Und in Spielen wo man Leistung nutzen kann schaltet man sie wieder zu. Wenn man ein SLI unter P/L Gesichtspunkten betrachtet, dann wird man niemals mit glücklich werden. Natürlich ist es oft nicht "effizient", aber mir macht es einfach Spaß also werde ich es einsetzen solange ich es mir leisten kann :)
Ich habe daher auch immer ein SLI aus schnell(st)en Karten, weil ich so selbst im Single-Modus noch sehr gut zocken kann :d Außerdem gibts es mehr zu basteln vorher, das stimmt :)
 
also von langeweile kann keine rede sein, das ding geht ab wie eine rakete. gestern lange einen dayz mod auf arma 3 basis auf der map chernarus gespielt. an meinen grafikeinstellung zu 980er setup habe ich nichts geändert. allerdings performt das auf einmal ganz brutal. sieht mega nice aus und performt, wie ich es von battlefield gewohnt wäre, nicht aber von arma. wusste nicht, dass der mod irgendwie ein 100 fps limit eingebaut hat. heute mal rausfinden, warum ich auf 100 fps begrenz bin in diesem mod :d
 
@Trill
Nie würde ich Dich des SLI wegen angreifen. Ich schätze wir alle hier haben SLI-Erfahrungen^^
Wer möchte, der möchte und wer nicht möchte, der möchte nicht. Alles schön :-)
 
Nein.
Am Desktop hab ich jetzt gerade nicht geschaut, aber z.b. am Ladescreen vom Game sind es 1080Mhz (so in dem Dreh), d.h. die Stromspar-Mechanismen greifen immer noch.

Per Nachnahme ordern?
 
mein bios funktioniert wie jedes andere no boost bios seit jeher auch. die normalen p-states funktionierten alle. nur gibt es eben keinen boost, sondern nur einen festen p0-takt. wie in den alten zeiten, in denen es sowas wie boost noch nicht gab.
 
... was ja richtig und gut ist. Den Boost konnte ich noch nie leiden:wall:

- - - Updated - - -

Was ja auch richtig und gut ist. Den Boost konnte ich nie leiden:wall:
 
@HeinzNeu, muss auch auf Koolance QD3 bei CK warten, obwohl immer noch verfügbar, wohl bloß keine 6Stück mehr die ich brauch.
Aber sei froh, wir müssen noch keine Strafzinsen zahlen, weil wir CK unser Geld anvertrauen :)

Wenn ich hier bei HisN lese, bin ich echt am überlegen, Skyrim mal nur mit einer Karte zu versuchen .... mh, die beiden Blacks schaffen um 60FPS.

Aber ich warte noch auf den Koolance Kühler, AC und WC Kühler auf der Black gehabt. Ganz schwer enttäuscht bin ich, AC an jeder Platte 2-3 Muttern gerissen, nicht bei Montage, erst beim warm(heiß)werden, WC fällt mir die Edelstahlblende (nur mit Pads angeklebt) auf die Backplate der unteren Karte (nochmal Glück gehabt).
 
Gibt es bis auf "schei* drauf, ich bestell einfach, weil haben will" rationale Gründe, mit denen ihr euch den Kauf der Titan X rechtfertigen konntet?

Sie lag bereits mehrfach im Warenkorb und 1500 Mhz unter Luft wären schon extrem sexy und auch dank 1440p dringend nötig, aber irgendwie muss ich das Engelchen auf der einen Schulter noch zum Schweigen bringen, auch wenn Geld jetzt wirklich nicht das Problem an der ganzen Sache ist (bzw. nicht der Fakt, dass 1000€ vom Privatvermögen abgehen stört mich, sondern der Fakt dass die Titan X rational betrachtet einfach unverschämt und unverhältnismäßig teuer ist).

Spätestens wenn die 980 Ti im September kommt würde ich mich wieder schwarz ärgern (über die Produktpolitik von NV) und da ich als retired Progamer mit immer noch sehr guten Augen alles unter <80 FPS auch mit G-SYNC nicht als smooth empfinde (bzw. den Input Lag leicht merke) komme ich auch nie in die Anwendungsszenarien in denen ich die 12 GB vRam jemals sinnvoll ausnutzen könnte.

The struggle goes on :/
 
Zuletzt bearbeitet:
wenn dich das release einer eventuellen 3000 cuda core TI ärgert, solltest du evtl tatsächlich warten, bis zum september. ich spiele in der zwischenzeit und erfreue mich schierer gpu gewalt :d

zumal eine 1550er 980 jetzt auch keine besonders schlimme oder unerträgliche wartezeit bereiten wird
 
Zuletzt bearbeitet:
Ich glaube rational kann man eine >1100 Euro Grafikkarte (als Hobby-spielzeug) sowieso nicht wirklich rechtfertigen, oder?

-> Also kaufen. :haha:
 
den sinn des boost entkräften wir mit wakü und powertarget mod bios
 
Also mich haben die 980Ti Spekulationen schon etwas auf den Boden zurückgeholt. Mich nervt einfach die Tatsache, dass die Ti wahrscheinlich fertig bei NV im Regal liegt und nur auf den passenden Zeitpunkt gewartet wird.

Einen Vorteil hat man als X Käufer im Gegensatz zur Classic Titan aber. Man hat keinen Grund die Ti kaufen zu müssen, da sie nicht schneller ist.
 
Der Sinn des Boost ist es die maximale Leistung in Abhängigkeit von Temperatur und Leistungsaufnahme aus der Karte rauszuholen. Der ist ja "dynamisch".
Nvidia sagt: Wir garantieren Dir XXX Mhz. Und wenn Dein System schön kühl ist, und die Szene nicht Furmark-Anspruch an die Graka stellt, dann gibts halt noch ein paar Mhz mehr.
Dafür kann dann niemand NV ankacken, wenn die Karte den Boost nicht halten kann, denn das ist ja nicht garantiert^^
 
Zuletzt bearbeitet:
nicht zu vergessen; es ist ein guter Marketing-Gag. Intel macht das ja auch; der Boost der CPUs ist, so gesehen, auch nichts anderes (ja, ich weiß, der Vergleich hinkt etwas, aber ich beziehe mich nur aufs Prinzip).
Wie HisN richtig sagt; es klingt immer gut zu sagen; wen dies und das erfüllt wird, geben wir dir mehr Power. Macht sich immer gut, wenn man irgendwo "mehr" bieten kann. Die allseits beliebten 110%, die 10% mehr in der Flasche ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh