[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das würde Sinn machen wenn das bei allen grafisch aufwendigen Spielen so wäre, aber es friert ja wirklich nur bei den zwei Games ein.
Ausserdem sind die ja ab Werk übertaktet, was soll da nicht stabil laufen? Hast du da schon negative Erfahrungen mit EVGA-Karten gemacht?
 
Jeder chip ist einzigartig, welche vertragen OC, und einige eben nicht.
Dabei spielt es keine rolle ob werks OC oder User OC, auch der Hersteller spielt dabei keine rolle.
Schließlich werden Grafikkarten nicht ab werk getestet, sondern es gibt nur Stichproben.

Das defekte Grafikkarten nur in GPU intensiven games abkacken ist auch nichts neues.
dementsprechend hat nvidia auch den debug Modus eingeführt.

ps: Es spielt auch keine rolle ob ne Grafikkarte 10€ oder 1000€ kostet, man bezahlt nur die Leistung bzw. Forschungs kosten und nicht die Qualität der Karte.
 
Zuletzt bearbeitet:
Verstehe. Na dann hab ich möglicherweise eine Gurke dabei. Klasse. Muss nochmal einzeln testen ob sich dann etwas ändert.
Danke für deine Antwort schonmal.
 
Nochmal kurz das Thema unterschiedliche Grafikkarten im SLI:
Man kann schon zwei unterschiedliche Nvidia Grafikkarten technisch gesehen im SLI laufen lassen, mit entsprechendem Tool/modifiziertem Treiber, habe es seinerzeit auch mal mit einer GTX 670 und GTX 760 probiert. Läuft aber auch nicht in jeder Konstellation optimal oder gut.
Siehe auch SLI with different cards | TechPowerUp Forums
 
Nutzt einer von euch eine Hybrid gekühlte Titan X? Ich habe jetzt mal eine TX zu einer EVGA Hybrid umgebaut und bin begeistert, wie kühl zumindest der Prozessor bleibt. Aber meine verbaute Backplate wird im Betrieb wirklich sehr heiß. Hab nicht gemessen, aber mit dem Finger wollte ich da nicht länger verweilen. Ist das eigentlich normal? Wie heiß die Karte ohne die Platte wurde weiß ich nicht, deshalb bin ich mir grad unsicher, ob das jetzt überhaupt Sinn macht abgesehen von der hübscheren Optik.
 
Ich habe vor mir so eine Hybridlösung zuzulegen, bin mir aber nach wie vor unsicher welche genau.

Bei meiner Accelero-Titan ist es aber ähnlich, im Betrieb wird die Backplate extrem heiß, was wohl auch von den rückseitigen VRAMs ausgeht. Das würde mir aber keine Bedenken geben schließlich ist die Backplate ja da um noch etwas Wärme zu verteilen. Schaden wird es wohl kaum.
 
Ihr müsst auch bedenken das nur weil ihr die Backplate nicht mehr anfassen könnt das nicht automatisch heißt das es zu heiß ist. Dreht einfach mal euer Warmwasser so heiß das ihr die Hand nicht mehr drunter halten könnt und überprüft mal die Temperatur. Die Rams werden mit dem Standardkühler mindestens so warm wie die GPU welche sich bei 83 Grad einpendelt wenn man nix anpasst. + noch was drauf da die Rams und die Wandler drumrum ja ebenso Verbrauch haben. Und jetzt bedenkt nochmal das die Karten auch 4fach SLI mit Luft verkraften wo sie ein Sandwich bilden.
 
Genau das meine ich. Die Wärme entsteht so oder so, dass die Backplate heiß läuft bedeutet lediglich dass sie besser verteilt wird. Ansonsten würde sich die Hitze mehr an den VRAMs stauen.
 
Okay, da habt ihr wohl recht. Auf alle Fälle hat sich das Upgrade zu dem Hybrid Kühler gelohnt. Die GPU wird praktisch nur noch halb so heiß und hält jetzt auch den Boost-Takt dauerhaft bei 1328 MHz.
 
Hmm.. ich sollte mein 350W PT überdenken.

Das erste Game, bei dem ich ins Power-Target renne. Und das nicht mal in UHD.




Edit: Bei 375W passt es wieder

 
Zuletzt bearbeitet:
Nein ... 21:9 am Philips 40"
Manche Games gewinnen durch das Format, deshalb probiere ich fast alles in 21:9 aus :-)
 
waere so als wenn ich 16 zu 9 am x34 nutzen wuerde weil 16 zu 9 so impressive is. ungenutzte pixel bzw bildflaeche. kann ich nich ganz nachvollziehen warum man nur teile seines monitors nutzt :hmm:
 
Zuletzt bearbeitet:
Der Philips ist sehr groß und hat so ein sattes schwarz, das man den Unterschied zwischen Panel und Rand nur in einem hellem Zimmer sieht.
Das ist halt der "Vorteil" von einem großen Monitor, den kaum jemand sieht.
Ich hab immer noch 38" Fläche, und die Balken die dazukommen könnte man glatt für den Rahmen halten.
Verstehen viele erst wenn sie es das erste mal gesehen haben.
Ist wahrscheinlich ähnlich wie mit G-Sync und 144Hz. Alles Sachen die man gesehen haben muss, bevor man sie wirklich begreift.
Ich hab jedenfalls (für mich) das beste aus beiden Welten, und das (praktisch) ohne Nachteile^^

Bild von Samlombardo



Den 21:9 mit 16:9 betreiben stell ich mir übrigens ziemlich Scheiße vor, aber vielleicht hat es ja auch seine Berechtigung^^
 
Zuletzt bearbeitet:
auf dem foto siehts nicht so uebel aus wie man sich das evtl vorrstellt. trotzdem wuerde ich mir nie kuenstlich schwarze balken vor die nase konfigurieren. es fehtl einfach was. das sieht man auf dem foto sehr gut.
 
Du solltest es ausprobieren bevor Du das so abwertest. Jedenfalls wenn Du mal die Möglichkeit hast einen Philips zu testen.
Schwarze Balken hast Du doch jeden Tag wenn Du in die Glotze schaust (und keinen 21:9-Fernseher hast), das bist Du gewöhnt.

Das beste an der ganzen Sache ist ja: Es erforder MINIMALEN Aufwand. Einfach eine Custom-Resolution erstellen, Skaling abschalten und schon ist die Auflösung in jedem Game vorhanden und kann ausgewählt werden. Und die Games speichern in ihrer Config ob sie nun 3820x2160 oder 3820x1632 laufen.

Ich hab das auch erst für Blödsinn gehalten, aber ich muss zugeben dass das 21:9-Format für Games was hat.
ARBEITEN oder SURFEN .... NO WAY. Aber zum zocken ist es zu gebrauchen^^
 
Zuletzt bearbeitet:
will es nicht abwerten. wenn du es so gut findest ok. ich wuerde es nie tun. auch wenn ich 85 zoll hier haette wuerde ich jedes pixel davon nutzen wollen.

21 zu 9 is awesome das kann ich nur bestaetigen :bigok:
 
Zuletzt bearbeitet:
hier einer Call of Duty: Black Ops 3 am zocken mit seiner Titan X ?

980 Ti hat ja zu wenig VRAM für Ultra Settings:fresse:
 
Ich glaube die Leute die eine Titan x haben sind nicht die Zielgruppe für Call of Duty
 
weil 16 jährige sich in der regel keine x leisten können :d
 
hier einer Call of Duty: Black Ops 3 am zocken mit seiner Titan X ?

980 Ti hat ja zu wenig VRAM für Ultra Settings:fresse:

Jap, zieht hart am VRAM bei Extra Texturen, 1080p ~7-8GB , 2160p > 9-10GB, sind aber auch größere FPS Sprünge, bei i.d.R. vollausgelasteter Grafikkarte, 5960X ohne HT auf 8x 4.5Ghz sind teilweise auch 50-70% ausgelastet.

1080p (~100-160fps): https://www.youtube.com/watch?v=xuG4qgskJmU

2160p (~30-60fps): https://www.youtube.com/watch?v=DKWyhHBuPeU
 
cod basiert auf idtech3 die keine komprimierten Texturen unterstützt, zumindest jetzt noch nicht.
iw/treyarch haben es verpasst etwas in dieser Richtung zu unternehmen.

man kann die graphic engine aber seit cod2 nicht mehr mit idtech3 vergleichen, denn bereits damals hatte man OpenGL links liegen gelassen.
einzig allein cod1 basierte noch auf dem build von quake3.
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh