[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaube unter 60 kann man nur mit Gsync ertragen...
Hat jemand erfahrungen mit Gsync und der Titan X? Spürt man wenn die FPS unter 60 gehen oder sind dann auch 45 FPS erträglich?

So sind die Empfindungen eines jeden einzelnen dann doch sehr unterschiedlich, Witcher 3 zocke ich mit Hairworks, alles auf Ultra und G-Sync@1440p, dann liegt die X@1506/2000 eigentlich fast immer zwischen 60 - 70 Frames, ich kann Witcher 3 mit G-Sync aber auch wunderbar bis runter auf 45 Frames genießen ohne Anfälle zu bekommen, ist für mich smoth genug, da braucht es keine zweite X. Darüber hinaus würde ich mir für dieses Game niemals ne zweite X kaufen, grafisch für mich der totale Reinfall, das kunterbunte Aquarell-Kinderspiel, ist aber Geschmacksache, ich sehe da ständig nur Matschtexturen, schrecklich! Und die Frames droppen ja nur in die 40er Region, wenn das Bild sehr nah dran ist, an diesem grauhaarigen Typ mit Frauenrock, dafür 1000 Euro extra, damit die Haare dieses Typen mehr Frames haben, never ever. ;)
 
Zuletzt bearbeitet:
Ich glaube unter 60 kann man nur mit Gsync ertragen...
Hat jemand erfahrungen mit Gsync und der Titan X? Spürt man wenn die FPS unter 60 gehen oder sind dann auch 45 FPS erträglich?

Hau einen Frame limiter rein +Vsync und hänge einen Controller dran und es passt.

In third Person spielen geht das super.
So habe ich Tombraider gezockt mit 2*GTXX780 DS 3840*2160
 
Zuletzt bearbeitet:
ja, framelimiter am besten so um mit 30hz, laut einigen im w3 thread butterweich mit vsync :bigok:
 
Geht auch super mit 60HZ normalerweise wichtig ist das die Frame nicht unter den Limited Wert fällt dann gibt es deutlich spürbare drops.:)
 
Webmi, steck doch die 2. X einfach so in den Rechner zum Testen, musst ja nicht gleich auf Wakü umbauen ;)
 
Geht auch super mit 60HZ normalerweise wichtig ist das die Frame nicht unter den Limited Wert fällt dann gibt es deutlich spürbare drops.:)

Geht's auch, 60 ist total ok, ich habe mir selbst mit G-Sync nen Framelimit auf 60 gemacht, brauche nicht mehr als 60. Das tolle an G-Sync sind die Frames unter 60, dass es zwischen 40 - 60 eben kein Tearing und Co. gibt.
 
Zuletzt bearbeitet:
Mist muss noch bis heute Abend warten mit Einbau die kleine verlangt alles ab und Frau ist noch auf Arbeit.

Hoffe das ich auch ne feine erwischt habe.
 
die bastelaktion und die möglichen mü-ruckler unter gsync schrecken mich noch ab.

Mikroruckler unter Gsync? Was meinst du damit?

Theoretisch sind die Mikroruckler mit Gsync eher weniger als ohne, mit den FPS die du mit der 2. Karte erreichst und bei 100+ landest, dürfte das mit Gsync kein Thema mehr sein, dafür aber eben nochmal ne ecke "smoother".
 
das ihr das nicht verstehen wollt?

Hardware für tausende Euros drin, aber nicht das Verständnis dafür?

G-Sync syncronisiert die Hz des Monitors an die FPS der Grafikkarte(n)

bei einer Singlekarte wird stur FPS zu Hz gewandelt und syncronisiert > pronografisches Bild :lol:

dieses Syncronisation findet aber NACH der Bildgenerierung statt, sprich wenn du da SLI oder Criple SLI nimmst, mit ALL den Nachteilen die das mit sich bringt, werden diese Nachteile gesynct ausgegeben


oder einfach:

Single GPU: Bild > G-Sync > Monitor > Ausgabe
Multi GPU: Bild/Bild mit/ohner µRuckler > G-Sync > Monitor > Ausgabe

G-Sync macht keine µRuckler weg und verringert auch nicht den Inputlag
ich weiß nicht was sich hier manche zusammenreimen?

ich selbst hatte SLI am Swift, gesynctes Bild ist geil :) ich bin auch nicht extrem µRuckler-anfällig, aber man kann sie provozieren - und das habe ich - und es war dann gesynctes Ruckelfest, wo ist da der Sinn? natürlich ohne Tearing und Frameskipping, aber eben das MultiGPU-typische Ruckeln bleibt, weil es eben vor/außerhalb G-Sync generiert wird
 
Mit einer Karte ist für mich alles über 45 FPS in Ordnung.

Mit zwei Karten kommt es halt auf das Spiel an.. In GTA mit SLI unter 60 FPS und man hat Mikroruckler aus der Hölle (da hilft Gsync auch wenig, zumindest subjektiv). In Witcher geht es noch klar.
 
man darf den framebuffer nicht vergessen. sli vsync is ne gute kombi wenn man fps halten kann. egal ob u ruckler. es landet im buffer und wird in festen zyklen ausgegeben.

auch gsync hat nen buffer. aber es arbeitet eben nicht mit festen zyklen sodass u ruckler unter umstaenden nicht mehr so gut geklaettet werden koenne

sli ohne sync is pure ruckler
 
japp das kommt dazu webmi

SLI mit v-sync und Buffer ist eine Sache (aber Inputlag)
G-Sync die/eine (ganz) andere
 
red dich nicht raus
es minimiert sie auch nicht

G-Sync macht GARNIX an denen ;)
 
es nacht mehr als ohne sync weils nen buffer hat. aber es ist nicht garantiert das es sie wie vsync wegzaubert. deshalb ist gsync u ruckler gefaehrdet.

sehr geistreich john denn auch high fps schuetzen dich bei gsync nicht vor u rucklern :bigok:
 
Zuletzt bearbeitet:
red dich nicht raus
es minimiert sie auch nicht

G-Sync macht GARNIX an denen ;)

Ich brauch mich nicht rausreden, was ich geschrieben habe steht oben.

Da keiner 100% genau weiß, wie das Gsync-Modul arbeitet, wie kannst du dann behaupten, dass es nicht minimal hilft? Das Problem an Mikrorucklern ist ja, dass sie dadurch entstehen, dass Frame 1 Gpu 1 und Frame 2 Gpu 2 nicht synchronisiert sind. Gsync kommt wie du selbst sagst erst danach und synchronisiert Frame 1 Hz 1 Frame 2 Hz 2. Es ist wahrscheinlich einfach nicht schnell / gut genug um Mikroruckler weg zu machen.
 
Zuletzt bearbeitet:
ganz im gegenteil. waere es noch schneller kaemen die zeitunterschiede von frame 1und frame 2 bei afr noch besser zur geltung.

und deine ergaenzung gut genug ist wohl auch nur ne hohle phrase... ist vsync gut oder besser als gsync? nein. gut genug ist bullshit.
 
Zuletzt bearbeitet:
ganz im gegenteil. waere es noch schneller kaemen die zeitunterschiede von frame 1und frame 2 bei afr noch besser zur geltung.

Mit schnell wollte ich ausdrücken, dass die Frametimes ja random sind, und es sich daran anpassen muss (aber vllt nicht (schnell genug) kann) - nicht schneller syncen.
 
Ich brauch mich nicht rausreden, was ich geschrieben habe steht oben.

Da keiner 100% genau weiß, wie das Gsync-Modul arbeitet, wie kannst du dann behaupten, dass es nicht minimal hilft?

weil ich (und webmi) den ersten Swift hier hatte direkt nach Release und auch noch SLI
und wir 2 haben den direkt gekauft weil wir sofort wussten, teuer ja, aber scheisse nochmal die Technik!

und weil ich es getestet habe?!

was ist an der Technik nicht zu verstehen? G-Sync ist ein Modul das - im Gegensatz zu Software V-Sync - die Hz an die Frames anpasst und nicht wie bei V-Sync die Frames bei X Hz capped
und G-Sync kann nicht wissen woher das Signal (Single/Multi) kommt und in welcher Qualität es kommt (Single ruckelfrei, Multi mit µR) sondern es macht nur eins: 90 FPS > 90 Hz, 45 FPS > 45 Hz, 144 FPS > 144 Hz
es spielt für G-Sync keine Rolle ob da vorher "geglättet" wurde, also ob das µR drin sind oder nicht
es weiß nichtmal das µRuckler da sind und ausgegeben werden - den µRuckler entstehen nicht auf dem Monitor, sondern direkt an der Grafikkartenausgabe, wenn muss man dort ansetzen
 
du meinst gsync waere gut wenn es die verschiedene frametimes beruecksichtigt?

wie wuerde das gehen? richtig. es muesste warten um verschiedene frametimes auszugleichen. es muesste zyklisch arbeiten. dann waere es aber wieder nur vsync...
 
Ja zb in GTA 5 sind trotzdem noch sehr auffällige Microruckler im SLI vorhanden. Gsync behebt nur Ruckler die durch variable FPS währen sie auf einen festen Wert wie es bei Vsync der Fall ist fixiert behebt. Wenn man vorher kein Gsync hatte aber SLI dann kamen die Ruckler schlimmer rüber man hat wahrscheinlich auch die normalen Ruckler durch Vsync mit Microruckler assoziiert. Deswegen ist klar das man dann bei einem Gsync Monitor denkt Gsync hat jetzt auch die Microruckler minimiert was aber nicht stimmt. Naennon hat schon Recht.

Sprich Ruckler mit Gsync im SLI sind tatsächliche Microruckler. Wobei wie schon oben erwähnt Witcher keine Ruckler im SLI hat. Läuft absolut smooth. GTA 5 zb hat sie extrem.
 
weil ich (und webmi) den ersten Swift hier hatte direkt nach Release und auch noch SLI
und wir 2 haben den direkt gekauft weil wir sofort wussten, teuer ja, aber scheisse nochmal die Technik!

Erstmal nen Keks dafür! Dann liefer doch entsprechende Messwerte, die deine These stützen. Gefühl ist immer subjektiv.

was ist an der Technik nicht zu verstehen?
es weiß nichtmal das µRuckler da sind und ausgegeben werden - den µRuckler entstehen nicht auf dem Monitor, sondern direkt an der Grafikkartenausgabe, wenn muss man dort ansetzen

Sicher kommuniziert Gsync mit der Ausgabe, das ist doch grade der Sinn, das die alternierenden FPS die von der Grafikkarte kommen, mit dem Monitor abgeglichen werden. Ich weiß nicht genau, wie das mit den Frametimes verfährt - du aber anscheinend auch nicht. Darum kannst du nicht behaupten, dass ohne Gsync mehr / weniger Mikroruckler wären :) Und wenn auch nur wenige Frames glücklicher gesynct werden, ist das immerhin ne Verbesserung.

Egal, das führt hier zu weit :btt:

Webmi, hol dir ne zweite Titan :lol:
 
Webmi
Hast Du zufällig Elite Dangerous?
Wenn man da im All unterwegs ist hat man selbst bei 140 FPS noch üble Makro-Ruckler. Bekommt die das gsync auch weg?

2:35 z.b.


Ich schätze eher nicht, oder? gsync ist mehr für die kleinen Ruckler.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh