[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Genau das ist gemeint. Übrigens braucht die Titan X einen viel stärkeren "Untersatz". Erst zwei bis 3-fache IPS Leistung des i7 5960X würde die Titan X nicht mehr ausbremsen. Ja, selbst in 4K würde es viel mehr FPs bringen. Eine Million Rechenkerne bringt nichts, wenn Software darauf nicht optimiert ist, und nur auf Steigerung der Rechenleistung (IPS) reagiert. Wenn ich mich so erinnere, welche Rohpower die GTX 480 hat, und welche Leistungssteigerung ich damals alleine durch CPU-Wechsel (C2Q 9550 -> Core i7 3770k) erreicht habe, dann müsste selbst der Core i7 5960X (auch übertaktet) für die Titan X zu schwach sein.

EDIT: habe hier sogar, aus Langeweile, nachgerechnet :d. Die TX hätte theoretische Leistung von 27000+ Graphics Scores im 3D Mark erreichen können (mit 1405MHz). Bei mir sind es grade mal 21000.

Was du schreibst macht mal überhaupt keinen Sinn. Wenn die GPU bei 100% Auslastung ist und damit der limitierende Faktor ist, wie soll eine schnellere CPU mit höherer IPC oder Takt da mehr Leistung bringen. Ein super Beispiel ist dein letzter Satz. Wenn 3DMark deine GPU Leistung bencht und bewertet und die CPU dabei die Füsse Still hält, wie sollst du dann mehr Graphicscores erhalten?

Spiele in denen du keine komplette GPU Auslastung bekommst, sind schlecht oder nicht optimal programmierte Spiele oder du hast ne zu schlechte CPU für das Game, fertig.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
FRaps nimmt meistens nur mit 30fps auf....

Is ja hoffentlich wurst bei dem Effekt, der müsste auch bei einer 30 FPS Aufnahme zu sehen sein.
Kann Shadowplay noch den Desktop aufnehmen? Konnte es kurze Zeit mal, mit 60 FPS und 4K und 120MBIt^^
Is wurst mit was Du Aufnimmst, Afterburner, Action! irgendwas wird gehen. Wenns im Video nicht zu sehen ist, ist es nicht die Graka.
 
Das ist alles korrekt. Aber es ist leider nicht so einfach. CPU Limit will noch richtig interpretiert und verstanden werden ;) Will hier aber nicht klugsch.. , ich erkläre es mal an einem Beispiel:

Wenn die GPU bei 100% Auslastung ist und damit der limitierende Faktor ist, wie soll eine schnellere CPU mit höherer IPC oder Takt da mehr Leistung bringen.
In dem Fall, bringt es tatsächlich nichts, aaaber! 3D Mark ist kein 3-4 Sekunden Demo. Und da kommt es mal vor, dass die gerenderte Szene gaaaanz kurzfristig mehr, viel mehr CPU-Leistung fordert. Und schon bist du im CPU-Limit. Dann kommt es noch dazu, dass die Datenmenge die CPU an die Grafikkarte liefern muss, mit jeder 3D Mark Version immer größer wird, und und und. Deine Grafikkarte rendert, sagen wir mal, locker zischen 100-150 FPs. Nun kommt aber eine Szene, wo deine CPU maximal leider nur 80 FPs an die Grafikkarte liefern kann. Die FPs sind allgemein gesehen hoch, aber die Problematik ist da.

Ich bring es mal auf den Punkt - CPU Limit ist: wenn! der Unterschied zwischen Min. FPs und Max. FPs relativ groß ausfällt. Je extremer der Unterschied, desto mehr hängt man im CPU Limit. Das die FPs überhaupt schwanken ist was ganz normales, und es hängt vom Render-Aufwand der betroffenen Szene ab.

GPU Limit: Unterschied - Min. FPs zu Max. FPs ist relativ gering. Idealfall - die FPs Schwankungen hängen nur von der GPU ab. Erst jetzt hättest du einen wirklichen GPU Limit.

Wenn 3DMark deine GPU Leistung bencht und bewertet und die CPU dabei die Füsse Still hält, wie sollst du dann mehr Graphicscores erhalten?

gerade durch höheren Min. FPs! Die ultimativ leistungsstarke CPU hat deine Grafikkarte mit reichlich Material zugeschüttet, die CPU "hält nun die Füße still" und die Grafikkarte darf voll reinhauen. Der Knackpunkt: die Grafikkarte muss nun gar nicht auf CPU warten. Leistungsstarke CPU = niedrige Latenz = mehr Bilder (Daten) pro Sekunde, pro Stunde und so weiter.

Spiele in denen du keine komplette GPU Auslastung bekommst, sind schlecht oder nicht optimal programmierte Spiele oder du hast ne zu schlechte CPU, fertig.

an der Aussage ist nichts auszusetzen: schwache CPU -> niedrige Gesamtleistung des Rechners. Und wie du es sagst, manche Spiele/Programme sind noch dazu schlecht optimiert.
 
Hey,

habe jetzt meine 24/7 Settings gefunden 1571/4000MHz 1.24 V bei max 38°C :banana:

Gamestable sind Witcher 3 und Battelfield 4 über mehrere Stunden bei Ultra @ 3840x2160.

witcher3_2015_06_13_19_55_21_809.jpg

11406817_439697622877866_3376139008599557548_n.jpg
 
Wow! Hast echt sehr gute Grafikkarte erwischt! :d Aber, nur 38 Grad und das bei 1,24V?? Hast du etwa 2 MORAs an deiner Wakü?
 
Hey,

habe jetzt meine 24/7 Settings gefunden 1571/4000MHz 1.24 V bei max 38°C :banana:

Gamestable sind Witcher 3 und Battelfield 4 über mehrere Stunden bei Ultra @ 3840x2160.

na wenn das echt stabil is
 
es ist ne Titan X?
 
Ich dachte er hat ne 980 Ti :confused:
Sorry, absolut vercheckt^^ Ist ne TX
Wohl die Perle schlechthin, noch keine bessere gesehen.
 
Zuletzt bearbeitet:
habt ihr mit der neuen 3dMark Version auch Probleme ? Kackt immer mit Treiberreset ab obwohl OC minimal.
Kann man mittlerweile vergessen als Vortest zu nehmen
 
Genau das ist gemeint. Übrigens braucht die Titan X einen viel stärkeren "Untersatz". Erst zwei bis 3-fache IPS Leistung des i7 5960X würde die Titan X nicht mehr ausbremsen.

Also ich bin eben von Sandy 5ghz auf nen X99 mit 5960x @ 4.6 umgestiegen.
Bei FHD seh ich mehr fps aber bei höheren Settings limitiert dann doch die GPU wie mir scheint.
Also ich seh bei Games eigentlich kaum Unterschied zu vorher mal rein von der fps Anzeige und wenn die alte CPU hier gebremst hätte müsst ich ja nun ein Unterschied sehen.
 
Bei welchem Treiber Adler?
 
der neuste Treiber.

Versionsmeldung kam letzte Woche mal glaub vom 3dMark.
Glaub der neuste Grakatreiber is auch Müll
 
Also ich bin eben von Sandy 5ghz auf nen X99 mit 5960x @ 4.6 umgestiegen.
Bei FHD seh ich mehr fps aber bei höheren Settings limitiert dann doch die GPU wie mir scheint.
Also ich seh bei Games eigentlich kaum Unterschied zu vorher mal rein von der fps Anzeige und wenn die alte CPU hier gebremst hätte müsst ich ja nun ein Unterschied sehen.

Die 2 CPUs sind fast gleich, von der IPS Leistung her. Wir sprechen hier aber von einer 2 bis 3 mal höheren CPU-Leistung (um eine spürbar niedrige Latenz zu erreichen). Da müsste man schon von einem 5GHz Quad-Core auf einen 10-15GHz Prozz umsteigen, um da überhaupt was zu merken. Hast du etwa 10-20% Steigerung erwartet? Alleine durch die CPU, die vllt. 10-20% höhere IPS Leistung aufweist? Die Titan X mag ausgebremst sein, aber zwischen 21k (Praxis) und 27k (in der Theorie) Punkten ist der Unterschied nicht all zu groß.

Man kann es ja einfach testen, in dem man die Titan übertaktet. Skaliert die Karte linear, mehr Takt - gleich mehr FPs -> hat man GPU-Limit. Man sollte aber den VRAM-Takt auch nicht vernachlässigen. Ob die Titan X durch VRAM Bandbreite limitiert wird, dass ist eine andere Sache.
 
Zuletzt bearbeitet:
Vielleicht, das überlassen wir lieber ihm :d

OK, bin dann mal mein "GTA 5-stable" VGA-BIOS testen.

Zwischenfazit: knapp 2 Stunden GTA 5 gespielt - Wassertemperatur: 48,3 Grad; Graka: max. 57 Grad. Und... kein Treiberreset! :d
 
Zuletzt bearbeitet:
48 Grad Wasser lol ^^
 
Hey,

habe jetzt meine 24/7 Settings gefunden 1571/4000MHz 1.24 V bei max 38°C :banana:

Gamestable sind Witcher 3 und Battelfield 4 über mehrere Stunden bei Ultra @ 3840x2160.

Anhang anzeigen 326191

Anhang anzeigen 326192


das letzte bild ist doch mim Handy geknipst^^ gpu rendertest auf 1570 ,kann ich auch^^.

dann schnell witcher gestartet und mal eben ne screenshot mit 1571mhz gemacht.das schafft meine auch für ne kurze zeit.

nein spass,stinkt aber.. nicht das ich es dir nicht gönne o.ä.

tip top.
 
in 70 min ist mein Witcher 3 Gameplay Video hochgeladen geht gute 38 min @1571/4000Mhz
 
5930k aber 4x titans :rolleyes:

39 grad bei 1340 boost im quad at 100 fan?
schwer zu glauben
 
The Witcher 3 | GTX Titan X @1571/4000Mhz
 
zu hohe Spannung kann echt auch negativ sein. 1500@1.275 läuft nicht aber mit 1.225 rum läufts
 
Dachte ich mir auch, die boosten doch nicht so hoch, die drosseln sich doch.
 
The Witcher 3 | GTX Titan X @1571/4000Mhz

Sehr schöne Karte!!!
Kannst das auch mal plx mit FC4 und SoM testen - rein interessehalber...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh