[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Das ist ja schön für dich, nur - no offense - wen unter den aktuell Leidenden soll dieses ständige "Bei mir läufts aber" interessieren? Ich und haufenweise andere Leute bekommen - egal ob Hardcore OC oder Stock BIOS - völlig random einen Treiberreset, nicht beim Zocken, beim Surfen oder Mails abrufen!! Und dann muss man sich teilweise vorwerfen lassen, man hätte sein System nicht unter Kontrolle, weil bei einigen Leuten läuft der Treiber ja. Tut mir Leid, aber ich bastel zu lange an Computern und habe zu lange Nvidia Karten im Einsatz, inkl. jahrelangen Lobliedern auf deren Treiber (nicht, dass es überhaupt notwendig wäre im Fanboykrieg Stellung zu beziehen), als dass ich mir jetzt so ein Forengesabbel anhören muss. Nichts für ungut aber das geht mir echt komplett auf die Nüsse.

Ja klar, aber mit so wenig Spannung wäre zumindest die 1,87V Karte imho schon "godlike", wenn sie damit stabil 4050MHz Speichertakt packen würde. Klar, sowas mag es wohl schon mal geben, aber wie gesagt - wenn du so massive Probleme im SLI hast, was aus meiner Sicht klar über die derzeit "normalen" Treiberprobleme hinausgeht, dann gehe doch lieber mal auf Nummer sicher und gib den Karten etwas mehr Saft.

Ja habe ich schon versucht.
Ich habe nun aber auf 3900Mhz Ram geflasht und werde das so längere zeit beobachten und wenn es dann keine probleme gibt bescheid geben.
Die GPUs laufen auch schon mit etwas mehr saft als eigentlich nötig.
Sprich es würd mit der anliegenden Volt ca. 30Mhz mehr stabil gehen

Edit: was jetzt auf jedenfall gut ist bei 3900mhz das nun die GPU Temperatur nicht mehr so wichtig ist.
Wo ich vorher unbedingt unter 42grad sein musste geht das nun absolut unproblematisch mit mehr Temperaturen.
Habe grade die lüfter der wakü stark gedrosselt so das ich möglichst viel temp bekomme und nun sind 1506 wohl möglich.
Vorher hatte die karte bei 42grad wie mit nem Lichtschalter dicht gemacht.
Danke @ trill,webmi und co für diesen tipp.
Hätte wirklich nicht gedacht das ich da die 1506 stabil bekomme.
Hatte mich zu sehr auf hohen ramtakt fixiert weil ich halt die Bandbreiten limitirung zu sehr ausschließen wollte..

Habe ne Halbe stunde COD Ghost@ 5120x2880@ Ultra+4xMSAA getestet VRAM verbrauch war 11700MB und das ging@ 1506Mhz vorher keine 10min weil sobald 42C°--> Freeze
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja habe ich schon versucht.
Ich habe nun aber auf 3900Mhz Ram geflasht und werde das so längere zeit beobachten und wenn es dann keine probleme gibt bescheid geben.
Die GPUs laufen auch schon mit etwas mehr saft als eigentlich nötig.
Sprich es würd mit der anliegenden Volt ca. 30Mhz mehr stabil gehen

Edit: was jetzt auf jedenfall gut ist bei 3900mhz das nun die GPU Temperatur nicht mehr so wichtig ist.
Wo ich vorher unbedingt unter 42grad sein musste geht das nun absolut unproblematisch mit mehr Temperaturen.
Habe grade die lüfter der wakü stark gedrosselt so das ich möglichst viel temp bekomme und nun sind 1506 wohl möglich.
Vorher hatte die karte bei 42grad wie mit nem Lichtschalter dicht gemacht.
Danke @ trill,webmi und co für diesen tipp.
Hätte wirklich nicht gedacht das ich da die 1506 stabil bekomme.
Hatte mich zu sehr auf hohen ramtakt fixiert weil ich halt die Bandbreiten limitirung zu sehr ausschließen wollte..

Habe ne Halbe stunde COD Ghost@ 5120x2880@ Ultra+4xMSAA getestet VRAM verbrauch war 11700MB und das ging@ 1506Mhz vorher keine 10min weil sobald 42C°--> Freeze


und am besten testest du auch mal battlefield hardline mit den neuen Settings. da stell sich auch relativ schnell heraus, ob die karte bzw. GPU/VRAM takt mit der Spannung zusammen passen
 
und am besten testest du auch mal battlefield hardline mit den neuen Settings. da stell sich auch relativ schnell heraus, ob die karte bzw. GPU/VRAM takt mit der Spannung zusammen passen

wird gemacht.
 
Also ich habe heute mal aus Spaß den ganzen Tag das Default-Bios laufen lassen, zunächst nichts übertaktet, gar nichts. Es gab mit dem 353.30 nicht einen Absturz innerhalb von 8 Stunden, gefühlt tausend mal Chrome geöffnet, geschlossen, bin fast ne Stunde mit dem Geralt durch die Pampa getapst, ne Stunde in GTA V die Berge mit nem Moped rauf und runter und Cara Delevingnes geblubber auf dem Non-Stop-Pop FM Sender zugehört, ach was weiß ich was ich alles gemacht habe, nicht ein Absturz oder TDR! Dann mal übertaktet auf 1455/1950 bei 1.80V, auch hier, über Stunden nicht ein Problem! Alles mit G-Sync, aber auch damit nicht ein Problem, das nur just für info, auch wenn es denen nicht wirklich weiter hilft, die Probleme haben. ;)

Laberbacke... trotzdem hat der Treiber einen Bug und nV konnte es direkt hinter ihren eigenen Wänden reproduzieren! Kann ja sein, dass es Configs gibt die keine Probleme verursachen aber trotzdem läuft der Treiber eben nicht auf jedem System ;) Raffs halt endlich, dass du auch nur mit Wasser kochst und nicht der Gott bist, der als Einziger seinen PC im Griff hat...
Du und Webmi seid wohl Brüder oder? Achso ne einfach nur wannabe Alphatierchen :rolleyes:

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
An die Leute ohne Treiberprobleme: nutzt ihr FXAA? in Spielen, oder im Treiber erzwungen?
 
wtf wie macht man denn sowas
 
Ja würde mich auch mal interessieren. Das NT sieht auf jeden Fall aus wie ein XFX was ich neulich beim Kumpel eingebaut habe.
 
Zuletzt bearbeitet:
Jetzt wissen wir wenigstens warum die Boards zwei Stecker haben^^
 
Sollte es aber nicht abschalten oder liegt das am singlerail?
Hatte hier jemand schon mal probs mit nvflash beim flashen?
 
Zuletzt bearbeitet:
Props haben hier alle (bis auf die Lappen) gehabt.
Da musste schon genauer werden.
 
Unable to setup NVFLASH driver bedeutet.

habe alles nach Anleitung gemacht als Admin ausgeführt ...
 
Settings nicht im CPU Limit wählen... also am besten in 2560x1440 mit 125-135% auflösungskalierung o.ä und satten Settings,ohne MSAA. Das gibt ordentlich Frames und eigentlich konstant hohe GPU load.Multiplayer mit viele Leuten,also wo es richtig kracht.^^

Sowas teste ich meistens sogar mit 5k@ ultra mega settingsund ohne aa weil dann heizt die gpu richtig abartig!
AA an und der verbrauch geht dramatisch runter.
Daher finde ich ja ghosts so gut weil die gpu kocht da richtig und der vram wird auch mega gefüllt
 
Karte hab ich deaktiviert. Bypass? Hast du bitte mal ein link
Mache alles wie in der Anleitung drücke dann y und dann kommt die Meldung. Karte war vorher deaktiviert
 
Zuletzt bearbeitet:
*aufgeräumt*
 
Oh man mir ist heute morgen erstmal was aufgefallen... Warum der Treiber immer abgekackt ist im SLI....
DAMIT ES SOFORT FÜR ALLE KLAR WIRD -> webmi,Trill,IandNruLeZ,L0rd_Helmchen und Naennon haben recht!!!!!
Es war der Vram welcher zu hoch war aber warum die Probleme erst im SLI auftretten--->

Also ich sagte ja das ich beide karten getestet habe und es damit lief. Ja die eine Karte lief ja auch stabil mit dem RAM aber die zweite die im System drin war hat bei deaktiviertem SLI unter last den RAM nicht über 3300Mhz angehoben :(
Das ganze habe ich nicht richtig mitbekommen weil ich da nur die GPU taktraten gesehen habe und diese gepasst haben.
Bei 5K ist die Schrift auch richtig klein so das man eh kaum was sieht :fresse:
Das Ist echt krank und absolut nicht aufgefallen weil es nur bei der unteren zweiten karte so war.
Im SLI geht der RAMtakt dann hoch und die karte machte stress.
Naja ist halt so.

Ich habe aber die zweite karte geschafft richtig zu testen und bei 1506Mhz machte die schlechte Karte max 3880Mhz und nun habe ich beide karten im SLI auf 1506/3850 geflasht und es lief erstmal.

Habe übrigends auch herausgefunden warum mit Original Bios die Karten im SLI abgestürzt sind.
Das lag dadran das die 76er karte sich vom boost an die 64er Karte angepasst hat und dann auch nur mit 1152Mhz lief aber die Volt mit 1,110V dafür womöglich zu gering ist da die karte ja original mit 1202Mhz@ 1,162V Boostet...

Danke@webmi,Trill,IandNruLeZ,L0rd_Helmchen und Naennon das ihr mich wachgerüttelt hab und ich daher nochmals nachgesehen habe weil habe mich doch sehr auf die treiberprobleme Fixiert und da sofort die fehler gesucht.

 
Man kann die Schrift im Afterburner skalieren lassen^^
 
Na, das finde ich mal toll, dass mal jemand einfach frei der Seele weg sagt, ja, es lag doch an mir und nicht am Treiber. :bigok: TDRs sind meist immer ein Zeichen dafür, dass mit dem System irgendwo etwas nicht stimmt. Wie ich auch schon mal sagte, Nvidia hat die letzten Treiber verschärft, dafür haben wir aber auch alle mehr Frames, in GTA V habe ich gegenüber dem alten 347.90 satte sechs Frames mehr, bei gleichem Takt - dafür reagiert der Treiber aber wohl wesentlich empfindlicher auf jegliche Art von Instabilitäten im System. Selbst Software kann daran schuld sein, ein Bekannter von mir hatte TDRs wegen AeroGlass für Windows 8.1, bei ihm war es dann aber am Ende auch der Grafikkartenspeicher, der einfach zu viel Takt hatte. Bei einem anderen Bekannten war es AIDA64, das TDRs verursacht hat, wie ich immer sage, die Gründe sind so vielfältig, deswegen hat Nvidia ja auch solche Probleme diese nachzustellen. Und auch mit dem kommenden Hotfix wird es für den ein oder anderen weiter Abstürze und TDRs geben, aus besagten Gründen!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh