[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
@eagle*23*
Ein anderer Lüfter hilft dabei? Oh bitte gib mir den richtigen Tipp :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ihr solltet ihm nicht zum 1.200er raten sondern gleich zum 1.500Watt NT.
Wir sind hier HighEnd und die nächsten Karten (z.B. 980Ti) werden wohl noch besser zu übertakten sein, mit noch mehr Leistungsaufnahme.
Auch rödelt so das NT nicht an seiner :kotz: Grenze und er hat auch noch a bissle Zukunftssicherheit.

Mein ehemaliges BQ850 konnte theoretisch auch 1.050Watt Peak ab, nur ging es wegen Überlast bei Skyrim regelmäßig aus, da gehen 760W gar nicht.
 
Zuletzt bearbeitet:
@eagle*23*
Ein anderer Lüfter hilft dabei? Oh bitte gib mir den richtigen Tipp :-)

oh ja must halt passenden finden der auch mit der Steuerung arbeitet. Hatte ein Noctua NF-A14. Must noch so 4pin auf 3 pin Adpater kaufen und umpolen.
Oder Lüfter und Kabel mir abkaufen da glaub eh nimmer brauche :d
 
Zuletzt bearbeitet:
Ihr solltet ihm nicht zum 1.200er raten sondern gleich zum 1.500Watt NT.
Wir sind hier HighEnd und die nächsten Karten (z.B. 980Ti) werden wohl noch besser zu übertakten sein, mit noch mehr Leistungsaufnahme.

Alles nur Vermutungen. Hoffen wir, dass nicht wieder der Speicherbug zuschlägt ;-) dann würde es nämlich eng. Jedenfalls ist heute meine watercooled Titan X gekommen :-) Mein 700 Watt NT wird auch noch eine Weile lang werkeln...
 
Zuletzt bearbeitet:
Ihr solltet ihm nicht zum 1.200er raten sondern gleich zum 1.500Watt NT.
Wir sind hier HighEnd und die nächsten Karten (z.B. 980Ti) werden wohl noch besser zu übertakten sein, mit noch mehr Leistungsaufnahme.
Auch rödelt so das NT nicht an seiner :kotz: Grenze und er hat auch noch a bissle Zukunftssicherheit.

Mein ehemaliges BQ850 konnte theoretisch auch 1.050Watt Peak ab, nur ging es wegen Überlast bei Skyrim regelmäßig aus, da gehen 760W gar nicht.

Von welchem Hersteller kam es den ?
Allgemein werden neue Grakas immer Stromsparender (Siehe Termi) die Titan X war nur ein Ausrutscher.
Ich denke aber das die 390x sowohl in Effizienz als auch bei der Leistung der Titan X überlegen sein wird.
Und wen Naennon wieder mit diesem bescheuerten Vergleich mit Hawai und Maxwell und dem Zuwachs an Shadern kommt halte ich entgegen das es Sinnlos ist 2 Unterschiedliche Gens zu Vergleichen.
Also muss man Hawai mit Kepler vergleichen.
Titan Black auf Titan X sind 4 % mehr Shader.
290x auf 390x sind 42 %
290x>Titan Black
Merkst du wie sehr dieser Vergleich nichts aussagt ?
 
weiss zwar nicht was Netzteile mit Grafikarchitektur zu tun hat, aber evtl wolltest du auch mal was sagen ;)
is ja ok...
390X is over 9000

kannste hier auch lesen

Overclock3D :: Article :: The AMD R9 390x May Be In Short Supply at Launch :: RUMOUR

4GB und nicht zu kaufen weil nix da is?!

Blöd nur das bereits bekannt ist das Hynix für die 8GB Version der 390x eine Spezialanfertigung für AMD baut.
Auf der Cebit haben AMD Mitarbeiter Inoffiziell bestätigt das die Benchmarks echt sind allerdings mit der Luft und 4GB Variante entstanden sind und die Wakü Edition sehr viel mehr Takt bekommen wird. Alleine die 4GB mehr sollten gut was bringen bei der Performance.
Bei der 290x hat man schon gesehen das 4GB extra in vielen Spielen auf UHD 10% Leistung bringen können.
Was glaubst du warum viele sehnsüchtigst auf Fiji warten ?
Es wird einfach die erste DX12 Karte und zudem ein brutal schnelles Stück Hardware.
Was nun wirklich stimmt wissen wir allerdings erst nach der Presentation auf der Computex.
NVIDIA hat für viele einfach verschissen erst die Sache mit DX11.2 dann die Blackboxdateien,dann der 970 Vram ****** und NVIDIAS schizophräne Reaktion darauf und dann noch DX12 auf die 970 zu schreiben (obwohl sie da zumindest einen Teil kann).
 
Zuletzt bearbeitet:
Blöd nur das bereits bekannt ist das Hynix für die 8GB Version der 390x eine Spezialanfertigung für AMD baut.
Auf der Cebit haben AMD Mitarbeiter Inoffiziell bestätigt das die Benchmarks echt sind allerdings mit der Luft und 4GB Variante entstanden sind und die Wakü Edition sehr viel mehr Takt bekommen wird. Alleine die 4GB mehr sollten gut was bringen bei der Performance.
Bei der 290x hat man schon gesehen das 4GB extra in vielen Spielen auf UHD 10% Leistung bringen können.
Was glaubst du warum viele sehnsüchtigst auf Fiji warten ?
Es wird einfach die erste DX12 Karte und zudem ein brutal schnelles Stück Hardware.

Was nun wirklich stimmt wissen wir allerdings erst nach der Presentation auf der Computex.

Finde den Fehler.
 
Da SLI momentan irgendwie kaputt ist, habe ich die Zeit genutzt um meine bessere Karte mal auszuloten. Der Chip hat einen 80er ASIC und ist packt laut meinen Tests 1555 MHz.
 
Wieso ?
AMD kamn den HBM Speicher ja auch für ein SoC oder was auch immer bestellt haben und ob die AMD Mitarbeiter (inoffiziell) schwachsinn erzählt haben weiß auch keiner. Eine 100% Prozentige Sicherheit gibt es fast nie.

Eben, und trotzdem werden fröhlich Halbwahrheiten durch die Foren posaunt. ;)
 
Zur Netzteildiskussion: Wie zum Henker kriegt ihr solche Verbäuche hin? Ich schaffe (mit moderatem OC) mit einer 4670K und einer 290X selbst mit Prime + Heaven kaum die 400W, in Spielen erreiche ich die gar nie... Und so viel mehr wird die TX wohl nicht schlucken, oder?
 
Da waren Achtkerner im Spiel, der kann alleine schon 400W wegziehen wenn man so will :shot: Und dann halt locker 300W pro GPU, sofern Mod Bios drauf ist. Kannst sie natürlich brav bei 250W abriegeln lassen, aber was soll sowas.
 
Zuletzt bearbeitet:
Sry aber du bist ein richtiger Propellerjunge:)zuerst ist Nvidia der grösste Dreck dann willst du ne T'x dann basht du sie wieder, finde den Fehler.
 
Da waren Achtkerner im Spiel, der kann alleine schon 400W wegziehen wenn man so will :shot: Und dann halt locker 300W pro GPU, sofern Mod Bios drauf ist. Kannst sie natürlich brav bei 250W abriegeln lassen, aber was soll sowas.

275 Watt, man kann auch ohne Biosmod das Power Limit auf 110% erhöhen.
 
Zur Netzteildiskussion: Wie zum Henker kriegt ihr solche Verbäuche hin? Ich schaffe (mit moderatem OC) mit einer 4670K und einer 290X selbst mit Prime + Heaven kaum die 400W, in Spielen erreiche ich die gar nie... Und so viel mehr wird die TX wohl nicht schlucken, oder?

Ich hab ein verbrauch von ca. 390 Watt mit einer 290X @1200MHz und einem i7 3770K @ 4,4 GHz!
 
Tja...gestern von HWV ne nette Nachricht bekommen, dass es von Nvidia keine Auskunft gibt, wann die nächste Lieferung TX kommt, deshalb können sie mir bis auf Weiteres vorerst keine mehr schicken...

Ich werde jetzt bei denen stornieren und mein Geld zurückverlangen...


Die erste volle DX12 Karte bei Nvidia wird wohl erst nach der 980TI kommen...richtig?
 
Wir sind hier HighEnd und die nächsten Karten (z.B. 980Ti) werden wohl noch besser zu übertakten sein, mit noch mehr Leistungsaufnahme.
Und wie soll das gehen, wenn die Titan X und die 980ti den identischen Chip bekommen? Das OC Potential müsste dann identisch sein, lediglich eine bessere Kühlung könnte einen höheren Basistakt ermöglichen, der Maximaltakt und Leistungsaufnahme bleibt gleich.
Besseres OC Potential würde einen anderen Fertigungsprozess und Veränderungen am Chip erfordern. Ich bezweifle daher stark, daß die Ti im Schnitt einen höheren Takt ermöglichen wird als die Titan X.
 
Zuletzt bearbeitet:
Tja...gestern von HWV ne nette Nachricht bekommen, dass es von Nvidia keine Auskunft gibt, wann die nächste Lieferung TX kommt, deshalb können sie mir bis auf Weiteres vorerst keine mehr schicken...

Ich werde jetzt bei denen stornieren und mein Geld zurückverlangen...


Die erste volle DX12 Karte bei Nvidia wird wohl erst nach der 980TI kommen...richtig?

Die haben massig Karten rumliegen. Scheiss auf EVGA und kauf ne Gigabyte! Die haben glaube ich keinen Aufkleber auf den Schrauben wie Palit und Gainward. HWV ist genial, habe dort meine bestellt und die haben noch bevor sie im Store angezeigt wurde geliefert! Der Preis war glücklicherweise damals unter dem Standard :d

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Ich würde gern den Küher wechseln, ob Luft oder Wasser noch unklar...aber dann kommen halt nur EVGA oder ASUS in Frage...MSI lehne ich nach schlechten Erfahrungen ab...

Und wie ist das nun mit diesem verschissenen DX12? Werden wir TX Besitzer auf der sicheren Seite sein, oder unterstützt die TX auch nicht alle Features? Wird die 980TI evtl mehr Features unterstützen? Gibts da überhaupt Infos?

Oder müssen wir für volles DX12 sogar auf den 980TI Nachfolger warten?!


EDIT: Coldfingers ich habe nochmal deinen Post gelesen. Gigabyte hat keine Aufkleber auf den Schrauben, also kann ich im RMA Fall einfach den stock Kühler wieder drauf packen? Oder muss ich da noch etwas beachten?

EDIT2: Ich habe lediglich folgendes gefunden: "we’ve announced that all Fermi, Kepler, and Maxwell GPUs will fully support the DX12 API." Ist diese Aussage glaubwürdig? Was hat es mit diesem Tier 2 und Tier 3 auf sich?
Quelle: http://blogs.nvidia.com/blog/2014/09/19/maxwell-and-dx12-delivered/
 
Zuletzt bearbeitet:
DX12 braucht keine neue Hardware
 
Glaub auch, dass sich vieles auf Software-Ebene abspielt und "wenn" es neue Hardware braucht, dann nur weil die Hersteller mal wieder melken wollen ;)
 
Msi gibt dir auch noch Garantie nach dem Kühlerumbau,sowie Gigabyte auch;)
 
Hast du das Schriftlich irgendwo von MSI?
 
Und wie soll das gehen, wenn die Titan X und die 980ti den identischen Chip bekommen? Das OC Potential müsste dann identisch sein, lediglich eine bessere Kühlung könnte einen höheren Basistakt ermöglichen, der Maximaltakt und Leistungsaufnahme bleibt gleich.
Besseres OC Potential würde einen anderen Fertigungsprozess und Veränderungen am Chip erfordern. Ich bezweifle daher stark, daß die Ti im Schnitt einen höheren Takt ermöglichen wird als die Titan X.


es gab doch schon monate vor dem release des gm 200 vollausbau die spekulation das er 2mal rauskommen soll einmal in 20 nm und dann wenn 16 oder 14nm wafer in genügender menge zur verfügung stehen nochmal mit der verfeinerten fertigung und mit hbm speicher. erst dann soll er seine wahre leistung bringen. wie gesagt das waren aber nur spekulationen aber von seiten die schon öfters richtig spekuliert hatten.
das würde auch zu nv passen ein halbes oder viertel jahr vor dem pascal den hardwareverrückten nochmal zu erleichtern. die wissen mittlerweile auch das trotz des gejammers über die hohen preise bei jedem hardwareupdate wieder zugeschlagen wird und das die leute die die titan x gekauft haben auch den14 nm upgrade kaufen und gleich danach den pascal
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh