[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mir ist es endlich gelungen, die V-GPU im AB freizuschalten. Mal sehen, was jetzt kommt.

bei mir ging die Vcore am Anfang auch nicht zu ändern, nutze Win 8.1. Der Grund ist ein ganz einfacher, man kann bei Win 8.1 als User nichts unter C:\Programme ändern und AB schreibt in die "C:\Program Files (x86)\MSI Afterburner\Profiles\VEN_10DE&DEV_17C2&SUBSYS_113210DE&REV_A1&BUS_1&DEV_0&FN_0.cfg" folgendes rein "VDDC_Generic_Detection=1" unter der Rubrik Settings. Ruft man AB als User auf kann dort nichts geschrieben werden, musste den Admin aktivieren und mich als Admin einloggen und dann konnte ich die Zeile manuell hinzufügen. Danach wieder als User eingeloggt und dann ging es endlich.
 
Ja, so ging es bei mir auch.:banana:

Wie hoch sollte man mit der Spannung max. gehen (Referenzkühler) ?
Ab wann wird es ungesund ?

1,21-1,22v dürfte noch ok sein oder ?
 
*aufgeräumt*

@ JohnMainhard
Beim nächsten Kommentar, der OT ist und nur dazu dient sinnfrei Diskussionen hervorzurufen, gibt es Post.
 
kann mir jemand erklären wie Bios flasht irgendwie krieg ich das nicht hin. Danke
 
Ja, so ging es bei mir auch.:banana:

Wie hoch sollte man mit der Spannung max. gehen (Referenzkühler) ?
Ab wann wird es ungesund ?

1,21-1,22v dürfte noch ok sein oder ?
Also zum Benchen bestimmt okay aber 24/7 unmöglich. Zumindest mit Stock Kühler. Selbst 1.174V sind unter Luft schon fast zu viel wenn man den Lüfter nicht als Turbine verwenden möchte.
 
jemand mal getestet wie es bei ihm mit SLI und Mod Bios ist was Spannung anheben geht ? Klappt einfach irgendwie dann nicht mehr da eine Karte viel weniger bekommt
 
Zuletzt bearbeitet:
Ich komme nicht höher als 1,193 V@41° C. Die Karte nimmt nicht mehr. Wie kann ich das im BIOS freischalten?

@Horsi,
bei 1,21 V dürften die Temps. noch etwas höher gehen, es kommt aber auf die Kühlung an.

...auch mit Spannung fixen im bios auf beispielsweise 1,21v oder höher ,geht die nicht über die 1,193V?
 
Liegt am NT. ACU Hauptmenü ist wie ein GPU Burner. Das ist auch bekannt. Das zieht schon eine Karte bei mir das Power Limit von 350W. Schalte das PT auf 100% bevor du das Game startest und dann geht es! Ingame kannst du versuchen wieder umzustellen. Aber im Hauptmenü knallt dir dann wieder alles durch.

Kann ich irgendwie nicht glauben. Ich frage mich warum es jetzt geht nachdem ich mit Geforce Experience das Spiel optimieren liese. Hatte zu dem Zeitpunkt auch keine Tools wie EVGA Precision oä laufen. Auch keine Übertaktung.
 
Entweder bin ich zu blöde, aber ich finde den Link nicht mehr zu Webmi´s Sammlung! Hat den noch mal wer?
 
Ja, das ist mein derzeitiges VGA-BIOS:

File-Upload.net - Heinz1.rom


Das PT ist angehoben, aber die Einstellungen in den Boost-States, den Clock States, im Boost Table passen noch nicht zu den Einstellungen im Voltage Table.

in deinem bios ist die spannung nicht gefixed. deine GPU lässt so nicht mehr wie 1,193v zu, da ändert so gesehen erstmal kein bios was dran. es sei denn du fixed die Spannung im bios unter P00 definitiv auf beispielsweise 1,21v. dann hast du unter last auch diese Spannung anliegen.

jede karte lässt andere Spannung zu und hat auch unter last unterschiedlich Spannungen. meine karte lässt sich von default Spannung >1,175v auf 1,193,1,218 und zuletzt auf 1,237v einstellen ohne am bios was zu verändern. das machen/haben nicht alle karten. das war/ist bei den 980er karten auch so.

wenn ich jetzt z.b mein bios auf deine karte spiele ,wären die spannungen bei dir so gesehen in der Reihenfolge nicht verfügbar. das liegt u.a mit an der asics bzw. im bios sind settings die wir so nicht editieren können. da hilft nur wirklich ein richtiges Mod Bios wie es z.b damals gab (Skynet,SLV7)
 
skynet Bios waren nie "richtige" Bios, sondern mit dem Editor gemachte, Mr. Skynet hat von Bios soviel Ahnung wie AMD von Treibern....
 
LOL dann stellt mal einer ein bios rein wo die Spannung komplett frei regelbar ist von 1.00-1,27v mit schieberegler, ohne takterhöhung und vor allem bei jeder karte sich exakt gleich verhält.
 
Alle Sammys haben >25ms Inputlag. Und ich habe keinen Asus/Acer...

Warum beantwortest du nicht die Frage des Abstandes?


Gruß JM

Abstand ist ca. 1,30m von meiner Position. Habe einen relativ grossen Schreibtisch. Die 92ppi (Equivalent eines 24 Zoll 1080p Bildschirms) sind für mich der goldene Schnitt. Im dreistelligen ppi-Bereich erkenn ich ohne Skalierung sogut wie nichts mehr. Viel zu klein.

Und mein Samsung UE48JU7590 hat einen Inputlag von 21ms. Das reicht so gut wie jedem Gamer mit Ausnahme von competitive CSGO Spielern.
Die neue JU-Serie ab 7 ist Samsungs Premiumklasse. Kein billiger 600€ Schrott.
Wollte auch erst die 9er Serie mit SUHD aber die haben im PC-Mode 4:4:4 leider einen astronomischen Lag von 60+ ms.
 
Zuletzt bearbeitet:
@heinz
Du solltest erstmal überlegen was du machst. Hier gibt's welche die mit ner 66er asic 1500 fahren. Warum also Umtausch. Totaler Schwachsinn.
Erstmal die Karte unter Luft testen was geht bevor ich die zurück schicke wegen ner vermeintlich schlechten asic

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Ja, so ging es bei mir auch.:banana:

Wie hoch sollte man mit der Spannung max. gehen (Referenzkühler) ?
Ab wann wird es ungesund ?

1,21-1,22v dürfte noch ok sein oder ?

Die Karten verhalten sich etwas seltsam mit den Spannungen, aber bis 1,218V sollte man ohne größere Probleme gehen können, solange die Karte dabei nicht zu viel verbraucht.
versuch erstmal mit Standardspannung das maximum auszuloten und geh dann erstmal auf +7mV, +25mV verursacht bei mir komischer Weise Probleme.
 
Zuletzt bearbeitet:
die Spannung is ja auch nicht frei, steht ja da :) Spannung Stock wie von Nv
weiß auch net was ihr alle mit Spannung wollt ^^ man erreicht nahezu nichts mit mehr Spannung bei Maxwell
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh