[Sammelthread] NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ

NVIDIA GeForce GTX TITAN X (GM200) Sammelthread + FAQ


Impressionen der Karte:

geforce-titanx-1-950x5zsoo.png
geforce-titanx-2-950x7uszi.png

geforce-titanx-4-950xqlswd.png
geforce-titanx-3-950xacsyr.png

geforce-titanx-5-950xjjstp.png
geforce-titanx-6-950xn6sgc.png

geforce-titanx-7-950xgbstu.png
geforce-titanx-15-9508bsqt.png

geforce-titanx-11-950yassi.png
geforce-titanx-13-950oxsz6.png



Technische Daten der GeForce GTX TITAN X
  • Chip = GM200-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 8,0 Milliarden
  • Die-Größe = 601 mm²
  • Shader-Einheiten = 3.072 (1D) (24 SMM)
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 96
  • Pixelfüllrate = 96,0+ GPixel/s
  • Texelfüllrate = 192,0+ GTexel/s
  • Chiptakt = 1.000 MHz Baseclock + Boost (1.076 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (1.000 MHz Baseclock + Boost (1.076 MHz)+ Estimated Boost)
  • Speichertakt = 1.753 MHz
  • Speichergröße = 12.288 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,5 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 250W
  • Leistungsaufnahme 2D = ~14W
  • Versorgung über jeweils einen 8-Pin und einen 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX TITAN X at GTC 2015
NVIDIA GeForce GTX TITAN X Unveiled, Powering GDC




Geizhals Link:
GeForce GTX TITAN X | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX TITAN erreicht im Leerlauf mit 0,3 Sone das Niveau der GTX 980. Der Radiallüfter dreht zwar ebenfalls mit ~1.100 RPM, aber anders als bei den anderen Karten mit Titan-Kühler nun schon mit 22% PWM-Stärke. Unter Last steigt die Lautheit auf bis zu 4,3 Sone (Anno 2070; 52% PWM @~2.550 RPM), was ähnlich Laut wie die bis zu 4,6 Sone der GTX 780 Ti ist (62% PWM @~2.600 RPM). Die Maximale Drehzahl des Radiallüfter beträgt nicht mer wie bei den anderen Referenzkarten 4.200, sondern 4.800 RPM - und ist somit klar stärker. (Werte aus dem BIOS der Karte)
Geforce GTX Titan X im Test: Top, aber teuer

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX TITAN X beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Die Karte verhält sich also genau so wie die erste GTX TITAN mit GPU Boost 2.0 auch.
NVIDIA GeForce GTX Titan X im Test

Ganz interessant ist dieses Video von TechPowerUp:
Hier sieht man ganz schön, wie die Karte in Abhängigkeit der Last, Leistungsaufnahme und Temperatur ihre Taktrate dynamisch anpasst.

Wie hoch ist der Stromverbrauch?
Die GTX TITAN X verbraucht im Leerlauf um die 14 Watt. Bei der Verwendung von zwei Monitoren oder einer Blu-Ray-Wiedergabe steigt die Verlustleistung auf rund 18 Watt an. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX TITAN X, egal ob in Games oder im Furmark, maximal 250 Watt (100% PT). Die Effizienz der Karte ist dabei immer noch gut, erreicht aber die die Effizienz der GM204 Referenz-Karten nicht ganz. PCGH misst in Anno 2070 242 Watt und in Risen 3 245 Watt, also Werte knapp unterhalb des Power Targets.
Geforce GTX Titan X im Test: Top, aber teuer

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX TITAN X misst das PCB 26,67 cm, wie bei der GTX 770, 780, 780 Ti, Titan, Titan Black und 980.

Die Performance:
Launchanalyse der GTX TITAN X | 3DCenter.org
Die Karte ist gegenüber einer Stock GTX 980 zwischen 25 und 35% schneller. Je höher die Auflösung, desto weiter kann sich die neue Titan von der GM204-Basierenden Karte absetzen. In 4K oder Games mit sehr hohen Speicheranforderungen profitiert die TITAN X vom Plus an Vram, ohne aber wirklich satte 12 GiB zu benötigen.

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

Die GTX TITAN X lässt sich wie schon die anderen Maxwell-GPUs gut übertakten. So soll man ohne weitere Erhöhung der Spannung bis zu 1.300-1.400 MHz (max. boost) erreichen, was in etwa ein GPU-Offset von rund +150 bis +250 MHz darstellt. Der Speicher soll meistens 1.900 MHz schaffen, ab und zu auch über die 2.000 MHz (Ergebnisse, welche man schon von der GTX 770, 780 Ti, Titan Black, 970 und 980 kennt). Entsprechende OC-tests in den Reviews.

Allerdings limitiert das Power-Target von 250 Watt (+10% einstellbar = 275 Watt) beim Übertakteb doch deutlich. Dagegen wird erst ein Mod-BIOS helfen, damit die Karte ihre Taktraten konstant auf die Straße fahren kann.

Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX TITAN X. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780 Ti, Titan (Black), GTX 970, 980 und Radeon R9-290(X) uvm.) angemessen.

Custom-Designs
Laut nVidia wird es keine Custom-Designs geben, man fährt also auf der selben Schiene wie schon mit der GTX TITAN und GTX TITAN Black. In wieweit sich das möglicherweise ändern wird, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welches Tatbestandsmerkmal soll eigentlich mit dem hier in Rede stehenden Beitrag "schwuler Browser" erfüllt sein?
Beleidigend ist er nicht, weil nur ein Mensch "taugliches Objekt" einer Beleidigung sein kann. [...]
Ein Browser kann eben nicht schwul sein. Der hat gar keine sexuelle Orientierung, oder?

Das Adjektiv "schwul" wird hier als Abwertung sachfremd missbraucht, so wie es in homophoben Honk-Kreisen gerne gemacht wird. Dass dadurch schwule Mitmenschen sich in ihrer Ehre gekränkt sehen könnten, wird (womöglich gedankenlos, womöglich gerne) inkauf genommen.

Dass Du hier nochmal uneinsichtig nachlegst, beweist eigentlich nur Deinen mangelnden Respekt diesen gegenüber wie auch der Moderation gegenüber.

Lass das doch bitte einfach sein und bemühe Dich lieber einer präziseren Ausdrucksweise!
 
Zuletzt bearbeitet:
man bin ich blind hab heut extra bei Aida nachgeschaut :fresse:

dann kann man es über HW Info 64 bestimmt auch auslesen muß ich später mal genauer schauen

die Spannungswandlertemps von der Grafikkarte sind das bestimmt nicht...wird wohl das Mainboard sein.
wüsste nicht das man die von der TitanX per Tool auslesen kann.
Meine letzte Nvidia Karte bei der das ging war die GTX280, seitdem eigentlich nur noch bei Customdesigns(z.b Lightning) oder halt AMD möglich.
 
die Spannungswandlertemps von der Grafikkarte sind das bestimmt nicht...wird wohl das Mainboard sein.
wüsste nicht das man die von der TitanX per Tool auslesen kann.
Meine letzte Nvidia Karte bei der das ging war die GTX280, seitdem eigentlich nur noch bei Customdesigns(z.b Lightning) oder halt AMD möglich.

Hatte mich ja gewundert Custom bei der Titan gibt es nicht deswegen die Frage ob ein Temperaturfühler installiert war.
Ich werde aber später noch HWInfo64 und Aida vergleichen dann finde ich heraus welche Spawas das sind CPU oder GPU.
 
Ich habe auf der Backplate und direkt an den SpaWas Temperaturfühler des Aquaero. Daher kann ich die Temps. relativ gut nachvollziehen.

OK und es geht definitiv nicht über Aida und CO.
 
Sooo, mit dem neuen Hot-Fix Treiber lief GTA 5 fast 4 Stunden am Stück ohne TDRs.... Hoch mit dem VRAM-Takt! :d 1505/4000 - ob das stabil läuft.
 
Gibt es für die Titan inzwischen eigentlich noch andere Custom-Aircooler? Ich spiele mit dem Gedanken, mir den von EVGA zu holen, weil mein aktueller einfach nicht würdig aussieht. Sowas wie eine Backplate wäre auch schön, da die vom Accelero bei mir nicht in den PCIe passt.
 
Würde mich auch interessieren.
Grundsätzlich find ich AIOs auch nicht schlecht, wobei ich mich frage warum man dort so oft auf Hybrid setzt, wenn es eh ein Fullcover gibt könnte man doch dort einfach eine AIO dranbauen.
Reine Wasserkühlung wäre zwar noch besser, aber ist man auch wieder ein Stück unflexibler bei schnellen Umbauten, preislich ggf. auch.
 
Meine Karte müsste doch eigentlich PCI-Ex16 laufen oder nicht :hmm:

Woran kann es liegen das sie nur x8 läuft?


der aff.PNG
 
tja 1600 mhz haben deine Karte geschafft :d (neid... meine schafft so gerade 1350)

Aber ernsthaft: Definitiv in der Bios richtig eingestellt? Zur Not mal von Auto auf Gen3 Stellen, für die PCI Express ports... und natürlich steckt sie im ersten Slot, ne?

Nachtrag: jap... meine läuft mit x16 auch ohne last

GPUZ.png
 
Zuletzt bearbeitet:
Meine Karte müsste doch eigentlich PCI-Ex16 laufen oder nicht :hmm:

Woran kann es liegen das sie nur x8 läuft?


Anhang anzeigen 327946

Richtiger Slot ?

Stecken sonst noch andere Karte, z.b. eine Soundkarte im System ? Weil grad bei z.b. Z97 mit seinen wenigen PCIe Lanes kann das schnell dazu führen das die Lanes nichtmehr reichen und der Slot auf x8 runtergedreht wird.
 
Und gib es zu, du hast das Bild nur eingefügt um zu zeigen, wie schnell deine Karte doch ist XD ... ach Lotterie ... eines Tages gewinne ich dich auch mal ^^
 
Richtiger Slot ?

Stecken sonst noch andere Karte, z.b. eine Soundkarte im System ? Weil grad bei z.b. Z97 mit seinen wenigen PCIe Lanes kann das schnell dazu führen das die Lanes nichtmehr reichen und der Slot auf x8 runtergedreht wird.

Kann man ausschließen er hat einen 5930K, vielleicht spielt der PCIe Controller der CPU wegen zu geringer VCore und zu viel OC nicht mit oder das Brett hat sich darauf eingeschossen nach OC kann man aber beides im Bios richten.
 
Karte steckt im ersten Slot und lanes sind genug da (5930K - Asus Rampage V Extreme X99 )

Cpu läuft auf Standard und im Bios kann ich nur bis max Gen 2......................
 
Zuletzt bearbeitet:
Und wenn die Karte oder die Kontakte in den Slots Macken haben, dann auch.
Und wenn der Prozessor keinen Kontakt zu seinem Sockel hat, dann auch.
 
Gen3 im Bios in dem richtigen Untermenü einstellen. DMI != PCIe.

Idle fällt die Karte auf 1.1x8 zurück, das ist ganz normal.
Auslesen des Bus Speeds nur unter Last, sonst nix gut.
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Gen3 im Bios in dem richtigen Untermenü einstellen. DMI != PCIe.

Idle fällt die Karte auf 1.1x8 zurück, das ist ganz normal.
Auslesen des Bus Speeds nur unter Last, sonst nix gut.

Ne eigentlich sieht es dann so aus, wie im oberen GPU-Z von mir x16:1.1 oder so
 
Du sagst es, Diggah. Er muss ins DMI-Menu. Dort kann er von Gen 1 bis Gen 3 wählen.
Eben nicht. DMI, also der Bus, der CPU mit Chipsatz verbindet, kennt nur 2.0 Spezifikation, deshalb kann man dort nur Gen2 auswählen. Die PCIe Lanes, direkt an der CPU, kennen allerdings 3.0 Spezifikation, sodass, wenn man im richtigen Menü (nicht DMI) im BIOS dann den Bus auch entsprechend einstellen kann. Er war, so meine Vermutung, im DMI Untermenü, nicht im PCIe Menü.

Ne eigentlich sieht es dann so aus, wie im oberen GPU-Z von mir x16:1.1 oder so
Bei mir, schon seit jeher, Idle (mit dem entsprechenden Energiesparprofil) geht der PCIe Bus auf 1.1 runter. Unter Last dann 3.0x16.
Auslesen also nur unter Last.
 
Zuletzt bearbeitet:
jap, da biste richtig. unter load 3.0x8, ok. dein problem ist aber nicht die 3.0 spezi, die liegt ja an @ load. dein problem ist, das deine karte nur x8 läuft. du also entweder einen x8 slot nutzt, oder die lanes anderweitig verbrätst, sodass nur noch x8 teilbar bleibt.

im screen zu sehen, "linked as x8". iwie stimmt da was nicht. bios erkennt die karte schon nur als x8. steckt die karte richtig im slot? slot verdreckt?
 
Zuletzt bearbeitet:
Die Karte ist im richtigen Slot !

Habe noch eine M2 SSD verbaut mehr nicht...............:heul:
 
das könnte es sein. der m2 slot nutzt pcie lanes von der cpu, soweit mir bekannt. von welchem slot er die abzwickt, weiß ich nicht genau, müsste man mal rausfidnen, wo das RVE die abzwickt. so wie es aussieht, aber vom slot1.

______

nachtrag.

2. The PCIE_X8_4 slot shares bandwidth with M.2 x 4.

https://www.asus.com/de/Motherboards/RAMPAGE_V_EXTREME/specifications/

eigtl dürften die M2 Lanes nicht vom Slot 1 abgehen, in dem ja offenbar deine karte steckt, wenn ich das richtig verstanden habe.
weiß aber nicht, wie genau das RVE da die slots schält. mit einer M2 ist das ja quasi so, als hättest du ne x4 karte im letzten slot.
wenn du nen 40 lanes cpu nutzt, sollte er aber x16/x8/x8/x8 schalten.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh