TEST

NVIDIA GeForce GTX Titan X im Test

Portrait des Authors


Werbung

Es ist wieder einmal Zeit für eine Titan-Grafikkarte und wenn nicht die hauseigenen GTC, welche Messe bietet sich sonst dazu an ein solches Produkt vorzustellen. Auf der heutigen Keynote der GTC tat Jen-Hsun Huang dies und nach der ersten Preview zur GeForce GTX Titan X auf der GDC 2015 erfolgt heute die finale Vorstellung mit einem gewohnt umfangreichen Review von uns. Mit der GeForce GTX Titan X verwendet NVIDIA den vorläufigen Vollausbau der aktuellen "Maxwell"-Umsetzung in einem Chip. GM200 wird also vorläufig die schnellste GPU am Markt sein, soviel können wir bereits jetzt vorwegnehmen.

Die Geschichte der Titan-Grafikkarte ist eine voller Missverständnisse - auf allen Seiten der beteiligten Parteien. Für NVIDIA stellt sie stets die Speerspitze der aktuellen Entwicklung dar, doch oft fiel es schwer diese Ansprüche auch an die potenzielle Kundschaft und Presse weiterzuleiten. Die erste GeForce GTX Titan (Hardwareluxx-Artikel) aus dem Jahre 2013 war dabei noch eine Ausnahme, die abgesehen vom Preis eigentlich keinerlei Fragen offen ließ. Im Rückblick ist sie mit ihren 6 GB an Grafikspeicher und der GK110-GPU auf Basis der "Kepler"-Architektur erstaunlich beständig. 2014 folgte die GeForce GTX Titan Black Edition (Hardwareluxx-Artikel), welche die GK110 im Vollausbau präsentierte, darüber hinaus aber keinen Performance-Sprung anbieten konnte, wie ihn die erste Titan noch zu vermachen mochte. Als Komplettausfall der Kommunikation in Richtung Käuferschicht und Presse darf die GeForce GTX Titan Z (Hardwareluxx-News) bezeichnet werden, welche die erste und bisher einzige Dual-GPU-Grafikkarte der Titan-Serie ist. Gerade die letzten beiden Titan-Varianten konnten sich nicht so recht entscheiden, ob sie nun eine Gamer- oder eine Profi-Karte sein wollen.

Mit der GeForce GTX Titan X versucht sich NVIDIA wieder mit einem Neuanfang und besinnt sich dabei der vermeintlichen Stärke der Karte - der Gaming-Performance. Keine überbordende Double-Precision-Performance, keine Compute-Funktionen - diese hebt man sich für die GPU Technology Conference auf, die ebenfalls heute startet und deren Neuerscheinungen wir dann gesondert behandeln werden.

{jphoto image=72297}

Auf der GeForce GTX Titan X verbaut ist die GM200-GPU, welche in der GM200-Serie den Vollausbau darstellt. Gefertigt wird die GPU weiterhin in 28 nm. Auf die Details der Architektur kommen wir zwar später noch einmal, die 3.072 Shadereinheiten ergeben sich aber dennoch aus 24 Maxwell-Streaming-Multiprozessoren, die aus jeweils 128 ALUs bestehen. Aus dieser Zusammensetzung ergeben sich grundsätzlich auch die 192 Textureinheiten sowie die 64 ROPs - dazu aber wie gesagt später etwas mehr.

[h3]Architektonische Eckdaten[/h3]

NVIDIA GeForce GTX Titan X
Straßenpreis 1.149 Euro
Homepage www.nvidia.de
Technische Daten
GPU Maxwell (GM200)
Fertigung 28 nm
Transistoren 8 Milliarden
GPU-Takt (Base Clock) 1.000 MHz
GPU-Takt (Boost Clock) 1.075 MHz
Speichertakt 1.750 MHz
Speichertyp GDDR5
Speichergröße 12 GB
Speicherinterface 384 Bit
Speicherbandbreite 336,6 GB/s
DirectX-Version 12
Shadereinheiten 3.072
Textur Units 192
ROPs 96
Pixelfüllrate 96,2 GPixel/s
SLI/CrossFire SLI

Schauen wir uns die technischen Daten der GM200-GPU also einmal etwas genauer an. NVIDIA lässt die aktuelle "Maxwell"-Architektur in 28 nm bei TSMC fertigen. Die GM200-GPU kommt auf 8 Milliarden Transistoren, was sie zum komplexesten Chip macht, den NVIDIA jemals hat fertigen lassen. Zum Vergleich: Der bisherige Spitzenreiter bei NVIDIA, die GK110-GPU des direkten Titan-Vorgängers, kommt auf 7,1 Milliarden Transistoren.

3.072 Shadereinheiten sind in der GM200-GPU vorhanden, die sich aus 6 GPC (Graphics Processing Cluster) x 4 SMM (Maxwell Streaming Multiprozessor) x 4 SMM-Blöcke x 32 ALUs = 3.072 Shadereinheiten ergeben. Jeder SMM besitzt zusätzlich jeweils acht Textureinheiten. Somit kommt die GM200-GPU auf insgesamt 192 dieser Einheiten. Weiterhin vorhanden sind 96 ROPs und sechs Speichercontroller mit jeweils 64 Bit.

Das nun 384 Bit breite Speicherinterface bindet insgesamt 12 GB an GDDR5-Speicher an. Damit hat man den Speicherausbau im Vergleich zur ersten GeForce GTX Titan verdoppelt. Die Speicherbandbreite liegt bei 336,6 GB pro Sekunde. Die Frage nach der Sinnhaftigkeit von 12 GB Grafikspeicher stellen wir vorerst hinten an. Auch bei der ersten Titan-Generation klangen 6 GB an Grafikspeicher nach übermäßig viel, doch selbst ohne größeren Modifikationen verlangen die ersten Spiele bereits heute bis zu 6 GB an Grafikspeicher. Mit den 12 GB an Speichern aber sollte die Speichermenge nicht zum Flaschenhals der Karte werden - zumindest vorerst nicht. Zusätzlich zum breiten Speicherinterface und dem großen Speicherausbau bietet die "Maxwell"-Architektur auch noch eine Speicherkomprimierung, welche die Speicherbandbreite um bis zu 30 Prozent optimieren können soll. Mehr dazu im Launch-Artikel der 2. (Maxwell)-Generation.

NVIDIA GeForce GTX Titan X im Vergleich
ModellGeForce GTX Titan XGeForce GTX TitanGeForce GTX 980Radeon R9 290X
Straßenpreis 1.149 Euro etwa 950 Euro etwa 500 Euro etwa 300 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.amd.com/de
Technische Daten
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8 Milliarden 7,1 Milliarden 5,2 Milliarden 6,2 Milliarden
GPU-Takt (Base Clock) 1.000 MHz 837 MHz 1.126 MHz -
GPU-Takt (Boost Clock) 1.075 MHz 876 MHz 1.216 MHz 1.000 MHz
Speichertakt 1.750 MHz 1.500 MHz 1.750 MHz 1.250 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 12 GB 6 GB 4 GB 4 GB
Speicherinterface 384 Bit 384 Bit 256 Bit 512 Bit
Speicherbandbreite 336,6 GB/s 288,4 GB/s 224,0 GB/s 320,0 GB/s
Shadereinheiten 3.072 2.688 2.048 2.816
Textur Units 192 224 128 176
ROPs 96 48 64 64
TDP 250 Watt 250 Watt 165 Watt > 250 Watt
SLI/CrossFire SLI SLI SLI CrossFire

Die Thermal Design Power gibt NVIDIA mit 250 Watt an. Damit liegt man im Vergleich zur ersten Titan gleichauf. Versorgt wird die Karte zusätzlich zum PCI-Express-Steckplatz noch über jeweils einen 6-Pin- und einen 8-Pin-Anschluss. Auf die Strom- und Spannungsversorgung will NVIDIA einen besonderen Fokus gelegt haben und spendiert dieser einen zusätzlichen Spielraum von 10 Prozent. Verlötete/verklebte Spulen und spezielle Kondensatoren sollen unnötige Geräusche der elektrischen Bauteile verhindern. Dazu aber später noch etwas mehr.

Quellen und weitere Links

Es sind keine Quellen vorhanden

Werbung

KOMMENTARE (228)