[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe es nun da drauf....hoffe, das hilft!
Denn es ist zwar nimmer so heiß wie mit Lukü aber dennoch heiß!
Aber am Luküler ist da auch kein pad!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
ja aber im Waküblock ist extra ne Vertiefung dafür, hatte ich direkt bemerkt
 
passt, mehr hab ich auch nicht ;)
was hast du an PT/VCore und welcher Takt ist benchbar/stabil ?
 
Da ihr grade beim Thema seit; schon den Takt von dem Irren auf Platz 1 beim 3DMark11 gesehen? Mit Stickstoff und Volt-Mod, 1,7GHz ;)
Na, wer lötet mal eben?
 
Wo liegt jetzt das Problem bei Dancop bei der Temperatur? Meine Kühler kommen sicher gleich und ich will beim Einbau lieber gleich auf alles Relevante achten.
 
Wo wird die titan heiß? Hab meine auf + 150 und Memory Takt auf +200. Und Powertarget auf 106 Prozent. Hab dann immer 80 Grad. Oder hab ihr noch die spannung erhöht?

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Da ihr grade beim Thema seit; schon den Takt von dem Irren auf Platz 1 beim 3DMark11 gesehen? Mit Stickstoff und Volt-Mod, 1,7GHz ;)
Na, wer lötet mal eben?

wenns ne Anleitung gibt und keine Potis/SMDs nötig sind mach ich das, kein Thema

nahezu alle NV waren bei mir vmodded, sofern es ging ;)

---------- Post added at 11:34 ---------- Previous post was at 11:30 ----------

Wo liegt jetzt das Problem bei Dancop bei der Temperatur? Meine Kühler kommen sicher gleich und ich will beim Einbau lieber gleich auf alles Relevante achten.





du musst auf die rechten Spawas UND die linken erhöhten ein WLP anbringen, in der Anleitung beim EK sind die linken vergessen
 
Thx. Also wie üblich alle kleinen schwarzen Chips?
Ich schau mir grad die Anleitung an, die haben die nicht vergessen, sondern die Pads statt auf die Spawas nebendran auf die Spulen gelegt :d (die hellen Kästchen wo R22 draufsteht). So kann das natürlich nicht klappen.
 
Zuletzt bearbeitet:
das kann man garantiert einfach wieder über diesen zusatzchip realisieren wenn man da Bauteile tauscht/entfernt :d
 
Thx. Also wie üblich alle kleinen schwarzen Chips?
Ich schau mir grad die Anleitung an, die haben die nicht vergessen, sondern die Pads statt auf die Spawas nebendran auf die Spulen gelegt :d (die hellen Kästchen wo R22 draufsteht). So kann das natürlich nicht klappen.

Die haben keinen Fehler gemacht, die werden auch im Original nicht gekühlt. . Weder die Spulen noch die niedlichen Chips. Die Spulen bei EK sind eine nette Zugabe ;)
 
Zuletzt bearbeitet:
Nein, ich meine die hier:


Vielleicht liege ich auch falsch, aber die Dinger wo R22 draufsteht, sind verkapselte Spulen (wo die dickeren Pads mit "2" drüber sind), die Chipreihe links daneben sind doch eher die Spannungswandler.
 
Zuletzt bearbeitet:
@ Grinsemann: doch ;)
Die kleinen 2er auf dem Bild werden auch mit dem Lukühler gekühlt, ja. Die großen 2er haben keinen Kontakt zum (Original) Kühler, auch die von Dancop gemeinten nicht.
Die werden auch im Original weder aktiv noch passiv gekühlt :confused:

In sofern ist die Spulenkühlung bei EK eine Zugabe...
 
Zuletzt bearbeitet:
Beim Video von AC bekommen die jedenfalls auch ein Pad.
 
naja, wer noch wlp übrig hat kann ja was drauf pappen. Kann ja nicht schaden wenn die mitgekühlt werden (insofern der Kühler das zulässt wegen passgenauigkeit) :bigok:

@ OC/PWTGT
im evga Forum hat einer sogar ein sehr schlechtes exemplar erwischt.
Die Karte verbraucht anscheinend überdurchschnittlich viel, so das er ein max von nur 86% fahren kann. Somit ist der im Bios angegebene Soll schon hier erfüllt, weil er einfach zu viel verbraucht.
Da scheint Naennon ja schon ne art golden chip bekommen zu haben. Wie weit er schlussendlich mit dem PWTGT gekommen ist weiß ich noch nicht. Ich kann mir aber vorstellen: je weniger die Karte verbraucht, desto besser das OC Ergebnis.
 
Wieso bestelle ich eigentlich jedesmal wenn die Artikel lagernd sind nur um dann Wochenlang auch die Karten zu warten ... :wall:

Bei der 580er so gewesen genauso wie bei der 680er ... langsam reicht es mal :motz:
 
Hab mir grade mal das Aquacomputer Titan Installationsvideo angeschaut. Da werden auch nur auf den 6+2 Spannungswandlern die Pads platziert. Weiß jetzt einer, was die rot markierten Chips sind?
 
So, wenn der Onkel das mit der Kühlung mal aufklären darf :d
Man beachte meine kleine Skizze...
Grüner Pfeil: die kleine 2 bei EK. Wird auch bei AC gekühlt.
Orange: die 2. kleine 2 bei EK. Wird auch bei AC gekühlt.
Die große 2 bei EK ist eine Zugabe, diese Spulen werden im Original nicht gekühlt, die liegen sogar frei... und die, die ihr meint, liegt im Original etwa unter der Lüfternarbe. Da kühlt auch nichts ;)



Btw: Mindfactory macht garde wieder Sonderpreise... nein, nicht wirklich günstig...
 
Zuletzt bearbeitet:
Für so ein 730€ Angebot würd ich meine Beiden warscheinlich zurückschicken aber für 30€ weniger die Karte is mir das zuviel Aufwand :fresse:
 
Zuletzt bearbeitet:
:) Was man aber sehr schön sieht bei MF: der Verkauf stagniert. Die Preise sollten also bald sinken. ;)

Ok, danke. Dachte echt, die hätten da die linke Reihe von Chips vergessen.

Kein Ding. Am besten wäre es ohnehin, wenn ALLE markierten Chips von einer Wakü berücksichtigt würden, ob nun zwingend notwendig oder nicht. Der Übertakter würde es zu schätzen wissen ;)
 
Zuletzt bearbeitet:
sooo, meine ist auch da - werd das schmucke teil jetzt mal abholen.

ich hab keinen bock mehr zu warten - 939 für ne asus
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh