[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Sooo ... bin dann auch mal wieder am benchen mit meiner Titan... Was mir komisch aufstößt ist, dass sie unter bestimmten Bedingungen (ganz selten) irgendwie auf 1202mhz hoch taktet, obwohl ich nur 1150 eingestellt habe.
Wie kann ich das VERHINDERN?
Hier ein Screenshot und das Bios.
Für Hinweise wäre ich echt dankbar. Da sie mitr 1150 absolut stable ist... sobald was abstürzt brauche ich nur auf die MHZ zu gucken und weiß gleich ..."aha, die ist auf 1202 hoch" ... ABER WARUM??

Die soll einfach bei 1150 bleiben ;:)


1202 boost.PNG 1202boost2.PNG 1202boost3.PNG 1202boost4.PNG

toll... jetzt ist das Bios zu groß um es anzuhängen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, schauen wir uns AVP an, da sind es 10% zwischen PCIE2 und PCIE3.

Wer sucht der findet mein Bildchen etwa 10x im Thread :-)

Bei mir läuft Shogun und BF3 übrigens CPU-Limitiert an vielen Stellen. Ob das ein "gutes" Bench für ein Graka-Bandbreiten-Unterschied ist?

CPU -limitiert, welche Auflösung und Einstellung, ich finde Deine angesprochenen Bilder nicht. Gut, 10%, entscheidend ob spielbar oder nicht, sei dahingestellt.
Interessant wird's höchstwahrscheinlich erst bei solchen Sachen mit mehr als 2 PCIe 3.0 Karten., vor allen Dingen wenn in Zukunft 4X16 verwirklicht wird. Ein Beispiel mit 4 GTX680 :

PCI-E 2.0 vs PCI-E 3.0 BATTLE ROYAL!!?! | EVGA Forums
Vega's *Heavyweight* display and computer; edition 2012

Hier fragen aber User mit EINEM 27" Monitörchen und 2WaySLI nach Performanceverlusten, deswegen ist dies bei dem Setup mMn., zu vernachlässigen.
 
Jetzt bin ich verwirrt, der Link bezieht sich ja auf PCI 2.0 vs 3.0! Aber mein Asus Maximus VI Hero hat ja 2 PCI 3.0 Anschlüsse (rot), nur bei SLI läuft eine auf x16 und eine auf x8! Das berührt doch aber PCI 3.0 nicht?
 
auf SLI laufen da beide nur x8
auf dem Hero
 
Ihm hilft es sicher weiter zu wissen, dass PCIE 3.0 8x in etwa PCIE 2.0 16x entspricht!
 
Na das hilft mir doch mal weiter ;-) Aber gibt ja kaum Boards die PCI 3.0 x16 SLI oder sogar mehr Karten laufen lassen,wenn ich da richtig informiert bin!
 
@NurDemeter


Selbst in meiner Mörder-Auflösung läuft das CPU-Limitiert.
Genau das gleiche mit Rome2



Da ist es völlig LATTE wie klein der Monitor ist. Genau deshalb mein "ob dass das richtige Bench für Bandbreite ist"?

Unterschied PCIe2/3 mit Titan-Sli



BF3 ist über weite Strecken CPU-Limitiert wenn man aktuelle Grakas zu Grunde legt und keinen 5Ghz-Prozessor hat, der mehr als 4 Threads beackern kann. Schau Dir mal an was mein 3930K@4.6Ghz gerade so stemmen kann.


Und wir haben doch hier den Powerplay der das bestätigen kann, die Auslastung der Grakas dauerhaft auf volle Kanne zu halten ist relativ schwer.


Edit: Oben alle Benches mit 4.6Ghz 3930K, nur falls das was mit dem CPU-Limit zu tun haben könnte^^
 
Zuletzt bearbeitet:
Na das hilft mir doch mal weiter ;-) Aber gibt ja kaum Boards die PCI 3.0 x16 SLI oder sogar mehr Karten laufen lassen,wenn ich da richtig informiert bin!

Dafür müsstest du auf Sockel 2011 wechseln mit X79. Alles andere was auf 1155 und 1150 so angepriesen wird ist nur Fake mit Zusatzchips.
 
Und selbst mit 2011 isses schwer, bei mir z.b. blockieren die beiden Grafikkarten die beiden 1x Slots.
Stecke ich also eine Soundkarte .... schwupps, wieder nur 8x an der 2. Graka übrig.
 
@HisN: Welche Auflösung spielst du bei dem Screenshot von BF3? Meine Karten sind bei bf3 meist bei 98%, bei 2560x1440. Mein i7 4770k läuft momentan auf 4,3 GHz. Meine Titans sind bei ca 1150mhz.

Der Screenshot mit dem PCI 3.0 von dem Vergleich, welches Board benutzt du da?
 
480x640 (steht doch dabei^^).
Extra so klein gewählt, damit man sehen kann wo die CPU am Ende ist und bei Deiner kleinen Auflösung müssten die beiden Titanen doch locker 90 FPS stemmen können (um auf mein Beispiel zurückzukommen).

Asus P9 X79 Deluxe

Ich bin ja ein Lutscher-Vsync-zocker. Und bei BF4 z.b. in Deiner Auflösung mit vsync an, da langweilen sich zwei Titanen in Ultra-Settings.

 
Zuletzt bearbeitet:
Zieht bei euch Anno 2070 auch so krass Strom?
Mit dem svl7 Bios und 1150 GPU (+600 RAM) und 1.2V renne ich da auf 350 Watt Leistungsaufnahme der Grafikkarte. Hab das zum Glück auf 110% Prozent eingestellt, sonst hätte die ja gedrosselt :fresse:
 
Siehste. Meine CPU macht bei "Back to Karkhand" auf vollen 64er Server nicht (immer) mehr als diese 90 FPS.
Also ist es doch gut möglich dass BF3 (unabhängig von den Settings) sehr wohl über weite Strecken CPU-Limitiert läuft, und als nicht so vorteilhafter Test für Bandbreite genommen werden könnte. Besonders wenn man annimmt, dass nicht so viele Leute ihre CPUs so sehr ausquetschen wie wir hier im Computeraffinen Forum.
 
Zuletzt bearbeitet:
Bin gerade dabei bisschen zu benchen! Versuche immer nochdie 1200 Marke zu knacken! Aber bis jetzt war bei 1173mhz immer Schluss! Kam immer n freeze!
Habe PT jetzt auf 140% und die Karten laufen auf 1,2V! Würdet ihr bei der Spannung noch höher gehen? Oder dann einfach damit zufrieden geben? :-P
 
Ich hab noch keine Titan gesehen die bis 1.21V bei 1200MHz wirklich absolut Gamestable ist.
 
Als ob mehr Spannung immer ein Allheilmittel wäre. Meine 680 lief auch mit 1.4v nicht besser, bei ~1350 war Schluß.
 
Findet ihr 1.3V mit Wasserkühlung zumutbar für 24/7? Ich persönlich überlege ja, ob ich irgendwie 1.25/1.26 Volt oder sowas für 24/7 nehme.

LG
 
Würde alles über 1.21 lassen für 24/7h. Die Spannung Versorgung ist einfach nicht für mehr ausgelegt und selbst damit liegt man ja schon ordentlich über den 250.
 
kann es sein das das mit der Gtx Titan auf ein fullhd tft im Asrock z77 E6 uefi kein vollbild mehr angezeigt wird ?
 
Speichertakt auf +796 MHz - läuft soweit überall ohne Fehler, aber der Afterburner zeigt mir als Takt immer 3802 MHz an, das müssten doch 3800 sein :d
 
@JohnMainard Öhm okei. Was soll ich durchlaufen lassen?
@Jason Powertarget = 110% (also 385 Watt bei SVL7), Spannung für GPU ist 1.21V und für Speicher Stock, Memory???, ASIC ist ziemlich bescheiden.. 67,6%

Edit:
Habe gerade noch mal testweise 3D M11 im Entry Modus durchlaufen lassen, keine Fehler :)
Hatte aber beim Spielen bisher auch maximal 3 Gig VRAM ausgelastet.

LG
 
Zuletzt bearbeitet:
Hast du das Standard-Bios drauf? Naja mehr GPU-Takt wäre mir ehrlich gesagt deutlich lieber als der Speicher :d
Vllt. kann ich aus der GPU mit Wakü noch was rauskitzeln, aber ich bezweifle, das mehr als 1163 MHz auf der GPU stabil drinnen sind, wenn die überhaupt stabil laufen. (immo 1150 stabil)

LG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh