[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Man mache sich Gedanken über die Bedeutung des Wortes "klonen" :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gleiche Auflösung bei beiden Monitoren?

Frage auch an Lixi123

das ist völlig hupe ob gleich oder unterschiedlich.

unbenannt9ycyg.png



Man mache sich Gedanken über die Bedeutung des Wortes "klonen" :-)

es ist hier tatsächlich so, dass das 3DVision-TFT per OSD 120Hz meldet, während der projektor per OSD 60Hz anzeigt.

so zumindest just in diesem moment @FHD im klonbetrieb.




(..)

mfg
tobi
 
Zuletzt bearbeitet:
also bei mir läuft es wenn ich 120hz auf dem einen und 60hz am anderen einstelle. 144 und 60 geht nicht, da taktet die karte hoch.

abgesehen davon "KLONE" ich nicht :d sondern nutze den erweiterten desktop. das scheint aber auch egal zu sein.
 
also bei mir läuft es wenn ich 120hz auf dem einen und 60hz am anderen einstelle. 144 und 60 geht nicht, da taktet die karte hoch.

abgesehen davon "KLONE" ich nicht :d sondern nutze den erweiterten desktop. das scheint aber auch egal zu sein.

hisn hat schon recht, mal abgesehen von meinem rechtschreibfehler, dachte ich, jung und naiv wie ich bin, die karte wäre in der lage einfach einmal mit der hälfte bzw eben einmal mit max 60 hz auszugeben. erweitert erfüllt für mich hier nicht ganz den sinn und zweck. aber das führt wohl eh ins ot. wollte nur wissen obs an mir lag...

bei tobi scheints ja zu gehen. ich habs nicht hinbekommen den tft mit dvi-d auf 120 und gleichzeitig den tv mit hdmi auf 60 im modus "geklont" zu betreiben. das sind doch nur herzzahlen der jeweiligen anzeigegeräte, dass das nicht individuell auch im geklonten modus funktioniert wundert mich.
 
Zuletzt bearbeitet:
was noch witzig ist, wenn man so anspruchslose games wie fifa zockt, taktet die karte nicht selten auf 324/324. aufm desk dann wieder 679/3005.

kann doch fast gar nicht sein oder?
 
hisn hat schon recht, mal abgesehen von meinem rechtschreibfehler, dachte ich, jung und naiv wie ich bin, die karte wäre in der lage einfach einmal mit der hälfte bzw eben einmal mit max 60 hz auszugeben. erweitert erfüllt für mich hier nicht ganz den sinn und zweck. aber das führt wohl eh ins ot. wollte nur wissen obs an mir lag...

bei tobi scheints ja zu gehen. ich habs nicht hinbekommen den tft mit dvi-d auf 120 und gleichzeitig den tv mit hdmi auf 60 im modus "geklont" zu betreiben. das sind doch nur herzzahlen der jeweiligen anzeigegeräte, dass das nicht individuell auch im geklonten modus funktioniert wundert mich.

was sagen denn die geräte selbst, wie hoch der refresh ist. bei mir melden der beamer 60 und das TFT 120 hertz, wenn ich im klonbetrieb bin. OHNE dass ich irgendwas, irgendwo rumpfusche, verstelle, erzwinge.. whatever.


(..)

mfg
tobi
 
sobald ich den modus "klon" übernehme reißt es mir die anschließend zur auswahl befindichen aktualisierungsraten auf max verfügbare 60 runter. kann sein, dass der tft dennoch 120 bekommt, hatte aber das gefühl die maus auf dem tft bewegt sich wie mit 60 nicht als hätte der tft noch 120. hab keine 3d anwedung getestet, war gleich gefrustet und habe den test abgebrochen. man kann halt nicht unterschiedliche settings je screen vornehmen, der scheint sich einfach auf einen gemeinsamen nenner zu einigen.

werde, sobald ich den umzug hier einigermaßen hinter mir habe, weitere tests machen, atm bin ich schon froh, dass der pc überhaupt läuft bei all den kartons außenrum :stupid:
 
Zuletzt bearbeitet:
Oha krass :) Ich weiß schon warum ich EVGA gekauft habe.
Auch genial ist, dass man die Sachen persönlich da in München abgeben kann - sind von mir aus auch nur etwa 30min.
__________

Mir ist gestern in Crysis 3 was seltsames aufgefallen.
Szene ist die nach dem Erscheinen des Wurmlochs, bzw dort, wo eben die Gebäude einstürzen. Missionsziel ist glaube ich den Columbus Circle zu erreichen.
E: habe eben nachgesehen, Götter und Monster heißt der Abschnitt ;)
Wie ich mich so durch diese Tunnels schlage ist es mir dann aufgefallen:

Ich lasse mir auch die GPU Power im OSD von Evga Presicion anzeigen.
Durch OC habe ich diese auf 106% stehen, naja in besagten Tunnels ging diese auch auf 108% -110% ohne dass die Karte den Takt gesenkt hätte.
Ich weiß ja nicht wie genau jetzt das OSD die Werte angibt, seltsam ist es mir dennoch vorgekommen ;)

Vielleicht kann das mal jemand gegentesten, würde mich echt interessieren.
 
Zuletzt bearbeitet:
Ich habe eine neue Karte.

Vorher 76.X ASIC nun 73.9%.

Die Karte vorher ging 1176 so halbwegs stable. Also BF3 ist mir irgendwie trotzdem alle 20 Stunden abgesemmelt. Der RAM war auch mit der Forums schlechteste wie es mir schien (max 3200). 1202 lief keine 10 Sek. mit der Karte, ob mit 1.187v oder 1.212v kein Unterschied.

Die neue mit der schlechteren ASIC läuft 1228 im Heaven durch (habs so halbe Stunde laufen lassen) und dann einfach mal mit 1202/3300 BF3 gezockt eben - lief 2 Stunden ohne Probleme. War vorher nicht dran zu denken.

Ich glaube nicht, dass die 1202 wirklich stable sind, aber die Karte ist trotz schlechterer ASIC besser als die alte.

Handy-Pic:


Werd mal noch berichten wenns abstürzt, wovon ich aufgrund der Erfahrungen mit der ersten Karte noch ausgehe.
 
Ach man, dieser Kühler ist so der Hammer :love:
Wenn es doch nur einen CPU-Kühler mit entsprechenden Plexitop von denen geben würde.

Dann würde ich EK rausschmeißen ^^
 
Dann ist wohl doch was dran, dass Karten mit niedrigerem ASIC unter Wasser besser laufen.
Wenn mein(e) Kühler nun endlich kommen würde(n) ... Aquacomputer soll mal hinne machen ! :)
 
Zuletzt bearbeitet:
Dann ist wohl doch was dran, dass Karten mit niedrigerem ASIC unter Wasser besser laufen.
Wenn mein(e) Kühler nun endlich kommen würde(n) ... Aquacomputer soll mal hinne machen ! :)

Nö, ... das ist wohl eher Glück.
Die Masse lässt vermuten dass hohe ASICs, was den Takt angeht, etwas besser laufen.
 
Gibt es eigentlich eine Info darüber wo dieser ASIC-Wert herkommt? Ist ja irgendwo witzlos wenn keiner genau weiß was es damit auf sich hat.
 
Konnte das mit den 108-110% GPU Power trotz maximal eingestellen 106% schon irgendwer überprüfen ? (post #5655)
 
Ich bin gerade etwas verdutzt.
Meine neue Karte bringt selbst im ersten 3DMark11 Test (Extreme preset), der zu hohen Takt ja sehr schnell aufdeckt, nicht die typischem grünen Streifen mit 1202/3300. :hmm:

Die alte hatte selbst heruntergetaktet auf 1150 (ich meine sogar mit 1125 noch) alle paar Sek. das Problem. Haben ja die meisten hier und es wurde schon ein Bug vermutet.
 
Ich bin gerade etwas verdutzt.
Meine neue Karte bringt selbst im ersten 3DMark11 Test (Extreme preset), der zu hohen Takt ja sehr schnell aufdeckt, nicht die typischem grünen Streifen mit 1202/3300. :hmm:

Die alte hatte selbst heruntergetaktet auf 1150 (ich meine sogar mit 1125 noch) alle paar Sek. das Problem. Haben ja die meisten hier und es wurde schon ein Bug vermutet.

Die Streifen im 11er kamen soweit ich das verfolgt habe vom VRam Takt.

---------- Post added at 22:22 ---------- Previous post was at 22:21 ----------

Die Messen da die Leckage Ströme und danach gliedert sich der ASIC Wert

Ob der allerdings von GPU Z jetzt korrekt ausgelesen wird weiß immer noch keiner so recht:)

Zumindest passen die ASIC Werte zum Boost Takt.
 
Bei meiner neuen Karte seltsamerweise nicht. Wenn ich es da mit dem RAM-Takt übertreibe kriege ich wenige Pixel hohe horizontale Striche (vereinzelt ab 3400 RAM), muss man schon genau hinschauen, aber nicht die vertikalen grünen Streifen. Letztere habe ich noch gar nicht mit der Karte gehabt, hab aber auch nicht höher als 1202 getestet, da Heaven bei 1241 abgeschmiert ist.

Laut einem User hier liegen die grünen Streifen am Shader.
 
1176/3250 stable ist doch super. :)

FC3 hab ich leider schon durch. PCIe 3.0 ist bei mir auch an. Spiele BF3 momentan nur. Wie empfindlich war das bei dir?

Hast du Fehler im ersten 3DMark11 Test?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh