[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Den gibt es seit gestern, guten Morgen :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Och man, far cry 3 hängt sich immer irgendwann auf *:( - egal mit welchen overclock einstellungen. was soll denn das ?
 
Ohne OC auch? Rest vom System stabil?


Sent from my iPad using Hardwareluxx app
hatte jetzt eben mal ohne overclocking, da liefs erstmal *;D - das muss damit zusammenhängen. konnte ja problemlos crysis 3 spielen damit, bis ich den offset zu hoch gemacht habe (bis +142mhz keine probleme, bei +148 gi9ng auch Crysis flöten), da gabs den gleichen crash wie jetzt bei far cry 3 vorhin mit verschiedenen einstellungen. habe auch im netz gelesen, dass far cry 3 oft abstürze generiert mit übertakteten karten. ansonsten alles stabil hier.

das ist natürlich doof, weil mit referenz gehen die frames schon runter, habe zwar imemr noch 60+ oder mittlere 50er aber mit oc kriegst viel mehr *;D
 
Zuletzt bearbeitet:
OK, ... mag schon sein, dass Far Cry etwas empfindlicher ist. Fakt ist aber trotzdem, dass die eingestellten Taktraten dann nicht 100% stabil sind.
Du musst ja nicht komplett aufs OC verzichten sondern ausloten was das max. stabile Ergebnis ist.
 
also mit metro und crysis 3 hatte ich mit den einstellungen absolut gar keine probleme (bis 142 mhz offset ist also absolut okay) *;D - daher würde ich sagen liegt eher an far cry 3, zumal ja bekannt ist, dass das spiel damit probleme hat ganz generell *;D - wenn das nit stabil wäre, dann hätte ich nit 3 stunden am stück crysis 3 zocken können *;D bzw. dann wäre crysis 3 irgendwann mal abgeschmiert, das war nie der fall, außer wo ich mal auf 148 mhz zhochgegangen bin, das ist demnach so nuit stabil, aber bis 142 mhz, kein ding und das spiel habe ich ja durchgespielt und es gab nie probleme *;D metro dasselbe.

was ich machen kann ist natürlich bei fa cry 3 weitere (niedrigere) werte zu probieren, bis es stabil läuft. zb. +100 mhz offset mal nur probieren.
 
Zuletzt bearbeitet:
Also ich habe trotz Treiber und Patch noch immer hässliche Haare bei tr!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Also ich habe trotz Treiber und Patch noch immer hässliche Haare bei tr!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

Ich bin zwar noch mit der 580 unterwegs, aber ich finde eher die Schatten auf dem Körper hässlich, die Haare sind OK?!

---------- Post added at 10:31 ---------- Previous post was at 10:30 ----------

was ich machen kann ist natürlich bei fa cry 3 weitere (niedrigere) werte zu probieren, bis es stabil läuft. zb. +100 mhz offset mal nur probieren.

Genau das solltest du tun. Es muss nicht zwingend sein, dass Werte die in Crysis stabil sind auch in allen andern rockstable sind.
 
Ich bin zwar noch mit der 580 unterwegs, aber ich finde eher die Schatten auf dem Körper hässlich, die Haare sind OK?!

---------- Post added at 10:31 ---------- Previous post was at 10:30 ----------



Genau das solltest du tun. Es muss nicht zwingend sein, dass Werte die in Crysis stabil sind auch in allen andern rockstable sind.


also ne halbe studne habe ich eben mit +103 mhz offset gespielt, das scheint besser zu gehen *;D ! immerhin auf 1084 mhz hat er damitr getaktet. Framerates an sich immer über 60 - 80 je nachdem. wenn man einfach durch die pampa läuft, wo viiiiel vegetation ist, dann ists eher 60 - 62, ansonsten höher. im amanaki-dorfzentrum ganz knapp unter 60 *;D in badtwon aber über 60. naja lässt sich aber zucker spielen, von daher. hoffe mal die 100 mhz bleiben standhaft. mal sehn ob i9ch noch langsam hochprobiere, an sich kann ich es so lassen, läuft ja super/flüssig. auch in gefechten keine drops *;D - das ganze mit ultra einstellung, full hd und 4 x msaa.
 
Zuletzt bearbeitet:
Kenne ich rigendwie. Ich bin jetzt bei +140 @ +25mV benchstable.... Crysis aber hängt sich ab und zu noch auf, wobei ich das den Spiel zuschreibe.
Ansonsten kann ich mich nicht beschweren. Geiles Teil... und dennoch; SLI lockt :d
 
Kenne ich rigendwie. Ich bin jetzt bei +140 @ +25mV benchstable.... Crysis aber hängt sich ab und zu noch auf, wobei ich das den Spiel zuschreibe.
Ansonsten kann ich mich nicht beschweren. Geiles Teil... und dennoch; SLI lockt :d

komisch, +142 mhz ging bei mir ohne probleme, durchgängig beiu crysis 3, naja jede karte ist da wohl etwas anders. bei fc 3 gehts wie oben geschrieben loeider nit mit den crysis 3 settings bzgl. overclocking.
 
Also ich habe trotz Treiber und Patch noch immer hässliche Haare bei tr!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

wunderts dich? TressFX ist von AMD und läuft halt auf AMD am besten... das wird bei NV sicher sehr viel leistung fressen oder halt wie bei dir - scheiße aussehen.

Gruß JM
 
NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite le

Also ich habe trotz Treiber und Patch noch immer hässliche Haare bei tr!

Dito, aber es ist halt nur die Kombination mit SSAA die scheiße läuft, mit FXAA fluppt TressFX super!
 
wie mich Tombraider und Haare mal NULL interessieren ^^
 
Also ich habe trotz Treiber und Patch noch immer hässliche Haare bei tr!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

Also bei funkt das mittlerweile. Problem gibt es nur mehr bei DS mit SSAA und TressFX.

Btw. das Spiel ist sowas von genial. Wollte mir das eigentlich nicht kaufen.
 
Hallo,

nach der Pleite mit der Evga-Karte konnte ich heute aus der Packstation ne Asus-Titan von nem anderen Onlineshop abholen.
Eigentlich hatte ich mich ja auf ein paar Wochen mit nervender Lukü eingestellt (mit ner Wakü, die über weite Lastbereiche passiv ausreicht bin ich einfach verwöhnt), da mir nur noch vernickelte Kühler von AC oder WC auf die Karte kommen.
Überraschenderweise ging aber am Freitag noch etwas anderes an mich raus:banana::


ciao Tom
 
wie mich Tombraider und Haare mal NULL interessieren ^^
Das ist aber seit langem echt mal wieder ein Top-Spiel, mich hat seit Jahren kein Singleplayer Spiel mehr so gefesselt. Auch wenn es nicht die aller-allerbeste Grafik hat, aber es geht ja nicht nur darum. Mich zum Beispiel interessiert Crysis 3 null, weil es einfach von Gameplay und Story her einfach ein witzloses Schrottspiel ist, da hilft mir die Grafik auch drüber hinweg^^

@Dampfkarnes: Neid, ich habe meine AC Kühler immer noch nicht...
 
Zuletzt bearbeitet:
mit 3DVision ist tombraider ein ziemlicher hammer !


(..)

mfg
tobi
 
leg dir für deinen projektor einfach ne 1080p/120Hz DS-auflösung an und mach den eyecandy-rest über den NVi.


(..)

mfg
tobi
 
sieht man das auch im Benchmarktest?

Es gibt viele Spiele wo 3D-Vision nichts bringt, bzw. sogar nervt. In vielen Shootern ist es IMO nicht zu gebrauchen. TR ist aber eines der Spiele, wo 3D dem Ganzen noch das Sahnehäubchen aufsetzt. Ich würde 3D in diesem Spiel echt vermissen. 3D muss man erleben, genau wie einen schnellen 120hz Monitor oder einen guten alten 100 Hz CRT. Hab das erst seit letztem Jahr und bin teilweise schon schwer begeistert.

Das Potenzial dieser Technik habe ich ziemlich unterschätzt, als ich es noch nicht hatte, wollte ich eigentlich nichts davon wissen.
 
ich fand es schon toll, als ich das anno 2000 mal mit der elsa revelator angefangen habe.. erst mit kabel, dann schnurlos und heute.. 13 jahre später mache ich das noch immer.. :-)

BF3 ist auch toll in stereo-3D.


(..)

mfg
tobi
 
Welchen monitor mit hoher Auflösung könnt ihr denn empfehlen, der auch nv 3d kann?

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
stereo3d geht bis 1920x1080 pixel; egal es es 3dvision-shutter oder der von bluray bekannte, endgeräteabhängige hdmi_1.4 -standard ist. mehr auflösung gibt es da nicht.

wer bei 1080p oder 720p @3DVision performanceüberschuss hat, kann ihn sehr schön über den NVi in optik investieren.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
kann man nicht mit den overlord oder catleap monitoren auch 3d zocken?? dann hat man doch 2560x1440.

Gruß JM
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh