[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Habe gerade jemanden mit seiner 780 benchen sehen. 1163 MHz bei 1,150V. Die ist im Valley nur eine Stufe runter gegangen. War also dann bei 1150 Mhz als es 85°C waren. Lüfter auf Auto.

Wie ist sowas möglich? Wenn ich da an meine Titan denke die da gerne 5 Taktstufen oder mehr runter taktet ist das schon komisch. Also erst 1097 Mhz und dann dümpelt die bei 1032Mhz-1045Mhz bei Valley rum.
Läuft da bei der 780 was anders?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe gerade jemanden mit seiner 780 benchen sehen. 1163 MHz bei 1,150V. Die ist im Valley nur eine Stufe runter gegangen. War also dann bei 1150 Mhz als es 85°C waren. Lüfter auf Auto.

Wie ist sowas möglich? Wenn ich da an meine Titan denke die da gerne 5 Taktstufen oder mehr runter taktet ist das schon komisch. Also erst 1097 Mhz und dann dümpelt die bei 1032Mhz-1045Mhz bei Valley rum.
Läuft da bei der 780 was anders?

Gleiches pt in watt und weniger cores

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Mit offenem bios gehen dann 1.212v. ..aber mit allen anderen eben nicht!
Egal, was ich teste!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

Ja, machen Karten nehmen manche Taktstufen nicht an, erst die übernächste wird dann angekommen.
Meine z.B. keine 1,175v ... nur 1,1625, 1,1875, 1,2000, 1,2125.
 
VIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Wie war deine asic?

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Ich habe hier 76.8 und 77.5 die 1.2 nicht annimmt und 80.4...

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
meine 79,6 macht das :)
 
macht was?
Und mir verkaufen willste sie ja auch nicht ;)
 
ich habe die biosspielchen vorziehen müssen, weil ich morgen und kommende woche nicht dazu komme. bin für ein paar drehtage in köln und muss mich auf die rolle vorbereiten.

@bios
ich habe die festgesetzen OC-takte zurückgenommen und die anderen änderungen beibehalten. es gibt auf meiner HDD titel, die mit RAM-OC oberhalb von 1600MHz ins PT rennen, wenn ich die GPU auf 1150MHz fixiere (FC3 ist so ein beispiel).


trine2 @122% PT fixierte GPU auf 1150MHz @1.163V

schönes WE euch!



(..)

mfg
tobi
 
TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Bei mir ist es ein Bissl merkwürdig
1175/3200- 1.175V
Laufen Stunden lang in farcry3.bf3 SP PROBLEMLOS, sogar Firestrike läuft stundenlang im loop durch
ABER
für bf3 MP kommen ca nach 2h direktX Fehler, bf3 exe funktioniert nicht oder treiber setzt sich zurück, diese Probleme sind komplett behoben bei 1.2V
 
ok nun is alles klar ^^
 
Wenn der PC bei drei Titanen beim zocken einfach ausgeht - ist dann das NT (1000W) zu schwach? :d

Wie zockt ihr mit V-Sync an oder aus? Hatte jetzt bei Alan Wake mal VSync deaktiviert..

Edit:

Holy! Crysis 3 getestet das Strommessgerät zeigte fast 1.700W an bevor der PC ausging.
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
@KampFKeksS

Das ist direkt bei Crysis 3, wenn man ein neues Spiel startet (in der 3D Engine), aber der Wert war nur ganz kurz (evtl. Messfehler).

Ist der Verbrauch mit der Titan soviel höher?

Meine drei GTX680 Classifieds haben da noch nie Probleme gemacht?

Edit: BF3 liegt bei bis zu 850 Watt.. (VSync aus)
 
Zuletzt bearbeitet:
Krass, mein Rechner mit 2 Titanen und 5 Monitoren zeigt als Gesamtverbrauch (inkl. Monitore) 1KW an :-)

Prime+Valley bekomme ich 760W auf die Anzeige (ohne Monitore).
 
Mh dann stimmt doch was nicht!?

Hitman liegt ohne VSync auch bei max 850W
Batman AC (60fps Limit Unreal) unter 500W

Tomb Raider hat max. 950W, meist sind es aber nur um die 700W

BTW: TR hat ja eine gigantische GPU Auslastung Alle drei GPU's über 90%
 
Zuletzt bearbeitet:
Nur aus Interesse. Was ist hier die Höhst getaktete Titan die auch Stabil Läuft ?
 
<1070MHz schlechte titan
<1137MHz normale titan
<1176MHz gute titan
<1202MHz sehr gute titan
<1228MHz einzelstück

!stabil! ist doch immer sehr von der verwendeten software abhängig | das bedeutet für jeden was anderes.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Beim Tomb Raider zocken und OC wird meine Karte 88°C warm :fire: Dabei hat sie 902 Mhz und 1045 Mhz Boost anliegen. Also alles moderat.

Das dankt Tomb Raider mit lustigen bunten Grafikfehlern wo gerne auch Körperteile komplett verschwinden :fresse2:

Muss ich mal mit 75% fan testen obs sich bei 83°C oder so einpendelt. Leider bringts nichts unten an meinem Gehäuse einen 120mm Lüfter an die Karte ran blasen zu lassen. Das Referenzdesign kann die Frischluft von unten nicht aufnehmen.
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Mit Wakü kenn ich mich überhaupt nicht aus. Da trau ich mich nicht ran...

Und an einer 939€ teuren Grafikkarte zu schrauben ist mir auch zu heikel.
 
Zuletzt bearbeitet:
es kommt auch - abseits der bastelei, die ich bei dem hübschen standardkühler schade finde - auf die kapazität der wakü an. nicht jede wasserkühlung lässt sich beliebig erweitern, denn es gibt da drei lager.. die kompakt-all-in-one-waküs, die bastel-wakü intern (so mag ich es; alles im case verbaut) und die extreme, die mit externen radiatoren unterwegs sind.

wenn man etwas sorgfältig arbeitet, gibt es selten probleme. ich hab damit 1999 angefangen, weil mein alter AMD "thunderbird 1400" nicht anständig mit damaligen luftkühlern kühlbar war. seit dem hatte ich nicht eine havarie; nie wasserschäden.. nix. aber der krempel ist wartungsintensiver als mit nem pinsel die finnen von luftkühlern zu entflusen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich bin zwar jetzt nicht so Lange bei Luxx dabei aber ich Lese hier schon etwas Länger mit, und ich habe Leider die erfahrung gemacht das der Ton hier im forum Allgemein sehr Grob ist und das gefällt mir garnicht. Für mich ist das hier mein Hobby daher nervt es echt solche Texte zu lesen die irgendwie im Kindergarten Bereich gehören.

Und das alles nur weil ich hier nach die Höhst Übertaktete Titan gefragt habe ! Leute was ist nur Los mit euch ?
 
oli hat doch einen titan-OC-thread erstellt - hast du dich da schon eingelesen?

wenn du dich an der ASIC-tabelle orientierst, hast du schonmal die stock-boost-max-werte, die ohne fummelei möglich sind. wenn du da im mittel 100MHz draufrechnest, oder 150MHz mit spannungserhöhung kannst du dir grob herleiten, wo die reise hingeht.

ich würde grundsätzlich nicht drauf spekulieren, dass monster-OC ein dauerzustand wird. es werden ja auch neue spiele erscheinen, die titan wieder ganz anders auslasten, als die titel aus 2011/12 und mein bauchgefühl sagt mir, dass der boost auf NVidia-werten basiert, die korrekte ergebniss liefern; egal wie aufwendig die berechnung ist.



(..)

mfg
tobi
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh