[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Kennt sich wer mit dem GPU Tweaker von ASUS aus. Wollte mal ingame monitoren. Aber bei mir funzt nur EVGA Precision X.
Geht das überhaupt mit dem Tweaker?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Um nochmal auf das Thema PCI 3.0 im SLI zurück zukommen:
Der Sockel 2011 mit dem Chipsatz X79 besitzt zwar mechanisch 4 mal PCI 3.0 x16, der Chipsatz kann
aber trotzdem nur maximal 2 mal PCI 3.0 x16 + 1 mal x8, wenn man 3way-SLI fährt, richtig?
Sprich 4x PCI 3.0 für 4way-SLI wird bis jetzt von keinem Chipsatz unterstützt? Genau wie 3xPCI 3.0?
Bei 2 PCI 3.0 Karten würden jedoch beide auch auf den vollen PCI 3.0 x16 laufen?
 
Zuletzt bearbeitet:
Der Sockel 2011 mit dem Chipsatz X79 unterstützt 4way-SLI mit jeweils PCI 3.0 x16?
Falsch!

Also komplett ohne Einbußen?
Nein!

Auf der Asus Seite steht es so: 4 x PCIe 3.0/2.0 x16. Das 2.0
In der Regel können nicht alle Slots x16, sondern manche nur x8 physikalisch

bedeutet doch an dieser Stelle nur, dass es auch für Komponenten die nur 2.0 unterstützen abwärtskompatibel ist, oder?
Die Boards sind PCIe 3.0 spezifiziert und sind abwärtskompatibel, ja

Hat man zB 4 Titan, würden alle auf 3.0 x16 laufen, richtig?
Falsch!

Sandy-E ist mit PCIe 2.0 spezifiziert. X79 bzw Sockel 2011 CPUs bieten 40 Lanes PCIe 3.0. Teilst du diese durch 4 kommst du auf x16/x8/x8/x8 (16+8+8+8=40 Lanes), nix x16/x16/x16/x16 (4x16=64 Lanes). Das ist aber CPU abhängig, welchen Standard du nun fahren kannst. Die 3.0 Spezifikation gibts für die Sandy-E nicht, weil damals keine 3.0er Karten für eine Spezifikation der CPUs zur Verfügung standen, auch wenn die CPUs diesen Standard technisch unterstüzen, wurde er einfach nicht zertifiziert und ist damit erstmal in keinem Treiber integriert. Nur mit einem "Treiber Hack" kannste bei Sandy-E 3.0 draus machen. Ivy-E müsste aber 3.0 spezifiziert sein.

Nachdem ich die Seite gerade aktualisiert habe, sehe ich, dass du deine Beitrag überarbeitet hast.

Der Sockel 2011 mit dem Chipsatz X79 besitzt zwar mechanisch 4 mal PCI 3.0 x16

Falsch! siehe oben

der Chipsatz kann aber trotzdem nur maximal 2 mal PCI 3.0 x16 + 1 mal x8, wenn man 3way-SLI fährt, richtig?
Richtig! :banana:

Sprich 4x PCI 3.0 für 4way-SLI wird bis jetzt von keinem Chipsatz unterstützt?
Richtig! :banana:

Bei 2 PCI 3.0 Karten würden jedoch beide auch auf den vollen PCI 3.0 x16 laufen?
Richtig, sollange du die restlichen Lanes nicht für andere Dinge wie PCIe SSD, Raidcontroller etc mitnutzt/verbrauchst.

Solltest du, was aus deinem Post so raushöre, es in Erwägung ziehen, auf X79/2011 umsteigen zu wollen, damit du deine Titans mit 2x PCIe 3.0 x16 anbinden kannst, solltest du dir das Geld sparen, denn das bringt in deiner Konstellation keinen erkennbaren Vorteil. Erst mit mehr als 2 Karten und mehr als einem Bildschirm wird die Bandbreite des Busses interessant.
 
Zuletzt bearbeitet:
@Webmi: Danke für die Antwort!! Super erklärt! Ja hatte das ganze nochmal geändert, paar Sachen sind mir dann selber aufgefallen!
Nein, ein Wechsel steht nicht ins Haus, das ist mir das Geld sicher nicht wert!
Da warte ich lieber auf die nächsten Generationen! Wenn irgendwann mal mehr PCI 3.0 Lanes vorhanden sind denke ich frühstens drüber nach!
 
Da musste aber noch lange warten. Auch Haswell-E ist mit "nur" 40 Lanes angekündigt.
 
Re: NVIDIA GeForce GTX TITGK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Ob mit 16 oder 8 lanes. Unterschied ist sehr gering. Zeigen etliche Tests. Gruß Benno

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
lol...


 
Cooles Video...aber mal ehrlich...Wakü druff und gut...werde von den Dingern jatzt auch mal zwei testen!
 
Bitte nachmachen :d:d:d
Eine Titan...Treiber auf Anwendungen gestellt :d
Sniper Elite V2 Benchmark Report
================================
Created: 2013-10-27 at 19:07:25
Build Version: 1.05, Jun 7 2012
================================

Average FPS: 62.6
Minimum FPS: 17.9
Maximum FPS: 135.2

Number Of Frames: 4796
Average Frame: 15.963ms
Minimum Frame: 7.395ms
Maximum Frame: 55.803ms

Machine Name: DANCOP
Monitors: 1
Operating System: Windows 8 Professional (build 9200), 64-bit
System RAM: 16321MB
CPU: Intel(R) Core(TM) i3-4340 CPU @ 3.60GHz
Number of Cores: 4

GPU Name: NVIDIA GeForce GTX TITAN
Feature Level: DX11.0
Driver version: 9.18.13.2723
Dedicated VRAM: 3072MB

Resolution Width: 1920
Resolution Height: 1080
Texture Detail: ULTRA
Shadows Detail: ULTRA
Draw Distance: ULTRA
Anti-aliasing: HIGH
Advanced Shadows: HIGH
Supersampling: 4.0x
Anisotropic Level: 16
Compute Shaders: ON
Ambient Occlusion: ON
Motion Blur: ON
Vertical Sync: OFF
Reduce Mouse Lag: OFF
Stereo 3D: OFF
 
Eigentlich ist es ziemlich frech von NV was sie da abziehen! Naja auch egal - werde mir ne classified ti holen;).. Trotzdem ist es gegenüber dem Titan-Kunden nen Tritt gegen das Schienbein!
 
Sehe ich genau so. Trotzdem unterstützte ich dad ganze weil ich einen weg Suche wie ich plus minus null aus der Sache raus komme, wenn ich Titan abstoße und ti kaufe.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Dito! Auf die warte ich auch. Aber dann 2 (z.B. so ein eagle Paket). Ich suche mir nie wieder eine zweite Karte. Die werden dann so genommen wie sie sind :d
 
Zuletzt bearbeitet:
Für mich ist der Umstieg nicht lohnenswert, bei den paar Prozent Punkte die die Karte schneller ist, gut ich habe meine Titan auch 350€ unterm neu Preis bekommen
 
Das ist nicht das Thema - habe bisher auch für keine Neupreis gezahlt;). Aber gibt genügend die das getan haben und da ist man mit Recht angefressen wenn jetzt der Vollausbau für ~300€ und mehr günstiger kommt als seinerzeit die Titan.
Lohnen ist ne andere Sache;)
 
Naja ich hab meine Titan seit einigen Monaten. Da ist das noch OK weil man den preisverfall gewohnt ist. Wenn meine Titan jetzt erst 1 Monat alt wäre dann würde ich auch anders darüber denken
 
War ja zu erwarten das eine schnellere Karte kommt die auch günstiger ist, das einzige was ich nicht erwartet habe, das dieses Jahr schon eine kommt
 
Was meint ihr was man für ne 77% Titan bekommen kann und wo man sie am besten los wird?

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
muss meine beiden 80er Titanen auch loswerden für 2 Ti 6 GB ;)
 
Ist es sicher, dass die Ti mit 6GB kommt? Brauche ich aber eh nicht, wenn ich drüber nachdenke. Bis das was bringt hab ich die längst nicht mehr im Rechner. DS finde ich keinen Gefallen dran in den Games in denen ich es getestet habe. Zu viele Nachteile.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh