[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Die 780TI soll in einer "Special Version" sogar bis zu 12GB haben. 6GB sind auch geplant. Zumindest nach dieser News
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die 780TI soll in einer "Special Version" sogar bis zu 12GB haben. 6GB sind auch geplant. Zumindest nach dieser News

12GB? Wozu denn das? Stammtisch oder wie? ;)
Selbst die 6GB sind schon unnötig, außer mit DS kriegt man die nicht voll.

Ich hoffe nur diese Black Edition kommt dann auch parallel und nicht erst wieder Wochen später.
 
Bei dem Texturmatsch kann das ja fast nur ein Bug sein, wovon auch immer. Oder aber die Engine nutzt den VRAM für irgendetwas anderes.
 
Wie ist das eigentlich,
wenn die Grafikkarte wegen zu wenig Spannung abschmiert und das Bild hängen bleibt oder mit einer Fehlerverletzung beendet wird ?

Ist das ein Reklamationsgrund (bei EVGA) ?

Was wäre beim Wiederverkauf der Graka, der Käufer wäre ja nicht sehr angetan...

Selber modden darf man ja auch nicht, weil sonst die Garantie erlischt!

Wie kann man so ein Problem am besten überprüfen?

Bei Crysis 2 ist es relativ zum Ende passiert (Animation im Jeep wo man aus der Central Station ausbricht).
Bei BF4 während der Animation wenn das Hochhaus zusammenstürzt und man gerade per Fallschirm gesprungen ist..

Erhöhe ich das Power Target auf 106% läufts ohne Probleme durch!
 
Zuletzt bearbeitet:
Naja ist eigentlich nen Reklamationsgrund... Man muss aber dazu sagen, dass davon sehr viele Titanen betroffen sind. Wenn man sie komplett standard betreibt ohne Zusatztools mit selbst eingestellten Lüfterkurven etc., wird sie in manchen Games so heiß, dass sie ihre temp nur noch durch heruntersetzen der vcore erreichen kann. Ergo ist irgendwann der Punkt, an dem es instabil wird. Konnte ich bisher bei 3/4 Titanen verfolgen (allerdings out of the box - mit standard Kühler etc.) - deswegen halte ich von dem ganzen boost 2.0 etc. Geschichten persönlich nichts!
Ist das Phenomen bei dir im 3way sli zu beobachten mit Luft? Oder bei ner Single Konfig standard?
Wobei das bei dir dann eher nen PT Problem ist - also herabsetzen der Spannung wegen erreichten PTs - was aber im Endeffekt den selben Effekt hervorruft;)
 
Zuletzt bearbeitet:
Bisher ist es mir nur im 3-way-SLI aufgefallen und müsste erstmal diejenige Karte lokalisieren welche der drei Karten betroffen ist,
ich denke mal, daß es die letzte Karte war bei der auch der Karton bereits nicht mehr versiegelt war!
 
Bald gibts ja dann einige Titanen zu Schnäppchen Preisen zu schiessen :d Da ist schon wieder die Verlockung da ein SLI aufzubauen.
 
meine 2 gibts dann, aber 80 Asic mit Koolance, nix schnapper ;)
 
werd erst mit der nächsten gen wieder wechseln, den stress wegen 200cores will ich mir jetzt nicht geben.
 
Wie ist das eigentlich,
wenn die Grafikkarte wegen zu wenig Spannung abschmiert und das Bild hängen bleibt oder mit einer Fehlerverletzung beendet wird ?

Ist das ein Reklamationsgrund (bei EVGA) ?

Was wäre beim Wiederverkauf der Graka, der Käufer wäre ja nicht sehr angetan...

Selber modden darf man ja auch nicht, weil sonst die Garantie erlischt!

Wie kann man so ein Problem am besten überprüfen?

Bei Crysis 2 ist es relativ zum Ende passiert (Animation im Jeep wo man aus der Central Station ausbricht).
Bei BF4 während der Animation wenn das Hochhaus zusammenstürzt und man gerade per Fallschirm gesprungen ist..

Erhöhe ich das Power Target auf 106% läufts ohne Probleme durch!

Ich habe auch ne EVGA Titan und ebenfalls Probleme bei Crysis2. Meine anderen Spiele (u.a. BF3, Crysis1+3, Civ5, N4S HP2010, Diablo3, Witcher1+2) laufen aber anscheinend problemlos. Crysis2 stockt ab und zu bzw. man bekommt Standbilder so für 2-6sek. danach gehts wieder für 1-3min gut und dann stockts wieder für 2-6sek. Total komisch, hatte vorher noch nie son Problem. 2x hatte ich beim Stocken auch nen TDR (Treiber-Reset). Mit meiner vorherigen GTX580 hatte ich das Problem allerdings nicht (wobei ich hier auch nen älteren Treiber hatte, aber ka, inwiefern der relevant ist).

Während des Stockens geht die GPU-Last auf fast 0 runter und der "System"-Prozess nimmt genau 12,5% CPU-Last weg (entspricht genau 1 virtuellen CPU, habn 4770k). Ich weiß nur nicht, ob das jetzt die Ursache oder nur eine Folge des Problems ist :F. Bin bisschen ratlos, vor allem weil ich ja bei anderen Spielen nicht solche Probleme habe.

Eine Sache, die mir aber aufgefallen ist: Übertakte ich die Titan per EVGA precision oder nvinspector nur um 10MHz, hängt sich Crysis2 relativ schnell halb auf (Ton geht weiter, aber Bild bleibt schwarz). Ich kann im Prinzip nur per Overvolting übertakten, sprich Takt-Offset auf 0 belassen und nur die Spannung anheben. Dann gibts noch maximal 3 Boost-Stufen dazu (sind dann glaub 1081MHz bei 1.1875V - normal sinds max 1045MHz bei 1.150V).

Kann es sein, dass meine Titan hart am Limit designed ist? Aber warum machen dann andere Spiele und Benchmarks keine Probleme? Was ist an Crysis2 so besonders?

mfg Oli

Edit: Was ich noch vergessen hab - BF3 hängt sich bei +20MHz GPU-Takt ebenfalls auf, andere Games hab ich noch nicht getestet.
 
Zuletzt bearbeitet:
Ok, Problem gelöst: Es liegt am Hyperthreading. Die Frage ist nur, warum jetzt mit der Titan und nicht schon damals mit der GTX580? Sehr merkwürdig das ganze. Wer Hyperthreading nicht deaktivieren möchte (wie ich), dem empfehle ich folgendes für Crysis2 zu tun:

Neue Verknüpfung zur Crysis2.exe erstellen und das Ziel folgendermaßen abändern, Spiel-Pfad natürlich anpassen:

Code:
C:\Windows\System32\cmd.exe /C start "" /affinity 55 "C:\Spiele\Crysis 2\bin32\Crysis2.exe"

Gilt bei einer 4-Kern CPU mit HT. Damit wird das Spiel auf die Kerne 0,2,4 und 6 fixiert. Wer will, kann natürlich das auch "per Hand" im Taskmanager machen, nachdem er das Spiel gestartet hat.

mfg Oli
 
Also das erste Game, wo die 6GB Vram der Titan wirklich genutzt werden, ist Call of Duty Ghosts - das pumpt gepflegte 5GB an Texturen in den Vram - wollte ich nur mal so beiläufig erwähnen. ;)
 
Alter tatsächlich...



Also, steht fest, wenn upgrade dann auf ne 6gb Ti. :d
 
Re: NVIDIA GeForce GTX GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Wobei man auch sagen muss das Spiel ist bei der Grafik und der vram Auslastung sehr schlecht programmiert

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ja, das passt so net zusammen. Sieht aber optisch net so schlecht aus. Und läuft sehr geschmeidig.
 
Oder aber sie preloaden wirklich 90% aller Texturen in den VRAM, dann könnte das schon hinkommen.

Aber halt wir reden ja hier von CoD ist wahrscheinlich einfach nur der größte Mem-Leak überhaupt.
 
COD Ghosts sieht jawohl alles andere als gut aus. Inbesondere im MP eine Katastrophe. Die Anforderungen sind jawohl ein Witz für diese Optik. Da sieht die alte Source Engine teilweise noch besser aus.
 
Also ein Stück besser als das letzte COD (keine Ahnung welches das war) siehts schon aus. Ich meine mal wir reden hier ja auch von CoD. Das Game braucht einen eigenen Maßstab :d . Aber stimmt Anforderungen sind schon pervers.
 
Für die Downsampling-Liebhaber:

Share-Online - dl/CBSWQUVMDE

Neue Version vom svl7 Bios.
Clockdomains vom Video und Displaycontroller wurden angepasst um bessere Downsamplingergebnisse zu ermöglichen.
5120x2880 bei 60Hz laufen jetzt mit einem 1440p Panel.
Für Besitzer von 1600p Panels sollte das auch recht interessant sein :)
 
Mal ne Frage, ich hab das Bios von Olli bekommen dass das board limit auf 375 macht und die gpu 350w ziehen lässt mit 140%
zum übertakten nehm ich das evga precision tool
komisch ist nur, im gpu-z werden power consumption in der regel so um die 100% angezeigt und im evga precision 120
ich hatte es dann auch schon dass im evga 140% angezeigt werden und im gpuz nur 120% aber halt power limit erreicht?
soll ich nen anderes Tool zum übertakten nehmen oder hat gpu-z da einfach falsche werte?
 
GPU-Z nehmen, das EVGA zeigt irgendwas an
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh