[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wie hast du denn das geschafft?
Hast du versucht deine Grafikkarte oder deine Mäuse zu flashen? oO

Ist mal jemand so nett und zeigt mal GPU-Z Screenshots der Titan?
Mich würden VDDC Temp interessieren

bei corsairs gamermäusen scheint es üblich zu sein, dass man ihre BIOSe updaten muss bevor eine neue software nutzbar ist.

btw,
ihr könnt ja im 3DC graben, auf wessen mist anno 2004 das bioseditieren auf hexbasis bei der geforce FX gewachsen ist - einige wären überrascht.. aber es gab eine zeit vor bios-editoren und mavkes mkvtechnet-seite.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab eine Erklärung für meine geringeren Spannungen beim OC gefunden (wenn gedrosselt wird).
Die GPU-Boost-Kurve hat ja ganz viele Taktpunkte, zu denen jeweils ein kleiner Spannungsbereich gehört. Der Offset verschiebt anscheinend (wie der Name schon sagt) die gesamte Kurve um den Offsetwert nach oben:

Standard:
1.0V, 836 MHz
...
1.062V, 902 MHz
...
1.162V, 1006 MHz

Mit +104 Offset:
1.0V, 940 MHz
...
1.062V, 1006 MHz
...
1.162V, 1110 MHz

D.h. durch das Hochziehen des Offsets werden nicht nur Taktraten/Spannungen oberhalb des höchsten Taktbins beeinflusst. Das ist genau das, was ich hier beobachten kann.
Eigentlich hätte ich damit gerechnet, dass die höheren Taktraten einfach die höchste verfügbare Spannung benutzen und der Rest untendrunter unangetastet bleibt:

1.0V, 836 MHz
...
1.062V, 902 MHz
...
1.162V, 1006 MHz
...
1.162V, 1110 MHz

Das ist aber nicht der Fall.
Kann das jemand so bestätigen?
 
@Mario
Sobald der HK greifbar ist, komme ich bei dir rum :d.
Bring dann auch meine 3D-Brille mit und denke das mich deine Konstruktion umhauen wird. Hier bei mir auf meinem kleenen Benq schaut der Heaven in 3D-Vision einfach HAMMER aus und dank Titan lüppt es absolut smooth/flüssig und ist ein geiles WOW-Erlebnis :). Wie sich DAS erst bei dir anfühlen muss ... OMG :drool:
 
boxleitner was erwartest du?
natürlich geht die VCore runter wenn er drosselt

Takt runter, VCore runter > Temp erholt sich, Takt rauf, VCore rauf
das ist die Mechanik/Elektronik
 
Das ist schon klar, aber ich hab eben gedacht, die Übertaktungsgeschichte funktioniert so wie im dritten Beispiel. Wenn ich allerdings darüber nachdenke, gibt es dieses Verhalten bei den CPUs mitunter auch. Stelle ich einen Spannungsoffset im Bios ein, werden alle Taktraten davon beeinflusst, z.B. liegen dann auch im idle andere Spannungen an. Nun gut, scheint jedenfalls normal zu sein.
 
Achja, noch was zum Standardlukühler der Titan.
Was NV da gebaut hat ist erste Sahne!!! Unglaublich wie unaufdringlich/ruhig/leise er vor sich hin "rauscht" im Verhältnis zur Performance was die Karte erbringt. Das Ding ist mMn das BESTE was NV je im Highend gebaut hat! Im Vergleich zur GTX8800/GTX280/GTX580 eine andere Lautstärkeklasse. Ich hatte noch NIE eine so leise Highendgrakastockkühlerkarte (was für ein Wort). GJ NV. Fast zu schade um auf Wakü umzubauen^^.
 
Das glaube ich dir aufs Wort mgr R.O.G.
Die Woche wird erstmal ein neues Auto gekauft und dann mal schauen ob es noch für 2 Tiatan reicht 1ner steht auf jeden Fall fest.
 
Wie gesagt, ich hatte noch NIE eine Graka mit einem solch genialen leisen Referenzkühler bei Highendgrakas. Alle (egal ob NV oder AMD/ATI) waren lauter/aufdringlicher wie mein Titanbaby.

---------- Post added at 19:17 ---------- Previous post was at 19:12 ----------

Kann das jemand so bestätigen?
Werd ich mal testen. Kann aber bis in die Nacht dauern oder gar morgen/übermorgen werden. (Nachher erstmal CW fahren angesagt).

Mit was soll ich testen ( Heaven/Valley wäre das ok?) und mit welchen Precision-Einstellungen?
 
Schlagt mich, wenn das schon bekannt ist, aber mit dem Boost kann man Titan auch prima undervolten, wohl auch die anderen Keplerkarten mit Boost 1.0
Warum hat das bisher eigentlich niemand aufgegriffen?
 
wen interessiert denn undervolten?

das is vielleicht in BC/3DC oder PCGH interessant, aber nicht hier ^^
 
Gerade bei PCGH gelesen wer nen 2600K oder 3770K hat HT aus machen in Crysis 3 wen ihr den Titan ordentlich futter geben wollt.
Das HT bremst derbst aus.
Ohne HT vernichtet der 3770 K jetzt auch den FX von AMD mit bis zu 50%.
 
Gerade bei PCGH gelesen wer nen 2600K oder 3770K hat HT aus machen in Crysis 3 wen ihr den Titan ordentlich futter geben wollt.
Das HT bremst derbst aus.
Ohne HT vernichtet der 3770 K jetzt auch den FX von AMD mit bis zu 50%.

was ist HT ?? *;D

Crysis 3 wird das erste spiel, was ich mit der titan spielen will. habe nen 2600K, den muss ich haolt vorher noch übertakten *;D ??

Hier gibts bios versionen, wo man das powerlimit erhöhen kann, verbessert das die taktfrequenz *:d ???
 
Werd ich mal testen. Kann aber bis in die Nacht dauern oder gar morgen/übermorgen werden. (Nachher erstmal CW fahren angesagt).

Mit was soll ich testen ( Heaven/Valley wäre das ok?) und mit welchen Precision-Einstellungen?

Einfach im Precision den GPU-Offset erhöhen (also Übertakten), aber gleichzeitig dafür sorgen, dass gedrosselt wird, z.B. per niedrigerem Temperaturtarget. Und dann bitte die Taktraten und Spannungen protokollieren einmal mit diesem OC und einmal auf Standard.

wen interessiert denn undervolten?

das is vielleicht in BC/3DC oder PCGH interessant, aber nicht hier ^^

Ich finds interessant, ich muss meinen Strom bezahlen ;)
 
Schlagt mich, wenn das schon bekannt ist, aber mit dem Boost kann man Titan auch prima undervolten, wohl auch die anderen Keplerkarten mit Boost 1.0
Warum hat das bisher eigentlich niemand aufgegriffen?

Weil du damit ein Jahr zu spät dran bist?!

Davon abgesehen hast du das Problem, dass du nicht einen Maximaltakt fixieren kannst. Macht das ganze ein wenig unbrauchbar.
 
HT ist HT ;)

Ob jetzt beim 3770K (4 Kerne + 4 HT "Kerne") oder beim 3930K (6 Kerne + 6 HT "Kerne").
 
Zuletzt bearbeitet:
Weil du damit ein Jahr zu spät dran bist?!

Davon abgesehen hast du das Problem, dass du nicht einen Maximaltakt fixieren kannst. Macht das ganze ein wenig unbrauchbar.

Also kanntest du das schon?
Du kannst den Maximaltakt nicht genau fixieren, richtig. Aber annähernd klappt das über das Powertarget schon. Ob ich jetzt statt 1006 MHz mal 993 oder mal 1019 MHz hab ist doch nicht so wichtig. Du sagst der Karte auf der einen Seite, sie darf mehr verbrauchen, sorgst aber mit dem Powertarget dafür, dass sie es doch nicht darf. Das resultiert in fast gleichen Taktraten. Die sind sogar stabiler als in der Standardeinstellung, weil die Temperatur niedriger ist und der Lüfter nicht so hoch drehen muss - beides Faktoren, die ein Throtteln auslösen können. Ich kann hier pro Karte 50W einsparen und hatte bisher noch keine Abstürze.
 
Zuletzt bearbeitet:
Ebens hatte ich ein DirectX error Meldung beim BF3 zocken. :hmm: Das bei der GTX Titan
 
Zuletzt bearbeitet:
Mich würde mal interessieren ob man mit einem Bios Editor den Turbo/Boost der Karte komplett entfernen kann, außerdem wäre noch interessant wie hoch man den Power Regler im Editor erhöhen kann.
 
das powertarget runterzuregeln und gleichzeitig das OC bestehen zu lassen, ist bei meiner GTX690 hier gängige praxis, weil sie mit PT @82% auch noch mühelos überall durchgeht und dabei gleichzeitig etwas ruhiger bleibt.

btw,
hier bleibt HT an - ich mache aus meinem i7 keinen i5.


(..)

mfg
tobi
 
Gerade bei PCGH gelesen wer nen 2600K oder 3770K hat HT aus machen in Crysis 3 wen ihr den Titan ordentlich futter geben wollt.
Das HT bremst derbst aus.
Ohne HT vernichtet der 3770 K jetzt auch den FX von AMD mit bis zu 50%.


Ach das hast du auch schon mitbekommen xD
Der Traum eines schnellen Bulldozers ist schlagartig vor 2 Tagen wieder zerplatzt wie eine Seifenblase ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh