[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
PCIe 3 gibt 5% mehr Leistung beim AvP-Benchmark in meinen Settings obwohl die Karten die 1150Mhz nicht mehr halten können an einer Stelle.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
interessant.
so macht der Sockelwechsel dann gesamt satte 10% Mehrleistung zum 1366 ?
 
Ne aber es geht wat mehr durch im SLI, also ziehen die Karten mehr
 
die auflösung ist in deinem fall der grund, warum duso viel gewinnst, hisn. hau mal richtig was derbes zum vergleichen rein. 8xaa etc. schätze das wird sogar noch mehr. hatte hier mal nen test mit 4x 680er mit tripplescreen gepostet, der hat deutlich mehr gewonnen.

E: hier der link nochma: 4-Way GTX 680 SLI Sony FW900 Surround

PCI-ETests.jpg
Hier fährt der halt 16x/8x/8x/8x

isch schätze bosonders die 8x/8x/8x profitieren deutlich von 3.0 bie diesen auflösungen.

btw ich disable sli schon garnicht mehr, man kann die dwords auch mit aktivem sli für die jeweiligen karten setzen ;-)
 
Zuletzt bearbeitet:
Bei mir war die 2. Karte nicht in der Registry zu finden bei aktivem VS/SLI (oder ich war zu blind^^)
 
also ich meine dass ich die ordner 0000, 0001, 0002, 0003, 0004 auch bei aktiviertem sli 2x mal vorfinde. bin mir jetzt aber auch nicht so 100%ig sicher. die exe funkt doch auch mit sli, oder?

jedenfalls muss man das nach jeder treiber neuinstall wiederholen, da der treiber die reg ändert.
dies gilt aber nur für "neuinstallation". also wenn er die alten treiber/settings entfernt.
wenn ihr updated bzw einfach drüber installiert, muss das nicht wieder eingestellt werden, dann behält er das in der reg.
aber wie gesagt nur, wenn ich das häkchen für die "neuinstall" incht setzt.

hatte es schon, dass ich vergessen hatte, die reg wieder zu setzen nach treiberbereinigung.
 
Zuletzt bearbeitet:
also ich teste crysis 3 im mp, da ich nur diesen spiele. das geht ein match gut und im nächsten match bei einer schnellen bewegung kracht es.
mp spiele ich auch auf low in 1080 incl 2x msaa. hier kann ich die taktraten, die in dayzero stable sind, nicht halten.
dayzero last etwa 70-99% (ca. 2500vram), crysis 3 last etwa 50-70% (ca. 1500vram). es liegt viel mehr an der engine, als an der last auf dem system.
 
Zuletzt bearbeitet:
also ich teste crysis 3 im mp, da ich nur diesen spiele. das geht ein match gut und im nächsten match bei einer schnellen bewegung kracht es.
mp spiele ich auch auf low in 1080 incl 2x msaa. hier kann ich die taktraten, die in dayzero stable sind, nicht halten.
dayzero last etwa 70-99% (ca. 2500vram), crysis 3 last etwa 50-70% (ca. 1500vram). es liegt viel mehr an der engine, als an der last auf dem system.

Ich teste eigentlich immer so dass ich 99% Last hab, um genau solche Sachen auszuschließen.
Bringt ja nix wenn das Game "fast immer" stabil ist.

Trill hat aber schon schon Recht, ACIII ist noch ne Nummer härter zur GPU.
 
bei ac3 bin ich 2 mal im takt ein paar stufen runter, was immernoch instant zu crash führte. bin dann auch gleich auf default, weils mir zu doof war, hier weiter zu testen, wollte spielen :-)

und genau deshalb flash ich mir keinen takt ins bios mit dem titan. der ist überempfindlich, echt krass.
 
Crysis 3, ist meiner Erfahrung nach gar nicht als Stabilitätstest geeignet - Crysis 3 rennt bei mir Stunden mit 1202MHz bei 1.200V, damit Assassin's Creed III ohne abzustürzen läuft, muss ich heftigst zurück auf 1150MHz und das bei noch zusätzlicher erhöhter Volt auf 1.212.

Trill, nochmal danke für die Rückmeldung.
Ich habe nun mal versuch das bei mir nach zustellen. 2880x1620, TXAA ingame, alles Max. 99% Load, ca. 65 FPS.
Bei mir tut sich da nicht sooo viel gegenüber Crysis 3. Die Karte braucht etwas mehr Strom, aber ansonsten kann ich z.B. 1215/1700 bei 1,21v problemlos zocken.
Merkwürdig dass du so extrem mit dem Takt zurück musst und zusätzlich die Spannung noch nach oben muss?!
Hast du noch etwas spezielles eingestellt?

Gruß Olli

...
und genau deshalb flash ich mir keinen takt ins bios mit dem titan. der ist überempfindlich, echt krass.

Sollte man halt vorher ordentlich testen, das stimmt.
Aber ich machs auch per Software.

Die Karten scheinen doch unterschiedlich gut zu laufen.
Zu Beginn waren viele hier der Meinung dass, bis auf 15 - 20 MHz, die meisten Karten gleich gut gehen.
 
Zuletzt bearbeitet:
Hi, hatte gestern mal Zeit mich um TITAN OC zu kümmern ...
Ist mein Gedankengang richtig:
Habe +150 GPU + 500 Ram eingestellt, 106%PT, +1,2v und Temperatur als Richtlinie gewählt
(Benches laufen zwar alle durch ...)
BF3 und Planetside 2 sind abgekactk ...

Sooo... ist der Gedanke richtig, dass es eventuell am Powertarget liegen könnte und die Graka zuwenig Saft zieht? Sollte ich ein Bios probieren, dass PT 116% bietet?

Die Temps gehen bei mir ja nicht über ~30 Grad.

Daniel
 
NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite le

Wieso testest du nicht erstmal nur den reinen GPU Takt ?

Bringt doch nichts direkt 500 MHz auf den Ram zu knallen das alles instabil wird.

Erst GPU Takt ermitteln danach den Ram nachziehen, dabei sieht man dann auch schön ab welchen taktraten man ins powertarget kommt kann so erhöhen oder über ein Mod Bios nachdenken.
 
Sooo... ist der Gedanke richtig, dass es eventuell am Powertarget liegen könnte und die Graka zuwenig Saft zieht? Sollte ich ein Bios probieren, dass PT 116% bietet?

Nein, .. der Gedanke ich falsch ;)
Hier ist entweder der VRam oder die GPU instabil.
Wenn du ins PT läufst, throttelt die Karte.
 
ok! Also
1. stabilen Takt einstellen
2. dann gucken, ob diesert stabile Takt throttelt?! (<-- dann wird er auch nicht mehr abstürzen sondern "nur" noch throtteln ... stimmts?)
3. gucken, ob Temp ODER Powertarget als Richtwert wählen.
4. ein Modbios mit höherem Powertarget hat nix mit stabilen OC Werten zu tun.

Rischtisch?
 
Zuletzt bearbeitet:
Beim 2011er ist nix mit pcie 3.0 nur inoffiziell kannste via reg einträge anschalten kann aber zu buggs führen und bringt genau 0.01% leistung
 
wow 1737 unter LN2, dann bringt mehr PT wohl doch mehr
 
er bencht halt mit 2.0, klar ist nu sgpu, aber ein paar punkte wären drin gewesen.
 
Ich hab PCIe 3.0 auch mal aktiviert. Bislang keine Probleme.
 
Egal ob 670,680 oder titan - hatte noch nie irgendwelche probleme mit 3.0 auf dem 2011 brett
 
Muss es nicht, ist aber halt nicht offiziell freigegeben.
 
es ist nur nicht zertifiziert von intel für x79. zum zeitpunkt der der x79 zertifizierung gabs wohl noch keine pcie 3.0 gpus, weshalb nur 2.0 zertifiziert werden konnte.
 
Zuletzt bearbeitet:
Gibt halt das übliche Gesültze von den Herstellern: Keine Ansprüche wenn die Hardware beschädigt wird, wir waren es ja nicht.
 
nutze PCI3.0 seit ich die Titan habe auf Sockel 2011 hab auch keinerlei Probs feststellen können ausser das die CPU etwas mehr Saft brauch im Vergleich zu 2.0 und sich der PCIe Controller=CPU etwas mehr aufheizt ist aber nur geringfügig
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh