[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Denke schon, dass es von Belang ist, auf welche Weise genau, d.h. mit welchen Routinen/Toleranzen etc. die jeweiligen Boardpartner die Platinen bestücken und da gibt es sicherlich Unterschiede. ;)

Die erste Charge, also wahrscheinlich bis vor kurzem fast alle Karten kamen von NV direkt, da ist also nur ein Aufkleber vom Hersteller drauf.

---------- Post added at 09:27 ---------- Previous post was at 09:26 ----------

Wer schweist den nicht ein?

Ich weiß nicht ob es bei allen so ist, aber mein Zotac´s waren beispielsweise nicht in Folie eingeschweißt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meine Asus Mainboards waren auch nie eingeschweist könnte mir das bei dennen auch gut vorstellen.
 
Danke Tobi wir geladen.
Hier findet der Titan seine Bleibe LIAN LI TYR PC-X2000

<3 <3 <3

mein x2000er in der sig, das ding ist so rattenscharf. welches modell genau? hast du bilder vom wasserumbau. ich bin immernoch am grübeln wie ich es anstellen soll. hoffe ich bekomme vorne einen 420 reingedremelt. bilde mir einen mora3 1260 an der rechten seitenwand ein. suche ideen immo :-)
 
Zuletzt bearbeitet:
Lol das selbe wie in deiner SIG wie geil du hast auch ein Enermax Platimax drin war noch die Version ohne USB 3.0 kann man aber nachrüsten:)
Denke das wird einem Titan gerecht um die 450 Euro habe ich damals für berapert.
 
Zuletzt bearbeitet:
meiner steht eh unterm tisch, musste dei tischbeine hochdrehen, damit ich ihn drunter bekommen habe :-)

yes, auch bei mir schlummert das platimax 1200 im tyr x2000BW. die neuen modelle finde ich nicht mehr so gut, dennen fehlt die midplate etc.

sry f. den ot
 
meiner steht eh unterm tisch, musste dei tischbeine hochdrehen, damit ich ihn drunter bekommen habe :-)
Lol selbes Problem da für kommt man gut an den Power Buton.:fresse:man wird ja nicht jünger.

Heute Abend gibt es noch Bilder wo die Wakkü verbaut ist in dem Gehäuse inc Titan
Jo auch sorry für OT.
Mmh Sendungsverfolgung steht seit Gestern 13Uhr immer noch auf 60%.
 
Zuletzt bearbeitet:
der Powerbutton ist für Katzenbesitzer aber eher nachteilig. Nicht nur einmal ist das blöde Vie dadrauf gelatscht :hwluxx:
Nun habe ich den soweit unterm Tisch das sie nicht mehr draufspringen mag, aber die Optik geht flöten :(
USB3 ist auch gut, denn nur so bleibt Platz für den onboardUSB am R3E den ich fürn poweradjust benötige.

Die Titanen müssten ja nun langsam aber sicher günstiger werden wenn die 780er im Mai erscheinen. Sollten die nicht erst ende des Jahres kommen ?
 
Ich glaube so lange AMD nicht mit neuen Karten nach zieht passiert da nix im Preis.

Bei mir wissen die 3 Katzen das sie ihr Fehl los sind wenn sie auf dem Rechner rum turnen.:)
 
Wenn der Postbote morgens klingelt ...
IMG_3947.JPG

Was sich da drin wohl versteckt ... ?
IMG_3948.JPG IMG_3950.JPG IMG_3951.JPG
Warum denn so schüchtern ?

Ahh ... da haben wir ja den Exoten :)
IMG_3952.JPG
 
Lecker outfit die Box.
 
Werd ich haben - Danke ;)
Erste Ergebnisse wohl bis heute Abend, exzessives oc aber erst mit Wakü ... wenn sich Aquacomputer mal nicht so Zeit lassen würde.
 


solange NVidia auf dem PCB steht, kommen die karten alle vom selben band bzw. aus der selben fab (referenzkarten).

"spulenfiepen" kann auch ne wechselwirkung mit dem NT sein.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@TobiWahnKenobi

Welche Karte ist eigentlich schwerer? Die 690 oder die Titan?
 
Juhuuuu,

also kann jetzt inzwischen sagen Dead Island Riptide kommt auch gut auf die 1176mhz klar *:d keine Probleme auch nach längerem zocken. Habe es jetzt doch angefangen *:( - wollte es ja eigentlich anch hinten schieben und erst Last Light zocken.

Was doof an Riptide ist 3840 * 2160 downsampling geht nicht. habe es in der config eingetragen vom spiel (mit 2880 * 1620 gehts ohne probleme), aber es startet das spiel nur in 2880 * 1620 ... warum ist das so *:d ??? Weil ich kriege mit 2880*1620 immern och 200-240 fps. also wollte ich es noch weiter downsamplen. <- funktioniert das, wenn ich meinen bildschirm manuell auf diese auflösung ändere und dann das Spiel starte (so hatte ich ees ja bisher immer gemacht beim ersten mal für metro und stalker) ?? Weil bei riptide habe ich bisher nur mit der video.scr diesbezüglich gearbeitet.

Naja was auch nicht ging/geht... MSAA forcieren (inspektor + control panel). Übernimmt das Spiel einfach nicht. habe es genauso gemacht, wie im internet (für dead island 1 noch) beschrieben, aber Riptide mag nicht.

Naja, es gibt den dead island helper. in dem programm kann ich zumindest SMAA forcieren. Das funktioniert *:d - habe die höchste Stufe (SMAA Ultra) genommen und gibt trotzdem noch 140 fps mit downsampling *:d !
 
Zuletzt bearbeitet:
.

"spulenfiepen" kann auch ne wechselwirkung mit dem NT sein.


(..)

mfg
tobi

?? wat fürn Ding ? Könnte mir das mal bitte einer erklären !? Danke

NT...das Einzige was ich abgesehen vom Kühler anders habe sind die PCIe Verlängerungen. Anstatt Phobya sind es nun die Bitfenix

---------- Post added at 16:24 ---------- Previous post was at 15:04 ----------

mit welchen Einstellungen testet ihr Furmark ?
 
Bei meiner EVGA fiept auch mix, egal welche fps, egal welche Auslastung.
Und ich muss sagen, ich hatte noch nie so einen unaufdringlichen Lüfter auf einer Graka.

Ob du einen brauchst ... vielmehr musst Du dich fragen, ob Du einen willst :d
 
Sehe ich das richtig das wenn ich eine Gtx Titan unter Wasser habe es besser ist einen niedrigen Asic Wert zu haben?
 


Niedrige ASIC werden nur weniger warm, sind aber keine OC Wunder
Hohe ASIC werden im OC warm, gehen dafür aber besser

Mit Wakü also mehr Vorteil als Nachteil
 
Komisch habe zwar "nur" 65.5 Asic aber bekomme die Karte mit 1202 Mhz 3D Mark 11 stabil!!!! 1,187V
 
Zuletzt bearbeitet:
es sind ja auch keine spruchreifen unterschiede in der maximalfrequenz von denen hier die rede ist.

@broly
habe ich nicht gewogen - sind beide recht schwer.



(..)

mfg
tobi
 
3DMark stable heisst nix ;)

Nimm AC3 oder FC3 und du weisst was stable ist
 
Stimmt es ist nicht FC 3 stabil!!!

---------- Post added at 18:40 ---------- Previous post was at 18:39 ----------

Macht mir aber nichts da diese Karte durchgehend 1071 mhz hat beim spielen als Standart ! Das reicht mir!!!
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh