[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Vor allem hätte ich den 2600K so fort ausgelotet bevor der Titan eingezogen ist der brauch doch Beihilfe um in Fahrt zu kommen.
Das ist doch so alls wenn man Benzin in ein Formel 1 auto kippt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
keine ahnung ob man die 1,2v fuer den takt braucht ^^

was max da is wird angemacht und fertig
 
21,5 zoller und ne titan???

das ist ja wie ein polo mit 650ps maschine - na wenn der mal nicht abhebt -lol-
 
mehr wie 1015/1700 geht nicht oder :kotz:

Unter Wasser bestimmt, der taktet nur runter weil er die Temps. und das Powertaget nicht unter einen Hut bekommt... hoffe ich :d
Gebt ihm eine Wasserkühlung! Kawusch...
 
21,5 zoller und ne titan???

das ist ja wie ein polo mit 650ps maschine - na wenn der mal nicht abhebt -lol-

*:P

Ich müsste jetzt nur mal herausfinden, ob mein Monitor downsampling untersützt. habe ein bisl gegoogled bzgl. monitoren und selbst bei 23" steht (die, welche ich mir angeguckt habe) maximale auflösung 1920 * 1080. hmmm, kann man mit denen trotzdem downsamplen dann ?! Oder muss in den Produktdetails diese 2560*xy oder wie auch immer die Auflösung da ist mit angegeben werden ?
 
Zuletzt bearbeitet:
Der unterschied zwischen Formel1 Treibstoff und dem normalen ist marginal ;)
 
@naennon

nun, wie ist dein fazit nach den vorläufigen tests?
unabhängig von den fps oder benchmarkergebnissen.
wie läuft die karte gefühlt (wenn man das in irgendeiner form beschreiben kann)
im verhältnis zu deiner 680er.

möglicherweise interessiert das auch andere, die evtl. umsteigen möchten.
 
Nicht nur das Scully man erreicht das PT einfach schneller und so kann man auch herausfinden ob die GPU am Ende ist oder das PT.
Dachte wir sind hier Pros also Naennon gib mal Kette:)
 
NVIDIA GeForce GTX Titan video card benchmark result - Intel Core i7-3770K Processor,ASRock Z77 OC Formula

BÄMM!!!


die Karte erreicht weder das Powertarget mit 1,2V (es waren maximal 101%) noch mehr als 82°, also beides trotz OV unter den Grenzen
maximal stable 5 Runs Heaven4 und Fire Strike sind 975 Core/1700Ram
das boostet bis auf 1175 und runter bis auf 1100
also kann mans vergleichen mit ner 680 auf 1100 mit 2688 Cores
das subjektive Empfinden ist: :hail:

ich denke es wird Chips gegen die auch etwas mehr Takt machen, Powertarget wird imho nicht wirklich viel helfen
was helfen wird ist Wakü, denn man kann auswählen was Boost 2.0 macht
entweder schaut er primär aufs Target (wird nie erreicht) oder primär auf die Temp (wenn man da unter 40-50 bleibt wird er nicht auf 1100 runter gehen sondern bei 1150 bleiben)
was scully und ich übrigens prophezeit hatten

also für die Interessenten hier: ~1150 dürften mit oder ohne Wakü nach güte des Chips die Grenze ähnich den 1200 bei der 680 sein
mal geht mehr, mal weniger
 
Die Lüfterkurve setzt ab 80°C ein. Heißt also, wenn du die Kurve nicht mitänderst, versucht der Kühler die Karte auf 80°C zu halten.

/edit: 1150MHz sind doch klasse für solch einen Chip. 7970 schaffen selbst mit 1,25V kaum mehr als 1250Mhz.
 
Zuletzt bearbeitet:
also für die Interessenten hier: ~1150 dürften mit oder ohne Wakü nach güte des Chips die Grenze ähnich den 1200 bei der 680 sein

Ich hab ja auch nichts anderes gesagt:d


Aber mal ganz subjektiv: Nimmt man in 1080p wirklich einen so gewaltigen Vorsprung war, damit sich ein wechsel lohnt? Und wie sieht es in 1440p aus? -Also, rein Subjektiv.
 
also ich warte noch auf meine Wakü und gut ist :)
bin zufrieden und selbst WENN es mod Bios gibt und/oder 1,3V Karten oder 150PT
mehr als 1200 sind nicht einfach so drin
was man nicht vergessen darf, Fehlerkorrektur bei 2688 Cores ist wesentlich größer und wichtiger als bei 1536

---------- Post added at 13:54 ---------- Previous post was at 13:52 ----------

Ich hab ja auch nichts anderes gesagt:d


Aber mal ganz subjektiv: Nimmt man in 1080p wirklich einen so gewaltigen Vorsprung war, damit sich ein wechsel lohnt? Und wie sieht es in 1440p aus? -Also, rein Subjektiv.


ich hatte 2 680 SLI kurz da
Titan mit dem OC fühlt sich irgendwie an wie zwischen ner 680 und nem 680 SLI
viel smoother aber wirklich gute Performance
rein von FPS und Feeling würde ich sagen GTX 680 mal 1,5 :)
in 1080P und 1440 jeweils
die 680er SLI hatten imho etwas mehr Power, aber 1 Titan fühlt sich einfach besser an
 
ich hatte 2 680 SLI kurz da
Titan mit dem OC fühlt sich irgendwie an wie zwischen ner 680 und nem 680 SLI
viel smoother aber wirklich gute Performance
rein von FPS und Feeling würde ich sagen GTX 680 mal 1,5 :)
in 1080P und 1440 jeweils
die 680er SLI hatten imho etwas mehr Power, aber 1 Titan fühlt sich einfach besser an

Also wohl genau die Selbe erfahrung, wie bei mir damals (GTX 580 SLI -> GTX 680)... Ich sträube mich ja immer noch soviel geld für ne Karte auszugeben, die ende des Jahres nur noch 500€ kosten könnte... Aber das ding ist einfach zu geil. Und SLI tu ich mir mit 2GiB nicht an, ist für meine Settings einfach zu wenig.
 
der Preis is Scheisse
die Karte geil

kürzer kann ich es nicht sagen :)
 
Naennon, schon getestet wie sich das in den Benches auswirkt MIT Ram OC ?

Ich hatte mit den 680ern nen Coretakt von 1188 angelegt, machte effektiv dann 1267 unter Last bei 1,175v.
Interessant ist, dass weder PWTGT noch Tempregelung voll ausgelastet werden. Also haben wir eine Notbremse bei 80-85°C von NV eingebaut, auch wenn man mehr einstellt und den ersten throttle bei 60°C anstatt bei 70°C wie bei den 680ern. Die Voltage scheint aber anzuliegen von den eingestellten 1,2v.
 
der Preis is Scheisse
die Karte geil

kürzer kann ich es nicht sagen :)

Das ist ja das schlimme: ich sehe es ja genauso:fresse: ... werde wohl wirklich noch etwas abwarten. Dann werden sich die Preise und die Verfügbarkeit etwas besser einpendeln...

Richtig, Grinsemann: Bandbreitentest:d (bitte aber den takt fixieren, sonst sind Ergebnisse nicht repräsentativ, da GPU-Boost).
 
Die Lüfterkurve setzt ab 80°C ein. Heißt also, wenn du die Kurve nicht mitänderst, versucht der Kühler die Karte auf 80°C zu halten.

/edit: 1150MHz sind doch klasse für solch einen Chip. 7970 schaffen selbst mit 1,25V kaum mehr als 1250Mhz.

Ich habe sowohl das PT auf 106% sowie auch die Temp auf 94°C gesetzt. Also müsste er ja versuchen die Karte auf ca. 94°C zu halten.

Aber ich erreich weder das PT nur die Zieltemperatur...
 
Ich habe sowohl das PT auf 106% sowie auch die Temp auf 94°C gesetzt. Also müsste er ja versuchen die Karte auf ca. 94°C zu halten.

Aber ich erreich weder das PT nur die Zieltemperatur...

Du musst die Lüftereinstellung ändern. Per Default regelt nVidia den Lüfter höher, wenn die 80°C erreicht werden.
 
Mal ne andere frage.
Hat einer auch das problem, das windows nur das windows basis darstellen kann ?
Liegt das vllt am treiber ?
Komm da gerade nicht so wirklich mit klar ^^

Edit: hat sich erledigt -.-
 
Zuletzt bearbeitet:
Du musst die Lüftereinstellung ändern. Per Default regelt nVidia den Lüfter höher, wenn die 80°C erreicht werden.

Die Lüfterkurve ändert doch nur das verhalten wie der Lüfter regelt. Aber er geht ja garnicht über 83°C. Da müsste ich den Lüfter ja langsamer drehen lassen um es zu provozieren... weil er fängt die Temperatur ja schon vorher ab... weiste wie ich das meine ?

Die taktet ja schon runter obwohl nichtmal das PT oder die Temperatur erreicht ist...
 
Zuletzt bearbeitet:
Nimm mal eine andere Anwendung, die keinen Szenenwechsel hat. Eventuell taktet sich die Karten runter, weil die Last sich durch den Szenenwechsel verringert.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh