[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Da steht doch z.b....

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe mal nochmal etwas mit dem PT und Boardlimit gespielt.

Ich habe ein paar Tests bei 375 Watt Boardlimit und 325 Watt GPU PT durchgeführt.
Die D3Marks 11 und Firestrike gehen schon recht übel auf die Leistungsaufnahme.

Bei 1228/1750 und 1.2v kommt es noch nicht zum Throtteln, aber bei 1241/1875 1,21v throttelt die Karte jeweils beim ersten Test der 3DMarks.
Die GPU läuft hier aber noch nicht ins 325 Watt Limit, sondern vielmehr die gesamte Karte ins 375 Watt Boardlimit.
Die GPU allein zieht hier ca. max. 315 Watt, die restlichen 60 Watt müssen somit auf die restliche Karte (VRam und PCB) gehn.
 
Hattest du mal das Bios von svl7 probiert und geschaut ob die Karte da auch drosselt? Kann bei den Taktraten leider nicht testen, das ist meiner Karte vergönnt :(
 
Hattest du mal das Bios von svl7 probiert und geschaut ob die Karte da auch drosselt? Kann bei den Taktraten leider nicht testen, das ist meiner Karte vergönnt :(

Nein, das ist mein Original Bios mit ein paar Änderungen von Orb.
Boardlimit auf 375 Watt und eben 1,21v per Regler.
Das funktioniert auch "wie es soll". Die Karte throttelt (wie gewünscht) entweder bei Erreichen des GPU Powertargets (325 Watt), oder eben bei 375 Watt gesamt, was durchaus schon ganz schön viel ist.
 
Was mich mal interessieren würde: Die ASIC als Maßzahl für die Chipgüte würde sie sich verändern, wenn die GPU degradet, also wenn zuviel Spannung ihn "voraltern" lässt, oder ist das ein fest ins Karten-BIOS geschriebener Wert?

---------- Post added at 19:14 ---------- Previous post was at 19:10 ----------

Geht's Euch auch so?
Nein, weil ich davon ausgehe, dass in der nächsten Runde wieder ein Performance-Chip à la GM124 vorgeschickt wird, der leistungsmäßig für uns Titanbesitzer nicht lohnend sein wird.
 
Von Maxwell würd ich mir keinen all zu großen Vorsprung erhoffen hier legt nvidia klar den Fokus erstmals auf den so dringend benötigten CPU Part um bei sich abzeichnenden Trends am Ball zu bleiben;)
 
@bios

also ich komme mit dem svl7 bios nicht wirklich klar - irgendwie fühlt es sich an, als sei das default-PT zu hoch eingestellt, denn so leicht lassen sich mit dem standard-bios keine treiberresets auslösen. am VRAM-takt geht mit dem modbios irgendwie auch nichts an meiner asuskarte.

back zum original und auf 200punkte im firestrike pfeiffen.


(..)

mfg
tobi
 
<-- hat mit den zwei Titanen endlich genug Leistung für alle aktuellen Games.
<-- schielt nicht weiter.
 
VIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Geht wirklich mehr takt mit dem svl7 bios???

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Kann ich nicht behaupten.
Limitierender Faktor bei offenem BIOS ist weiterhin die GPU selbst.


Sent from my iPad using Hardwareluxx app
 
Ist das normal das trotz GTX Titan und mit übertaktung von GPU Takt +140 Mhz und Memory Takt +200Mhz bei Metro Last Light die FPS bis zu 20 FPS runter gehen? Alles very high und ,,nur'' 2xmsaa und ,,nur'' Full HD. Sonst läuft flüssig, aber das die fps so stark sinken können hätt ich nicht gedacht, auch wenn es nur selten vor kommt

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Ist das normal das trotz GTX Titan und mit übertaktung von GPU Takt +140 Mhz und Memory Takt +200Mhz bei Metro Last Light die FPS bis zu 20 FPS runter gehen? Alles very high und ,,nur'' 2xmsaa und ,,nur'' Full HD. Sonst läuft flüssig, aber das die fps so stark sinken können hätt ich nicht gedacht, auch wenn es nur selten vor kommt

In Metro Last Light gibt es kein MSAA. Das ist SSAA;) (spielinternes OGSSAA)
Wenn du PhysX anhast, dann können die Fps so stark einbrechen, ja.
 
Stimmt, meinte 2xSSAA^^ ja hab PhysX eingeschaltet, damit es realistischer wirkt. Ohne physX kann ich mir nix vorstellen^^

Gesendet von meinem GT-I9505 mit der Hardwareluxx App

---------- Post added at 22:52 ---------- Previous post was at 22:49 ----------

Würde ne extra karte nur für PhysX helfen?

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Kälte ja...löten nein!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Kann ich auch die GTX 680 als PhysX karte nutzen? Wenn ja, einfach karte rein, pin stecker anschließen und los? Oder muss ich die SLI Brücke anschließen?

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Na, ich würde doch den Treiber noch mal neu/drüber installieren. Und dann im Treiber kontrollieren, ob auch die 680er für Physx eingestellt ist. Eine SLI Brücke brauchst du natürlich nicht.
 
Na, ich würde doch den Treiber noch mal neu/drüber installieren. Und dann im Treiber kontrollieren, ob auch die 680er für Physx eingestellt ist. Eine SLI Brücke brauchst du natürlich nicht.

Bringt es denn mehr fps wenn man ne extra physX Karte hat bei PhysX Spielen? Welches sind die Nachteile?

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Bringt es denn mehr fps wenn man ne extra physX Karte hat bei PhysX Spielen? Welches sind die Nachteile?

Gesendet von meinem GT-I9505 mit der Hardwareluxx App

sinnlosigkeit? mehr hitze, höhere leistungsaufnahme des systems, steigender anspruch an das NT und verschwendung weil die GTX680 für physik viel zu oversized ist. dazu kommt noch, dass das durchschnittsmainboard die lanes kastriert, wenn man mehr als eine graka reinsteckt.

meine versuche mit titan + GTX690 haben gezeigt, dass eine GTX680 zu maximal 25-33% belastet wird, wenn man sie für physik reserviert (metro LL, GPU-B reserviert, 915MHz stocktakt).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die Auslastung der PhysX-Karte ist aber immer in dem Bereich, egal welche man verwendet. Scheinbar werden nicht alle Ausführungs-Einheiten der Karte für PhysX gebraucht. Hier als Beispiel eine GTX280 (GPU3) neben einer HD5970 als EXTRA PhysX-Karte (bringt in einem AMD-System natürlich FPS)



Ob es Punkte bringt hängt dann wohl sehr individuell von der verwendeten Software/Hardware ab und kann nicht generell über einen Kamm geschehrt werden.

Wer gerne ne 400 Euro-Karte zum 99%igen nichtstun verdammen möchte, der soll sie halt in seinen Rechner stecken, wenn es denn in der einen Software 10 FPS mehr bringt. Soll ja Leute geben, denen das egal ist :-)
Wenn mein Lieblings-Spiel davon profitiert ... warum nicht.
Auf der anderen Seite: Heavy-PhysX-Load und 30 FPS ... da gewöhnt man sich auch über die Jahre dranne^^

Aber .. wenn ich da z.b. an grafisch weniger anspruchsvolle Games denke, da lohnt es sich mehr das SLI aufzulösen, und die 2. Karte für PhysX zu reservieren, als eine 3. zu verbauen.

Beispiel BAC


Settings

GTX 590 im Single-Modus, PhysX auf die gleiche Karte wie die Renderarbeit gezwungen (20/84/48)

GTX 590 im Single-Modus, CPU-PhysX (15/86/43)

GTX590 im Single-Modus, PhysX auf der GT240 (17/80/46)

GTX590 im Single-Modus, PhyX auf Auto was die 2. GPU der 590 benutzt (28/86/58)

GTX590 im Single-Modus, PhysX auf die 2. GPU gezwungen (27/93/59)

GTX590 im SLI-Modus (Beschissenes SLI-Profil), PhysX auf die GT240 gezwungen (18/88/49)

GTX590 im SLI-Modus (Beschissenes SLI-Profil), PhysX auf Auto was die GT240 nutzt (17/90/50)

GTX590 im SLI-Modus (Beschissenes SLI-Profil), PhysX auf eine der beiden GPUs gezwungen (24/101/56)


Meine Meinung hängt übrigens mit den Min-Frames zusammen, die gibts nämlich in der Szene wo die Eiskanone wie blöde durch die Gegend ballert.
 
Zuletzt bearbeitet:
so'ne olle GT240 hatte ich anno dunnemals auch als physX-karte stecken.

ich würde genau dann über eine PPU nachdenken, wenn die haupt-GPU für HW-physX zu schwach ist.

da ich aber eh kaum noch zocke, kann es freilich sein, dass es inzwischen ein must-have ist.. in metro jedenfalls nicht der fall.

wer eh ein SLi-system verwenden muss, kann ja von fall zu fall eine GPU für physik abstellen; vorsätzlich eine PPU anschaffen, würde ich heute nicht mehr. und erst recht nicht, wenn sie nur als PPU dienen soll.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh