[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
stimmt, satte 25-30 grad weniger als unter luft ist wohl ein ausreichendes argument. und das flüsterleise
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Immerwieder ein Erlebnis wenns bei mir im Zimmer Kalt ist, wie tief dann die Idle Temps sind.

 
Ach so. Dann deute ich wahrscheinlich immer irgendwelche Sachen in deine posts hinein :-)

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

ja meinen Zynismus, Sarkasmus und Humor muss man leider erst kennenlernen ;)

sicher reicht eine, wollte auch ma posten wenn man schon SLI hat

ich habs auch nur geholt weil ich 690 und Titan SLI bei Kollegen gesehen hatte, wenns noch so wäre wie zu GTX 295 Zeiten oder 4870X2 hätte ich es nicht geholt...

derzeit ist es ok, Nachteile sind Strom und Hitze, Ruckler hab ich noch keine bemerkt
 

Hitze?! mit WaKü? ;)

Ruckler habe ich mit SLI überhaupt nicht, das Crossfire damals war allerdings ein Alptraum.

Das Strom Argument lass ich noch zählen, aber wer 2K für GPUs hinlegt, der kann sich den Strom dafür auch noch leisten.

Vorteile wären übrigens brachiale und bedingunglose Rechengewalt :love:
 
ja es hat mich diesmal überzeugt
und Nachteile warn nur aufgezählt
Strom juckt mich nicht
 
Das Strom Argument lass ich noch zählen, aber wer 2K für GPUs hinlegt, der kann sich den Strom dafür auch noch leisten.

Vorteile wären übrigens brachiale und bedingunglose Rechengewalt :love:

Genau so ist es, und es hat sich jeder Cent gelohnt was die Karten gekostet haben.
 
Fast 19k... Schon pervers Naennon :d
 
ja 10 Minuten, es kann auch 900W stemmen, aber irgendwann is halt Ende

naja mal ein 1200er holen
 
110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Moin Kollegen. Wie ich hier lesen kann haben ja schon welche Sli Titanen. Wollte mal fragen ob sich das wirklich lohnt. Und wie der Eindruck ist. Möchte mir nämlich auch demnächst eine zweite zulegen. Denn mein NT ist definitiv unterfordert :)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
ja immer rein damit, knallt wie nix ;)
 
In den meisten Spielen wirst du wohl unglaublich viel Power haben, ich bin von SLI (580er) zu CF (7970er) und jetzt wieder zu SGPU (Titan) gewechselt, weil ich eben auch Indie-Games spiele und in denen bringt MGPU halt gar nix. Außerdem hatte ich auch in einigen AAA Spielen Probleme, wie z.B. in AC3 und GTA IV.

Lg
 
Dafür kann man ja im Treiber bei Spielen die keinen nutzen aus SLI ziehen bzw Probleme machen einfach auf Single GPU stellen.
 
@DragonClaVV Ja aber, dann zahlst du eben mehr ohne Vorteil. Deshalb bleib ich pers. erstmal bei SGPU :)
@webmi Bei mir wars CF ^^
 
Moin Kollegen. Wie ich hier lesen kann haben ja schon welche Sli Titanen. Wollte mal fragen ob sich das wirklich lohnt. Und wie der Eindruck ist. Möchte mir nämlich auch demnächst eine zweite zulegen. Denn mein NT ist definitiv unterfordert :)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

Habe ein 3-way-Titan-SLI SC und da reicht das Enermax 1.200W Platinum dicke (ohne extra OC der GPU)! :)

Ob es sich lohnt kann man nur jeder selber beantworten, kommt darauf an welche Auflösungen man bevorzugt und welche Games man zockt.
Crysis 3 ruckelt sich mit einer Titan auch nen Wolf bei 2560x1440 - das macht dann auch kein Spaß!

Zum Stromverbrauch kann ich nur sagen, die Titan ist für Ihre Leistung relativ sparsam.
Ich habe es schon öfters gelesen das zb. Games im SLI - weniger (!) - Strom verbrauchen als eine Single Titan.

Beim 3-Way-SLI SC sind es mal um die 750W öfters auch weniger, extrem Games wie TR schaffen auch schon mal 900W max. aber die 1000W habe ich noch nie gesehen (mit V-Sync aus)


BTW:
an meine dritte Titan bin ich auch eher zufällig gestoßen ursprünglich wollte ich für ein 2tes System eine GTX780 kaufen,
aber bin zum Schluss gekommen, daß es eher Sinn machen würde eine Titan zu nehmen um später mal ein 3way SLI aufzubauen (mit der GTX780 halt nicht möglich).
Ein 12% Rabatt Coupon tat sein übrigens - allerdings ist die Titan nie in den 2ten PC gelandet sondern direkt im Hauptrechner ^^

Der Idle Verbrauch beträgt ca. 118W das ist wohl kaum als dramatisch zu bezeichnen ;)
 
Zuletzt bearbeitet:
Ok ^^

Edit:

Habe die Karten auch alle auf 5 Jahre Garantie erweitert, so lange müssen die halten,
Kohle werd ich dafür zukünftig leider nicht mehr übrig haben.

Wenigsten einmal auf die K*cke gehaut :xmas:

Wer weiß, vielleicht gibts in 5 Jahren schon Karten die schneller als das 3way-SLI sind :d
 
Zuletzt bearbeitet:
@webmi Bei mir wars CF ^^

das wiederum erklärt eigtl schon alles :asthanos:

@ tenchi, ist bestimmt angenehm, neben einem so leisen system die schiere power des selbigen zu genießen :teufel:
beim 2-way hat mich das schon immer gestört, aber als auch bei mir mal ein 3-way (680GTX) lief, war es unerträglich
 
@webmi

Hattest Du das Referenz Design?

Weil das würde mich eigentlich wundern!? Ok ich hatte nur ein 2-way SLI GTX680 mit AirFlowBracket, daß lief auch sehr leise (es reichte dafür auch ein 500W NT).

Das GTX680 Classified 3-way SLI lief auch sehr ruhig, bei traumhaften Temps!

Da hatte ich schon einige Karten die als einzel Karte - deutlich! - lauter waren..

Rekord war ein defekte ATI 5870 wo der Lüfter auf maximum lief,
ein Staubsauger war nix gegen! :fresse2:
 
Zuletzt bearbeitet:
Hatte 3x 680GTX im Referenz Design. Die Karten wurden nach obenhin immer wärmer. Hatte im Sommer 95/92/88°C oder so. Die Lüfter konnten das selbst unter Vollgas (Autolüfter) nicht kontrollieren und waren entsprechend laut. War wirklich kein schönes Erlebnis.

Du hast dein Zeug aber nicht oced, oder? Wenn ich 500W NT lese, muss ich das einfach fragen ^^
 
Zuletzt bearbeitet:
Oha krasse Temps, ok da kann es wirklich nur nur sehr lauf werden!

Ne, bei mir waren die ohne OC (System: 3770K Asus Maximus V)
 
Nachricht gelöscht
 

Anhänge

  • 3D.JPG
    3D.JPG
    16 KB · Aufrufe: 63
  • 3D1.JPG
    3D1.JPG
    15,1 KB · Aufrufe: 62
@DragonClaVV Ja aber, dann zahlst du eben mehr ohne Vorteil. Deshalb bleib ich pers. erstmal bei SGPU :)
@webmi Bei mir wars CF ^^

Schon klar aber was hilfts wenn ein Spiel eben nicht gut mit SLI läuft. Dann wirds eben deaktiviert. Wenn ich was aktuelles zocke wo es lüppt ist ja alles In Ordnung.

Nur weil man SLI hat muss man es ja nicht auf biegen und brechen bei jedem Spiel nutzen.

Ich hatte längere zeit SLI mit 680ern und da hab ich es bei Spielen die mit SLI nicht rund liefen auch nicht genutzt. Da würde ich nicht sagen das ich umsonst doppelt gezahlt habe denn die Spiele die nicht rund liefen konnte man an einer halben Hand abzählen.

Mit SGPU gehst du dem ganzen natürlich aus dem Weg und mir reicht eine Titan bei weitem momentan. Eine zweite wäre zwar geil aber momentan siegt ausnahmsweise doch mal die Vernunft :d
 
@tenchi, ok, hätte mich gewundert, bei 500W, denn mein 750er hat schon fast gekotzt mit 2x680 oced und 3930k oced

Nur weil man SLI hat muss man es ja nicht auf biegen und brechen bei jedem Spiel nutzen.

also ich geb doch nich immer wieder tausende von euros aus, damit ich dann doch nur mit ener karte spiele und die andere schön vor sich dümpelt...
ich hatte bisher kein einziges game, das ich nicht mit sli zocken konnte. es lag eigtl immer an einem falschen bzw fehlenden sli profil.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh