[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin momentan eher auf Aquaduct oder Gigant aus, mal sehen was es wird.
 
Also ich habe mittlerweile einige positive Erfahrungen gemacht, daher bleiben sie erstmal.
 
Bin auch schon am grübeln ob ich mir ne 3te zulegen soll ^^ Aber bis jetzt konnte ich mich noch nicht zu durchringen...
 
Mit 3 wird die Sache noch komplizierter als mit 2. Man muss öfter mit den Settings spielen, bis man das gewünschte Ergebnis erreicht hat. Hab gerade Hitman Absolution mit allen vieren gespielt und es war meistens geil.
 
Grad im EVGA Forum gefunden. Offizielle Aussage von Nvidia laut Jacob:

We’ve found an error in our power reporting that under certain circumstances makes it look like there is extra power headroom available. The power readout could, for example, show 90% when in fact you are using 100% of the available power. It’s likely that your card is boosting clocks up until it hits the power limit but the reporting error is causing the power readout to show a number below 100%. Under these circumstances a dramatic increase in fan speed would cause some extra power draw and the GPU voltage and clocks could be dropping in order to stay within the maximum power limits of the card.

We’re working on a fix for the power reporting error and expect to have it available in a few weeks.
 
@thommy96
Beim Auslesen des Verbrauchs (bzw. beim Anzeigen für den Benutzer) gibts wohl einen Fehler der dafür sorgen kann, das beispielsweise nur 90% angezeigt werden, die Karte aber in Wirklichkeit bereits bei 100% ist.
Da die Drosselung aber nicht den angezeigten Wert von 90% berücksichtigt, sondern die tatsächlichen 100%, kann es passieren, das der Chip gedrosselt wird, obwohl man nur 90% angezeigt bekommt.

Wer dann auch noch die Lüftergeschwindigkeit stark nach oben stellt, kann damit rechnen, dass der Chip (Takt und Spannung) weiter gedrosselt wird, damit der Gesamtverbrauch innerhalb des maximal zulässigen Gesamtverbrauchs bleibt.

Soweit mal meine nicht wortgemäße Übersetzung.

ciao Tom
 
Zuletzt bearbeitet:
so ich hab mal ein Bios gebastelt

hat
max boost 1202
boostet direkt auf 1202
hat bei 100% 275W
hat bei 105% 290W
hat 1600 Ram
hat P0 1.1875 Volt

erreicht maximal 99% Power und throttled nicht
Vorteil, man braucht kein Tool mehr mit dem Bios ;)
Nachteil, ist für den einen oder anderen evtl zuviel Takt, müsst ihr mal testen

http://www.notyetavailable.de/naennon/GBOC.zip

Danke! Werd ich mal mit meiner besten Karte probieren. :bigok:
 
Dann passts ja! Deswegen fahr ich schon seit mehreren Jahren auf sGPU! Auch wenn die Frames manchmal nicht durchgehend hoch ausfallen, empfinde ich es in der Darstellung sauberer. Für Bf3 ist aber sicherlich keine Titan notwendig, zumindest nicht bei 1080p@Ultra. C3 sieht da wieder anders aus, da kann man nicht genug Leistung haben!

@coldfingers

Stimme Dir voll zu!

Ich konnte gestern auf die schnelle mal den Singleplayer von BF3 antesten 100fps minimum im SLI
ABER: die Single Titan mit nur 55fps min. war aber im Mutiplayer Match deutlich flüssiger.
(Werde ich heute abend nochmal testen).

FC3 & C3 fühlen sich erst im SLI pudelwohl, komischerweise empfand ich FC3 als ruckelfrei (keine Microruckler) trotz der nur 50-60FPS (wenn man das jetzt nochmal halbiert).

Batman Arkham City stellt sich immer noch als harte Nuss heraus, es läuft zwar schneller den je trotzdem kommt man unter 60fps in gewissen Situationen (physx@max) mit adaptiven VSync läufts dann runder.

Denke ich werde auch hier nochmal extra die GTX680 als physx Karte verbauen und testen.

Hier ist mir noch aufgefallen, dass eine Karte um die 90% Last hatte und die 2te Karte nur um die 51% !?
 
Zuletzt bearbeitet:
Moin Leute,

habe mich in den Wochen nach erscheinen der Titan eigentlich nicht weiter damit beschäftigt und mag jetzt auch nicht die ganze Seiten lesen, meine Frage, wie gut kann man die Titan denn jetzt im Schnitt OCen? Was bringt Wakü, takten die Karten dann von alleine höher wenn sie kühler bleiben?
 
1200
75
nein
ja
 
Antworten auf seine Fragen ;)
 
Du sprichst in Rätseln :stupid:

Simpel, der gute Naennon hat nur etwas übertrieben.
Auf ca. 1200MHz (+20/-50) kann man sie etwa takten, eine Wakü bringt bis zu 75°C (übertrieben, ich würde sagen nur 65°C ;) ), nein, die Karten takten nicht von alleine höher, ja, man kann sie mit Wakü höher takten... ist das so verständlicher? :d

 
Zuletzt bearbeitet:
Ja danke :d

Brauch echt nen Kaffee, und das warten auf Feierabend macht mich fertig da meine beiden Titanen gerade zugestellt worden sind :banana:
 
3 von 4. Damit lebe ich :d
 
Plus Bonuspunkt (Temperaturvergleich unter Wasser) ;)
 
Mir reicht meiner. Erst einmal.- Das Monster rockt bis jetzt jedes Spiel auf 1600p. Ich bin tief beeindruckt. Der rockt alles, was meine beiden 580er im SLI nicht mal ansatzweise geschafft haben :bigok:
OC geht super mit dem Inspector, den ich ohnehin immer mitlaufen habe (einer der Hauptgründe für Nvidia, dieses göttliche Tool) und übertaktet rockt auch ein Singletitan.
 
Zuletzt bearbeitet:
der titan rockt auch ohne ihn zu übertakten, wenn man ihn nicht mit schwachsinnigen einstellungen überfährt.

und wenn einem 50-60fps in farcry3 nicht reichen, dann stellt man halt von 8xAA auf 4xAA oder von HB/HD AO auf SSAO zurück.. dann hat man 70-80fps.

btw,
übrigens ein spiel, das nicht dauerhaft mit max-OC läuft. so zumindest bei mir. ist zwar darstellungstechnisch fehlerfrei, aber irgendwann im spiel gibts immer wieder einen treiberreset.

das spiel ist auch gut als stabilitätstest für CPU-OC zu gebrauchen. senke ich die spannung meines i7 zu weit ab, crasht das spiel schon bei der ersten cutscene.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
die karte rockt. hatte heute zum ersten mal im precision diesen monitor angeguckt, direkt nachdem ich meine ca. 2,5 std. (bin erkältet und krankgeschrieben, da hat man mehr zeit zum zocken) Session Crysis 3 beendet hatte. und der höchstwert war über einen längeren zeitraum 1130 mhz, also schon echt nice *;D

das spiel lief heute wieder die meiste zeit 60+ (zum teil sogar auf 80-90 hoch, in engen - nicht offenen passagen) fps mit alles auf max und 4xsmaa. selten mal unter 50 kurz, das merkt man dann gaaanz kurz. aber stören tuts nit, da es nur selten vorkommt.
habe laut monitor nie das powertarget erreicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh