[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Paket ist gestern erst um 19:04 rausgegangen.
Heute gabs also keine Karte für mich und morgen ist Feiertag ... :hwluxx:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bitte sag bescheid wenn die Dinger ankommen. Der Shopstatus ab Lager scheint nur dem Kundenfang zu dienen. Anfang letzter Woche bestellt und es hat sich immer noch nichts getan.

Ich kann das leider bestätigen. Damals habe ich auch eine Weile auf den 7970er Heatkiller warten müssen. Status war "Auf Lager" aber trotzdem tat sich einige Zeit nichts.

Ich drück die Daumen. ;)
 
ich habe eben titan-single vs. gtx690 in crysis3 @3D-Vision durchgebencht..
3DCenter Forum - Einzelnen Beitrag anzeigen - Der 3D (Vision) Sammelthread

das spricht doch für die Titan, auch wenn sie etwas weniger fps anzeigt.

GTX690 mit 4x AA average 2x27,79fps
Titan mit 4xAA average 43,982

wichtig ist doch der gefühlte Part.

---------- Post added at 17:23 ---------- Previous post was at 17:17 ----------

ist freitag bei dir kein feiertag?

doch, schrieb ich ja, aber dann kommt sie hoffendlich Samstag. Wenn nicht, flipp ich aus^^
 
(_._) .... meinst nicht mich hat man jetzt genug leiden lassen !? :shot:
 
:)
ich weiß doch das der mich nur ärgern will.

Ich freue mich mehr wie die Kinder auf Ostern^^
Zwar muß ich mit der einen Karte erstmal den Kompromiss eingehen die 3 TFTs mit nur 60hz laufen zu lassen, passt aber trotzdem.
2xDVI und 1x HDMI. Welcher wie angeschlossen ist dürfte ja egal sein.

Ist der Patch für Multimonitor schon raus bei TombRaider ?
Ich hab da son Bock drauf :d
 
bei mir laufen 3monis mit einer karte soweit ganz gut, selbst c3 ist gut spielbar.
klar laufen keine ultrasettings. bisserl runter muss man schon mit den einstellungen.
ansonsten top mit modbios @1150 ohne throtteln.
 
hat da jetzt nur den Bench betroffen oder allgemein mit den Matschtexturen bei MM ?

---------- Post added at 20:16 ---------- Previous post was at 20:06 ----------

Müsste nur das Haare-Zeug laufen :-)

60 fps v-sync an ?

wie gut läuft das mit nur einer ? erstaunlich wenig vrambelegung^^

€dit: ich schnall die Auflösung nicht :hmm:
 
Zuletzt bearbeitet:
hab heute mal eine der karten mit mx-4 paste versehen. es haben sich 4-5°C besserung eingestellt. es hat mich einfach geärgert, das eine karte immer ca 10-14°C wärmer war und das war komischerweise die mit der bessern asic.
jetzt liegen die freunde nur noch 9-10°C auseinander. die karte mit der schlechteren asic braucht zwar etwas mehr saft für den gleichen takt, schlägt mir aber lange nicht ins temp target und ist damit stable. die mit der besseren asic hingegen,
braucht etwas weniger saft, schlägt aber regelmäßig ins temp target. dabei ist auch egal was ich einstelle. das temp target selbst zu managen zu können ist blanker hohn, den die karte throttelt bei 80°C, egal ob ich 95°C einstelle.

ich hätte gute lust mir ne wakü zu holen, wenns nicht ein so derber aufwand wäre.
 
originales bios auf der karte? und mit wieviel % lüfter läuft sie bei +80°?
 
flashen will ich die 1900€ investition nicht. da hab ich echt skrupel vor. früher war das kein ding, da habe ich lüfter umgebaut und meinen oc in bios geflasht. aber bei den titans hab ich schiss. nicht wegen der garantie. eher wegen dem wiederverkaufswert.
selbst wenn mal eine abraucht, hab ich mit custom bios echt probleme, oder?

ein custom lüfterprofil hab ich laufen.

default is 50°C-50% lüfter / 80°C-80% lüfter
bei mir läuft 50°C-53% lüfter / 80°C-84% lüfter
 
ach...stimmt^^

bin nie auf die Idee gekommen die so anzuordnen. Selbst wenn ich es wollte hätte ich ein Problem wegen der Schräge.
Das gefällt dir besser als 5760x1080?
 
sicher ist das flashen einer karte immer ein gewisses risiko - zumindest sollte man sich sein originales bios aufjedenfall sichern, wie hier mehrmals schon erwähnt worden ist.
da im stock bios die s/n der karte implementiert ist.
ich hab es gewagt und mir ein modbios auf meine karte zurechtgefeilt. läuft mit 1150 optimal ohne runter zu takten.
max. 71°C bei 75% lüfter. mit original lüfter.
mit dem mk-26 umbau. max. 55°C. bei 55% lüfter. allerdings, bin ich hier noch am tüfteln, da mit die spawa temps noch nicht 100%ig gefallen.

Logo, mit wakü wäre das einfacher in den griff zu bekommen, mir ist das aber auch zuviel aufwand - und wenn dann, nur das beste - somit wieder 5-6 scheine dahin :)
 
genau die gleiche ansicht habe ich auch, wenn dann, nur das feinste. dazu kommt der umbau am case. und mit 600 scheinen biste wahrscheinlich lange nicht dabei bei einem komplettumbau auf wasser.

auch wenn ich mir das bios sichere, ist mir das zu heiß. ich müsste mich mal damit beschäfitgen und mir die tools ansehen. hab das lange nicht mehr gemacht und bin auch deswegen skeptisch.
bei zwei karten wäre es wahrschienlich sogar besser, eine auszubauen und die eine dann zu sichern um sie anschießend zu flashen. dann das ganze mit der anderen karte.

ich weiß nicht ob mir das risiko die 20 mhz wert ist. unter wasser sicher sinnvoller.
 
Zuletzt bearbeitet:
Das gefällt dir besser als 5760x1080?

Es läuft mehr Software ohne Nacharbeit so, weil das Seitenverhältnis nicht so extrem ist. Außerdem mag ich diese riesen Randverzerrung nicht, müsste also sowieso immer das FOV runterregeln. Du benutzt bestimmt für jedes 3. Game den Flawless Widescreen, weil es ohne nicht geht.
 
kepler bios tweaker und nvflash sind die einzigen tools die man benötigt.
ein bisserl geht einem schon der kit, wenn man über die konsole die karte flasht - aber was solls, ich hab schon soviel asche in hardware investiert die letzten 10 jahre. no risk no fun.
ich hab nen guten dealer, der sie mir auch defekt ersetzen würde. ich kaufe im jahr für mehr als 20.000 Euronen ein. der sollte sich mal unterstehen... :)
 
Flawless Widescreen unterstützt aber nur 1-2 Titel die ich spiele.
Die Randverzerrung ist gewöhnungsbedürftig, das stimmt. Aber es stört mich nicht so da es im Augenwinkelbereich liegt. Es trägt aber dem Gefühl bei sich IM Game zu befinden.
Ob 30" TFT oder 47"TV , da kommt das so nicht rüber. Zwar ist die Anzeigehöhe angenehmer, weswegen ich auch liebend gerne größere TFTs hätte, mir wegen der Schräge aber die drei 24"er erstmal reichen müssen. Auf Pivot würde ich dann nichtmal mehr Platz für meine Tasta auf der Arbeitsplatte haben.
Bei BF3 wäre es vielleicht mal angebracht den zu installieren. Bei dem Game ist bei mir aber immo die Luft raus. FC3 habe ich nicht.
 
Bei mir waren es halt so Sachen wie Skyrim, Mass-Effekt und Borderlands, die ich zu der Zeit wo ich die Monis bekommen habe sehr oft zockte. Da funktioniert das HUD nicht vernünftig im Landscape. Daher der Umbau.
 
:)
ich weiß doch das der mich nur ärgern will.

Ich freue mich mehr wie die Kinder auf Ostern^^

Ich hab so das Gefühl das der Osterhase seine Titaneier bei dir im Garten hat fallen lassen musst nur gut umgraben:d



Ja Leckomio sieht das Ding gut aus u damit kommt AC erst jetzt wo ich den "normalen" Nickelwilli schon hier habe:shot:
 
Zuletzt bearbeitet:
kepler bios tweaker und nvflash sind die einzigen tools die man benötigt.
ein bisserl geht einem schon der kit, wenn man über die konsole die karte flasht - aber was solls, ich hab schon soviel asche in hardware investiert die letzten 10 jahre. no risk no fun.
ich hab nen guten dealer, der sie mir auch defekt ersetzen würde. ich kaufe im jahr für mehr als 20.000 Euronen ein. der sollte sich mal unterstehen... :)

welcher Kit?

man kann Karten nicht kaputtflashen, UNMÖGLICH
wir haben bei ner 285 im Flash Saft abgeschalten, passiert gar nix, NULL, nada
das alte ist solang drauf bis das letzte Bit vom neuen da ist

---------- Post added at 21:46 ---------- Previous post was at 21:42 ----------


welches Hotspot Problem
 
Den Bereich bei den Wandlern der auch bei dir im Thermobild am wärmsten war scheint wohl durch ne Heatpipe aktiv gekühlt zu werden

Wenn das Renderbild so zu interpretieren ist
 
Zuletzt bearbeitet:
60° sind kein Hotspot ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh