[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
HR kann auch 144 Hz, ...

Sieht für mich so aus:

H -> 120Hz 3DVision zertifiziert + emitter + brille
HR -> Nachfolger vom H - 120/144Hz 3DVision zertifiziert + emitter + brille
HE -> 120/144Hz 3DVision zertifiziert ohne emitter/brille

HR = High Refresh :bigok:

Gibt soweit ich das mitbekommen habe aber nur einen der 144HZ kann u das ist der HE
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nein, mein HR kann das nicht. der hört da auf, wo auch 3DVision aufhört.. bei 120Hz.

So wie ich das sehe können HR und HE 144 Hz 2D und 120 Hz 3D.

Gibt soweit ich das mitbekommen habe aber nur einen der 144HZ kann u das ist der HE

https://www.asus.com/Monitors_Projectors/VG278HR/

Ignite the Action with NVIDIA® 3D Vision™ 2 glasses, 3D LightBoost™, and a 144Hz rapid refresh rate

Ich nehme mal an, dass hier 2D gemeint ist.

Edit:

The 144Hz rapid refresh rate speeds up the frames per second to deliver ultra-smooth motion scenes in 2D intense actions*.
 
Zuletzt bearbeitet:
he ist der einzige der 144 kann, dass aber auch nur im 2D betrieb. nvidia 3d spezi lässt wohl nur 60hz/60hz zu. schön wären ja 72/72 für 3D
 
die wissen wohl nicht was ihre hardware kann. nein, im ernst, hatte den hr auf dem tisch, der packt nur 120
 
wieviele bilder muss ich denn machen, damit das auch der letzte mitbekommt?? nur der brillenlose HE kann 144Hz. da sich HR und H nicht übertakten lassen, dürfen wir von unterschiedlichen panelen und nichtgleicher elektronik ausgehen -> ergo: ein anderer schirm.

@webmi
ja, sequentielles shuttern über 3DVision sind immer 100, 110 oder 120Hz - je nachdem wie man es einstellt. oder halt über 3DTVplay in 1080p/24 und 720p/60 jeweils im sidebyside-verfahren für aktuelle smartTV und projektoren mit hdmi_1.4.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
also wenn tobi und ich dir das bestätigen kannst uns das glauben ;)

ka was die da durcheinander bringen
 
hab schon mal gesagt, die he ist die weiterentwicklung des hr, er hat alles features, bis auf den integrieten emitter und die fehlende 3d brille. sonst voll 3D tauglich. er hat 144 statt 120 herz.

genau die richtige wahl, wenn du kein 3d willst, aber trotzdem einen irre schnellen 27" moni.



noch einer, der uns die absolut schrecklichen 60hz im windowsbetrieb bestätigt.
wer einmal porsche gefahren ist, der kann einen golf einfach nicht mehr ertragen.

Dann reihe ich mich mal zu den Bestätigern ein. Hier ist ein VG278H im Einsatz und nachdem der Rechner neu aufgesetzt wird + Grafiktreiber installiert wurde steht die Hz erstmal auf 60. Und der Mauszeiger ist einfach so extrem am zucken während der Bewegung.

Ich kann mir vielleicht ansatzweise vorstellen das manche den Vsync Lag nicht bemerken. Aber wer keinen Unterschied zwischen 60/120 sieht dem glaube ich schlicht und ergreifend nicht.
 
scheint tatsächlich eine neue rev zu sein, denn den "GamePlus(modes) : Yes (Aimpoint/Timer)" kenn ich nicht. den hatte meiner damals nicht. wie schauts das bei deinem aktuellen aus, tobi?

könnte mir sogar vorstellen, dass die mittlerweile einfach das he panel im hr haben.

jedenfalls wäre ich vorsichtig, wenn die reseller noch lagerbestände habe, kann es sein, dass du noch das 120hz model bekommst.
 
Zuletzt bearbeitet:
scheint tatsächlich eine neue rev zu sein, denn den "GamePlus(modes) : Yes (Aimpoint/Timer)" kenn ich nicht. den hatte meiner damals nicht. wie schauts das bei deinem aktuellen aus, tobi?

das steht nicht bei den presets, sondern bei den tasten.. meiner hat 7 tasten und die presets, die alle 278er haben
(sRGB Mode/Scenery Mode/Theater Mode/Standard Mode/Night View Mode/Game Mode)..


(..)

mfg
tobi
 
ist doch latte wo es steht, dass es kein preset ist, ist mir durchaus bewusst, das feature hatte meiner damals schlichtweg nicht, das wollte ich damit ausdrücken.

bei alternate damals habe ich jedenfalls zwei VG278H bestellt und aber zwei VG278HR erhalten.
 
Zuletzt bearbeitet:
ist doch latte wo es steht, dass es kein preset ist, ist mir durchaus bewusst, das feature hatte meiner damals schlichtweg nicht, das wollte ich damit ausdrücken.

schreib doch mal ne mail richtung asus-support, dass auf der webseite dinge beschrieben sind, die das gerät gar nicht hat/kann/whatever.

hauptsache, das ist kein feature, wo man 27,5 sek taste A C und Y gedrückt halten muss, während man sich im gamepreset ohne ECO befindet.. hab das handbuch nie gelesen.. ;-)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
hehe, die beiden HR habe ich nicht mehr, bestize nur noch den H.

aber es scheint ja wirklich ein andere moni zu sein. 144hz und dieser plus modus. hat denn deiner dieses lustige crosshair und den timer oder nicht?
scheint ein key zu sein:

When it comes to design, ASUS always have customers in mind – the ASUS VG278HR features the ASUS-exclusive GamePlus hotkey with crosshair (aimpoint) and timer functions. Gamers can select four different aimpoint types to suit the gaming environment; while the latter keeps players aware of the elapsed time in real-time strategy games. These tools allow gamers to practice and improve on their gaming skills.
 
Zuletzt bearbeitet:
nein, und ich kann mir darunter auch herzlich wenig vorstellen.. die einzigen alternativen fadenkreuze, die ich kenne und selten mal nutze, sind die aus dem 3DV-menu, wenn man STRG+F12 drückt.


(..)

mfg
tobi
 
vorstellen kann ich mir da viel, zb. noobs die im "elite" modus best. games ohne crosshair ein crosshair mit tesafilm etc nutzen. nun gibts diesen cheat halt als unschöne, viel zu große, digitale version im display integriet.
 
schreib doch mal ne mail richtung asus-support, dass auf der webseite dinge beschrieben sind, die das gerät gar nicht hat/kann/whatever.

Asus sagt der Hauptunterschied zwischen VG278H und VG278HR sind die 144 Hz, ...
Laut Asus:
VG278H > 2D und 3D 120 Hz
VG278HR > 2D 144 Hz und 3d 120 Hz und dieses GamePlus Krams
 
Zuletzt bearbeitet:
hab ich mitbekommen, es ist aber an meinem HR nichts derartiges zu entdecken.. keine geheimen schalter, nix.. alles wie schon vorher vom H gewohnt.. nur dass halt HR im CP steht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Sehr komisch, ... der indische Asus Mitarbeiter war auch gleich so nett und wollte mir erklären wo ich die 144 Hz einstellen kann ;)
 
..und als du gesagt hast, dass du die einstellung bei deinem samsung nicht findest, hat er "अंग्रे.जी" gesagt und aufgelegt??


(..)

mfg
tobi
 
..und als du gesagt hast, dass du die einstellung bei deinem samsung nicht findest, hat er "अंग्रे.जी" gesagt und aufgelegt??

:fresse: :shot: ... nee, ich habs nicht weiter ausdiskutiert. So richtig gut Deutsch konnte er nicht ;)

Aber was eigentlich deutlich rüber kam - dass der HR 144 Hz kann im 2D.
Daher sehr verwunderlich, dass es bei euch nicht der Fall ist.
 
ist nicht das erste mal, dass produktbeschreibungen das produkt nicht matchen. ich hab die seite von asus noch nie angesurft zum datailsgucken, bis ihr hier mit den links ankamt..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Zu welcher Alternative zum TN Panel würdest du greifen?

so genau habe ich mir alles "neuere" nicht angeschaut.
Das was ich gerne hätte gibts sowieso nicht :lol: ... mit den drei xl2410t werde ich erstmal noch was zufrieden sein müssen bis es sich lohnt auf andere umzusteigen.

Danach .. kein Plan so richtig. 3x 4k 120hz mit IPS oder so in 30" :rofl:
 
Ich hoffe nur mal, dass der asus im vergleich zum benq gescheite farben herbringt. beim benq konnte man soviel justieren wie man wollte - die farben waren ein witz....
aber laut den tests soll das ja beim asus besser aussehen. bin mal gespannt
 
Ihr müsst euch ja vorstellen, in BF3 z.B. würdet ihr mit einem Monitor der 25ms lag hat das Bild schon eine viertel Sekunde (!) später sehen, als Echtzeit.

ms ist die Einheit für Millisekunden. Eine Sekunde hat 1000 Millisekunden. 25 Millisekunden sind demnach 1/40 von einer Sekunde, nicht 1/4.
 
du würdest dich erschrecken, wieviele das nicht wissen..


(..)

mfg
tobi
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh