[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
2880x1620, 4xSSAA:
Titan@901/3004 = 47.1 fps
Titan@1202/3506 = 60.1 fps

27.6% mehr fps bei 33.2% mehr GPU-Takt. Leichtes Bandbreitenlimit.

Zum Vergleich,
680@901/3004 = 28,5 FPS
680@1254/3554 = 37,1 FPS

Box, wie schauts eigentlich mit deinen weiteren Tests aus... Soll ich nochwas nachtesten? Hast du schon Werte publiziert?
Ich war leider die letzten Tage extrem eingespannt. Da war nicht viel zu machen :(

20% OC sind nicht 20% mehr FPS
wer denkt sich so einen Schund aus?

Ohne unberechenbare Limits skaliert die FPS Leistung idR ziemlich linear mit dem Takt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meine HD7970 hat mit OC nahezu perfekt mit dem takt scalliert!

glaub ich gerne, aber nicht entsprechend zu den FPS

sonst kauft sich jeder ne 7870, voltmodded die, verdoppelt den Takt und hat statt 40 dann 80 FPS
 
20% OC sind nicht 20% mehr FPS
wer denkt sich so einen Schund aus?

Meiner Meinung nach lässt sich das nicht so allgemein sagen. Es gibt einige Games bei denen bei 20% OC auch recht genau 20% mehr Leistung rauskommen. Aber wie du selbst schon sagst ist es auch nicht richtig anzunehmen dass das immer so ist. Es hängt halt immer auch von der Anwendung ab. Ich hatte das zu 480/580 Zeiten recht intensiv getestet.


Sent from my iPad using Hardwareluxx app
 
glaub ich gerne, aber nicht entsprechend zu den FPS

sonst kauft sich jeder ne 7870, voltmodded die, verdoppelt den Takt und hat statt 40 dann 80 FPS

Das ist doch Käse. Mehr Takt ist immer sehr energieineffizient und abseits von Extremmethoden nur begrenzt steigerbar. Warum sollte mehr Rechenleistung nicht durchschlagen, solange kein Bandbreitenlimit vorliegt? Es gibt keine vernünftige Erklärung, warum dies nicht der Fall sein sollte.

Zum Vergleich,
680@901/3004 = 28,5 FPS
680@1254/3554 = 37,1 FPS

Box, wie schauts eigentlich mit deinen weiteren Tests aus... Soll ich nochwas nachtesten? Hast du schon Werte publiziert?
Ich war leider die letzten Tage extrem eingespannt. Da war nicht viel zu machen :(

Das macht nichts, ich kann eh erst jetzt mit Wakü und dem Bios so richtig testen ohne dass der Takt macht, was er will. 1202/3506 sind nicht stabil, und wenn es nur in Call of Juarez ist. Ich denke, ich werde 1150/3456 fahren.
 
Zuletzt bearbeitet:
sonst kauft sich jeder ne 7870, voltmodded die, verdoppelt den Takt und hat statt 40 dann 80 FPS
Na ja bei der Karte kommst mi der Bandbreite nicht hin.

Wenn du davon aus gehst das Powerplay @ Stock 1375 MHZ Ram takt hat und mit OC 1800MHZ Ramtakt hast du ganz andere Bedingungen bei 384bit.
Genauso wie er von 925 MHZ GPU Takt auf 1250 MHz kommt er hat ein Super ausbalanciertes OC Verhältniss zwischen GPU und Bandbreite.
 
glaub ich gerne, aber nicht entsprechend zu den FPS

sonst kauft sich jeder ne 7870, voltmodded die, verdoppelt den Takt und hat statt 40 dann 80 FPS

Nur schaffst du eben nicht doppelten Takt. Das wären schlappe 2GHz auf der GPU...
Als wenn es so einfach wäre. Selbst mit Extrem-Taktsettings packt das keine GPU.

Beim GK104 kann man ziemlich punktgenau ausrechnen, was durch die OC Taktraten auch im Schnitt an mehr FPS Leistung anliegt. Durch die Bank weg passt das wie Arsch auf Eimer.
Grob über den Daumen:
- 20% mehr GPU und VRAM Takt = ca. 20% mehr FPS.
- 20% mehr GPU Takt bei selben VRAM Takt = ca. 10% mehr FPS (ausgehend von einer Basisleistung bei ca. GTX 670 Niveu)
- 20% mehr VRAM Takt bei selbem GPU Takt = ca. 10% mehr FPS (ausgehend von einer Basisleistung bei ca. GTX 670 Niveu)

Ich habe jüngst erst Benches durchgetestet. 901/3004 zu 1254/3554 bei 1536 ALUs.
Rechnerisch heist das 1,1831 (18,31% mehr Bandbreite sowie 18,31% der Gesamten 39,18% mehr GPU Takt -> Skalierung 1:1) * 1,0822 (der Rest vom GPU OC = 17,64 -> Skalierung 2:1) = 1,2804
Somit ist mit etwa 28% mehr Leistung im Schnitt bei genanntem OC zu rechnen.

Real kommt über mehrere Tests und mehrere Settings eine FPS Leistung von 26,5-33% bei rum. -> passt also 1:1 zur Vorhersage und skaliert somit nahezu perfekt.
Titan ist hierbei keine Ausnahme. Obwohl das Teil deutlich mehr Anforderungen an die CPU stellt. Die Skalierung mit dem Takt könnte also deutlich schneller zurück gehen. Das wäre dann aber eins der genannten Limits ;)

@Box, kein Problem
ich werde ggf. noch ein paar Tests die Woche durchtreten... Shogun, Crysis1 und diese PLA Demo. Auch Mafia II wäre noch einen Test wert, speziell, wie sich PhysX verhällt :fresse:
Kann dir die Ergebnise ja dann zukommen lassen.

Mit ~1,15GHz bist du aber doch schon ziemlich weit oben mit dabei meine ich ;)

PS: ich habe mich nochmal mit der Stalker CoP Demo beschäftigt. Auffallend ist, mein OC verhältsich analog zu den anderen Ergebnisen, tanzt also nicht aus der Reihe oder sonstwas. Auch sind die Ergebnise reproduzierbar. -> entweder das Game liegt Titan sowas von extrem, oder da ist was anderes faul.
 
Zuletzt bearbeitet:
Das bisschen PhysX schafft die Titan nebenbei locker!

Ich habe es jetzt mal mit Batman Arkham City getestet: 2560x1440 alles max (was geht)

und es macht sich schon sehr deutlich bemerkbar wenn ich eine GTX680 als PhysX Karte einsetzte.

Der Unterschied ist sogar sehr deutlich weil ohne ruckelt es einfach nur, mit der 680 wirds erst richtig flüssig (trotzdem landet man zwischen 30-60fps mit V-Sync).

Kann natürlich sein das die Titan jetzt nicht optimal unterstützt wird und "mehr" auf dem Kasten hat.

Gerade die Kämpfe werden doch merklich flüssiger und spielbarer. Aber das Verhalten kannte ich schon mit der GTX580 bzw. GTX680 (wenn man eine einzelne Karte als PhysX Karte nutzte lief es besser).
 
Zuletzt bearbeitet:
Wenn man sich anschaut wie winzig der original Kühlkörper im Vergleich ist, kein Wunder. :)

Hmm... ehrlich gesagt - aktuell parkt der Originalkühler in der Accelero Verpackung - die geben sich nicht viel. Auch vom Gewicht her nicht... Ich denke die 3 92er Lüfter gegen den Stocklüfter machen den Unterschied...

Achja: Taktraten ca 1050Mhz - 1150Mhz FarCry 3 stabil mit leichter Spannungsanhebung. Asic bei 72,5.
WoW (2560x1440 mit 4xAA) bringt nur ein Müdes Lächeln mit 52Grad :) in FarCry mit obigen Boosttaktraten so um die 71 Grad nach ner Stunde...

Default BIOS...
 
Zuletzt bearbeitet:
Hmm... ehrlich gesagt - aktuell parkt der Originalkühler in der Accelero Verpackung - die geben sich nicht viel. Auch vom Gewicht her nicht... Ich denke die 3 92er Lüfter gegen den Stocklüfter machen den Unterschied...

Der Accelero Kühlkörper ist 3x so groß wie der der Titan. :)
 
Nein... Länge und Breite sind ziemlich gleich... Höhe - naja - höher mag er sein aber 3x ? Das wäre dann 6 Slot ;) ... Nö...
 
Ich meine nicht das Gehäuse, sondern den GPU-Kühlkörper. Dachte das sei klar.
 
wow konnte gestern doch noch crysis 3 spielen, so um 17.30h wars auf einmal fertig runtergeladen *;D !

Hatte dann erstmal im evga precision die core clock noch ein tick höher gemacht auf +145 MHZ. Stellte sich später als problemlos heraus, YEAH.

Gut also zu Crysis... geilste Grafik die ich bisher gesehen habe,definitiv outstanding ! HAbe ein bisl rumgespielt mit den verschiedenen AA Optionen (auf jeden fall war alles auf very high bei 1920*1080, anfangs noch ohne vsync). Ich sehe allerdings bei keinen dieser verschiedenen optionen einen unterschied... ob msaa oder smaa oder tx ?! WO ist der Unterschied?!?!? also habe die meiste zeit mit 4x smaa gespielt auf jeden Fall *;D - das Spiel läuft echt super, nur in diesem einen riesen außenareal, was glaube ich zu welcome to the jungle gehört, wo man mit der alienwaffe die raketenwerfer von dem turm runter schießt. da fühlte es sich anders an, nicht so perfekt wie in den anderen bereichen, die ich gespielt habe. es hat aber nit geruckelt, also an sich flüssig. nur es fühlte sich halt nit ganz so perfekt an (allerdinsg betraf das erst den zweiten teil dieses abschnittes. nachdem die raketenwerfer kaputt waren und die cell soldaten auftauchten. ich denke dort waren die fps niedriger als wo ich sonst bisher war im spiel.

habe auch mal vsnyc angemacht - aber erst kurz vor diesem bereich,wo man noch mit psycho erstmal die minen da hackt, also quasi am anfang von welcome to the jungle. hatte das gefühl danach liefs noch besser als vorher, wobeis vorher ja schon sahnig lief *:d also ich denke ich spiele jetzt immer mit vsync.

Nochmal später habe ich mir dann gedacht, komm versuch mal deine fps rauszukriegen. Habe mir fraps runtergeladen und mal mitlaufen lassen. War da bereits in den abwasserkanälen nach diesem außenareal. Also die frames bewegten sich immer so zwischen 52 und 62. oft im 60er Bereich. Höchste Messung war 72 und niedrigste 34, aber sowas kam immer nur für ne Sekunden oder 2 udn dann gings direkt wieder hoch, also würde mal einfach grob raten durchschnittlich 57 fps *;D



denke das ist n gutes ergebnis *;D und boah das spiel ist echt fett und die grafik wie gesagt BOMBE ! 8xMSAA und so packe ich gar nit erst an, genau wie downsampling bei dem spiel. weil dann wirds nit mehr so gut laufen fürchte ich und das will ich nicht *;D ! Mit 4x Smaa läufts super. auch bei txaa, was ich ja zwischendurch kurz getestet habe, hatte ich das gefühl es läuft ähnlich gut wie mit smaa. 4x msaa hatte ich auch mal probiert glaube smaa läuft mit 4x etwas besser. aber wie eingangs erwähnt. sieht für mich alles gleich aus, ich sehe da !keinen! unterschied.

edit: ich bin ernsthaft am überlegen das spiel komplett von neu zu spielen, weil ich will wissen, wie die frames in dem bereich sind, wo ich meinte, das lief vom feeling her nit so perfekt wie sonst. - wäre ja nit dramatisch habe 2,5 stunden oder so gespielt, das kann man ruhig nochmal von vorne machen. und jetzt komme ich besser mit der spielmechanik klar als noch am anfang.

evtl. geht das spiel ja beim nächsten mal noch besser ab, weil wo ich angefangen hatte zu spielen lief der pc ca. 9 stunden durch. und hatte (weil der download am ende ja ewigkeiten brauchte) zudem noch ca. 3 stunden prime95 vollbelastungstest in den knochen (hatte mir gedacht machs einfach nochmal, jetzt wo du eh nit zocken kannst, teste nochmal die oc der cpu), direkt bevor ich gespielt habe. und ich hatte den virusscanner nicht deaktivert und tune up utilities powersave modus nicht angemacht *;D !

---------- Post added at 06:48 ---------- Previous post was at 06:34 ----------

und nochmal eine titan oc-frage:

ich habe bisher memory overclocking immer weggelassen...

bringt das mehr performance wenn man noch mhz auf den default wert draufhaut ??


ist ein wert wie zb. +100 mhz offset auf die memory clock vertretbar ? Habe angst dass die ramblöcke auf der karte zu heiß werden, will nit, dass die kaputt geht *;D
 
Zuletzt bearbeitet:
und nochmal eine titan oc-frage:

ich habe bisher memory overclocking immer weggelassen...

bringt das mehr performance wenn man noch mhz auf den default wert draufhaut ??


ist ein wert wie zb. +100 mhz offset auf die memory clock vertretbar ? Habe angst dass die ramblöcke auf der karte zu heiß werden, will nit, dass die kaputt geht *;D

Also das mit dem RAM musst du testen, nehme dafür am besten den Test 1 oder 2 von 3DMark 11, es bringt mit der GPU zusammen schon ein paar Frames. Ich habe den RAM-Takt nur auf +132, alles darüber bringt, wenn die RAMs zu heiß werden, Artefakte, Blitzer usw. Der Test sollte schon mindestens ne Viertelstunde laufen. Ich glaube hier um Übrigen keinem, dass der RAM mit Luftkühlung auf +400, +500 oder noch höher stabil läuft. Die Samsung Speicher sind nämlich ziemlich kacke zum Takten.;) Ich manchen Games oder Benches läuft es zwar ohne Probleme, da kann ich auch +450 einstellen, 100 Prozent stabil ist das aber nicht.
 
Zuletzt bearbeitet:
@MeliMelicious

CPU Takt?
 
VRAM OC ist Pflicht bei Kepler. Auch Titan ist ziemlich bandbreitenlimitiert. Nur den GPU-Takt hochziehen bringt nicht 1:1 mehr fps.
 
okay also meint ihr mit etwas ram overclocking kann ich z.b. bei crysis 3 vllt. noch 1, 2, 3 frames mehr rausholen ?

denke ich probiers vllt. mal mit +100 erstmal. in verschiedenen oc-guides wurden so +100 bis +120mhz angelegt. habe diese programme zum testen nit, müsste icherst runterladen. aber an sich bin ich riskiobereit genug es einfach so ins blaue zu testen, es einfach einzustellen und crysis 3 spielen *;D

@thunderburne

meine cpu wurde auf 4,2 GHZ übertaktet, bei fixer vcore einstellung 1,26v. läuft absolut perfekt.

andere sache zu crysis 3. wie ist das mit diesem smt ?!?!? das soll die performance etwas drücken ? wo deaktiviert man das ? bringt das wirklich was ? wird das evtl. noch gepatched ? bin zwar mit der performance absolut super zufrieden, aber keine ahnung vllt. werden die drops nach unten damit weniger bzw. gehen weniger tief runter hier und da, wenn mal die fps weiter runterfällt.
 
Zuletzt bearbeitet:
Mir ging es nur da rum das laut den Benchmarks eine Starke CPU von Vorteil ist bei Crysis3

Und wie Boxer schon sagte Ram OC ist wichtig.
Hat eigentlich schon jemand auf die oberen Speicher Chips einen Lüfter drauf gepackt um mal zu sehen ob es bei OC hilft?
 
Meine Speicherchips werden maximal so 55 Grad warm hinten, ich glaub das ist noch total unkritisch.
 
wieviel offset hast auf deine raufgemacht ? 55 klingt doch in ordnung.
muss dann mal gucken, ich denke ich probiere mal +100 mhz und gucke dann mal ob ich dadurch bei crysis noch bessere fps kriege *;D

was meitn ihr, kann es sein, dass die performance noch besser gewesen wäre, wenn der pc nit schon eine halbe ewigkeit gelaufen wäre und zuvor noch nen extremen stresstest hatte über 3 stunden *;D ?
 
Zuletzt bearbeitet:
kannste 300 auf den ram machen....
 
wieviel offset hast auf deine raufgemacht ? 55 klingt doch in ordnung.
muss dann mal gucken, ich denke ich probiere mal +100 mhz und gucke dann mal ob ich dadurch bei crysis noch bessere fps kriege *;D

was meitn ihr, kann es sein, dass die performance noch besser gewesen wäre, wenn der pc nit schon eine halbe ewigkeit gelaufen wäre und zuvor noch nen extremen stresstest hatte über 3 stunden *;D ?

450 MHz. Bei 500 ist der CoJ Benchmark mal abgestürzt.

Btw Naennon, kannst du 1.1875V einstellen? Wenn ich hier mit dem EVGA Precision rangehe, macht er weiterhin 1.175V. 1.2V geht aber dann wieder...komisch.
 
Zuletzt bearbeitet:
kannste 300 auf den ram machen....

Hallo

ich wollte es bei mir auch mal testen , einfach in Precision X GPU Clock Offset +130 und bei Mem Clock Offset wieviel ?

Spannung wollte ich nichts dran drehen , und die beiden Regler Power Target und Temp Target auf Max oder weniger ?
 
da ihr so fleißig mit Ram OC beschäftigt seid habe ich mal ne Frage bezüglich der Temp.
Habt ihr die jetzt mit umwindeten Kühlerchen versehen, oder immernoch blanko ?

UND
wie weit müsste man den Ram hochziehen, so das das Bandbreitenlimit beseitigt ist bei nem Takt von 1202? (also dann Takt : fps = 1:1 wäre)
 
Nach dem was Boxer gezeigt hat Richtung 3500 bei 1200mhz.
Er sagt ja 55 C das ist zwar nicht unbedenklich aber vielleicht geht das mit niedrigeren Temps höher zu takten also mit nem Lufi oben drauf.
 
Zuletzt bearbeitet:
2880x1620, 4xSSAA:
Titan@901/3004 = 47.1 fps
Titan@1202/3506 = 60.1 fps

27.6% mehr fps bei 33.2% mehr GPU-Takt. Leichtes Bandbreitenlimit.

wohl eher 3600+, dafür müsste man die andere Seite dann wohl auch noch unter Wasser bekommen^^
 
da ihr so fleißig mit Ram OC beschäftigt seid habe ich mal ne Frage bezüglich der Temp.
Habt ihr die jetzt mit umwindeten Kühlerchen versehen, oder immernoch blanko ?

UND
wie weit müsste man den Ram hochziehen, so das das Bandbreitenlimit beseitigt ist bei nem Takt von 1202? (also dann Takt : fps = 1:1 wäre)

Du bekommst den RAM nicht so hoch, das du die Bandbreitenabhängigkeit weitestehend ausschließen kannst. Das liegt einfach in der Natur des Chips. Im vergleich zu GK104 hast du ~50% mehr Bandbreite. Aber weit über 50% mehr GPU Performance. Mit GPU OC schaffst du nochmal 30-40% drauf, wenn die Temps passen. Nur beim RAM bekommst du allein auf vllt 10-15%, wenn überhaupt.
Rechne selbst aus.

Da aber GK110 nicht so extrem gut mit der Rohleistung skaliert (also nicht so gut, wie GK104) kann man das nicht 100% so hochrechnen. Die etwas schlechtere Skalierung könnte aber widerum vom VRAM kommen. Zumindest teilweise.
Ausgehend von einer GTX 670, die in Sachen Rohleistung vs. Bandbreite sehr ausgewogen ist, müsste man GK110 gemessen an der Rohleistung + besagtes OC scon VRAM Seitig auf über 2,25GHz auf die Speicherchips prügeln -> Unmöglich.
Mit Ach und Krach bekommt man vllt 1,7-1,8GHz stabil.
Dem GK110 hätte aus Gamersicht ein 512Bit SI eher gut gestanden. Dazu gepaart mit 4GB für die breite Masse und 8GB als Enthusiastenfeature.
 
Zuletzt bearbeitet:
hast schon nen Titan um deine Hypothesen zu bestätigen?
 
450 MHz. Bei 500 ist der CoJ Benchmark mal abgestürzt.

Btw Naennon, kannst du 1.1875V einstellen? Wenn ich hier mit dem EVGA Precision rangehe, macht er weiterhin 1.175V. 1.2V geht aber dann wieder...komisch.


+ 450 MHZ :O ?????

ich zitiere:

"Ich habe den RAM-Takt nur auf +132, alles darüber bringt, wenn die RAMs zu heiß werden, Artefakte, Blitzer usw"

wie schaffst du dann bitte +450 mhz ohne dass es probleme gibt *:O ?`?

okay wasserkühlung wahrscheinlich, ne ?

ich bin aber @ referenzkühler *;D - also von daher werde ich denke ich mal erstmal nit mehr also 100 oder 120 mhz draufpacken.

wirds trotzdem etwas bringen (fps technisch) ?
 
Zuletzt bearbeitet:
450 ausgehend von 3004 MHz effektivem Speichertakt. Also hab ich am Ende 3456 MHz effektiv bzw. 1728 MHz real.

Kommt drauf an, von welchem Takt du ausgehst, 1502 oder 3004?
 
Zuletzt bearbeitet:
Ich habe es jetzt mal mit Batman Arkham City getestet: 2560x1440 alles max (was geht)

und es macht sich schon sehr deutlich bemerkbar wenn ich eine GTX680 als PhysX Karte einsetzte.

Der Unterschied ist sogar sehr deutlich weil ohne ruckelt es einfach nur, mit der 680 wirds erst richtig flüssig (trotzdem landet man zwischen 30-60fps mit V-Sync).

Kann natürlich sein das die Titan jetzt nicht optimal unterstützt wird und "mehr" auf dem Kasten hat.

Gerade die Kämpfe werden doch merklich flüssiger und spielbarer. Aber das Verhalten kannte ich schon mit der GTX580 bzw. GTX680 (wenn man eine einzelne Karte als PhysX Karte nutzte lief es besser).

Wie hast du das zum laufen bekommen ?
Sobald ich meine GTX670 dazu stecke läd der Treiber nicht mehr und ich hab nur noch "Standard VGA" ...
614. Beta ?
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh