[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Meine AC Kühler sind da, und ich habe keine Zeit zum basteln. Verdammt. Schon jemand seine erhalten, oder alle EK hier?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hoffe ihr habt alle die folie vom plexiglas entfernt ;-)

eine frage: bevor ich mir nen wolf such und es selbst rausfinde, dachte ich, ich frag die erfahrenen leute hier.

ds 2688x1512@85hz schnell zusammengeklickt, nicht weiter getestet, was da herztechnisch noch geht.
das prob, wenn ich vsync aktiviere, läuft der mist nur mit 60hz, der checkt iwie nicht, dass mehr gehen würd.

muss ein treiber ding sein oder so, das hatte ich mit den 680ern jedenfalls nicht damals.

warum limitiert der auf den 60hz, wenn ich aber eine custom auflösung mit 85hz erstellt hab.

ehrlich gesagt hab ich mich noch nicht hinreichend informiert, auch was das "displayoverclocking" der titan angeht. hab einfach eine custom auflösung im treiber zusammengeklickt.

wenn jmd ne idee hat, warum der mit vsync nur 60hz macht, wäre ich dankbar.

ps: ist natürlich ein 120hz display

nimm die werte -> damit gehen auch 120Hz

120hzds42sou.png




--------1440p100 ------------- 1620p120 ------------- 2160p60


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Bei meiner letzten Asus Karte war zumindest Folie und Siegel vorhanden.

Das sollte dann bei so hochpreisigen Karten ebenfalls der fall sein.

Hoffe ich zumindest ;-)

Bei meinen vier Gainward-Titan war sowohl der Karton versiegelt als auch darin die Antistatikhülle.

Scheint also in der Tat von Hersteller zu Hersteller unterschiedlich zu sein.
 
Meine AC Kühler sind da, und ich habe keine Zeit zum basteln. Verdammt. Schon jemand seine erhalten, oder alle EK hier?

warte noch auf die nickelversion nächste Woche. danach Urlaub. :-)

---------- Post added at 16:21 ---------- Previous post was at 16:19 ----------

So, kurz von mir für die Statistik.

Meine Karte ist jetzt auch unter Wasser, Kühler ist verbaut, endlich wieder ruhe im Karton - ist ein kryographics von Aquacomputer in gewohnt bester Qualität. Auf der Rückseite habe ich auf jeden RAM noch nen kleinen Kühlkörper gesetzt.

Erste Tests sind so weit durch. Mit 1.162V macht sie nun max. 1136MHz mit 1.200V sind 1162MHz drin - beide Werte 100 Prozent stabil, kein schöngeredet Wert und mit Standardbios. 1.212 teste ich gerade mit verschiedenen MOD-Biosen, sieht aber so aus, als wenn 1201MHz stabil sind, zur Not muss ich einen schritt zurück auf 1188MHz, reicht auch dicke.

Gewinn durch Wasserkühler um die 100MHz auf der GPU, vorher mit throtteln war bei 1092MHz Schluss bzw. eine weitere Erhöhung nur durch unzumutbaren Lärm durch erhöhen der Lüfterdrehzahl und absenken der Raumtemperatur möglich. Temperatur der GPU bleibt selbst mit 1.121V unter Wasser nun bei ca. 35 Grad, je nach Wassertemp und Last.

Gruß
Trill

die Idee mit den Kühlrippen ist eigentlich nicht notwendig, aber fördert sicherlich die wärmeabfuhr. hab die mir samt klebepads auch bestellt. :-)
 
Zuletzt bearbeitet:
Ich kann mir jetzt nicht X Seiten durchlesen daher nur als Info da mich ein Kunde deswegen mit Bezug zu diesem Topic kontaktiert hat: es werden bei unserem Kühler nur die drei Pads platziert wie wes im Video und auch der gedruckten Anleitung zu sehen ist. Was EK da noch mitkühlt sind Spulen, die keinerlei zusätzliche Kühlung benötigen. Auch vom Luftkühler bleiben diese unberücksichtigt.
 
hier mal ein test, der mein subjektiv-empfinden CF vs. SLi vs. TITAN bestätigt:

NVIDIA GTX TITAN vs. SLI & Crossfire

Back in the original GTX TITAN review, we mentioned that AMD’s HD 7970GHz Edition exhibited a horrendous amount of stutter and adding another card certainly doesn’t help this situation. The only two titles where the Crossfire setups provide a relatively smooth gameplay experience are Dirt: Showdown and Max Payne 3.

In every other situation Crossfire is completely dominated by NVIDIA’s TITAN, which exhibits incredibly docile frame time results. This just goes to show that raw framerates really don’t mean all that much when it comes to fluid onscreen frame delivery.
..
While SLI doesn’t exhibit the same widespread issues as Crossfire, it certainly doesn’t provide a completely flawless experience. Crysis 3 and Hitman: Absolution exhibit frequent and jarring “pauses” of 70ms or more and while these issues aren’t show-stoppers, they can easily break your concentration. Dirt: Showdown on the other hand continues to be a thorn in NVIDIA’s side.

Once again, the TITAN is able to remain head and shoulders over the GTX 680 SLI and GTX 670 SLI setups. It exhibits excellent all-round performance in these tests, without any of SLI’s drama.
..
Testing the TITAN against Crossfire in 5760x1080 leads to nearly identical results as in lower resolutions but AMD’s frame time issues are simply enhanced. Hitman: Absolution and Far Cry 3 are simply unplayable with the HD 7970 Ghz Edition and HD 7950 Boost due to consistent, massive stuttering.

Due to its single chip design, NVIDIA’s latest card is able to remain well ahead here and when actually playing the games, the differences between these setups are painfully obvious.
..
Is it better to buy a single powerful GPU or buy two less expensive cards and achieve similar performance? That is a question that gamers have been faced with years, but NVIDIA’s TITAN is doing a brilliant job of blurring those lines in today’s market. It is the first graphic card which has the capability to stand toe-to-toe against leading dual card setups without having to resort to interlinks between two distinct cores.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Harte Worte, ... aber bestätigt wohl nur dass SLI deutlich weiter ist als CF was den Reifegrad angeht?!
 
Ja weil sich nv um die microruckler gekümmert hat wärend AMD das eher links liegen lässt.
 
Harte Worte, ... aber bestätigt wohl nur dass SLI deutlich weiter ist als CF was den Reifegrad angeht?!

einmal das und dann natürlich, dass man sich mit MGPU grundsätzlich AFR-sorgen aufhalst.. immer, egal wie gut oder schlecht es kaschiert wird.


(..)

mfg
tobi
 
Was ich mir überlegt hat ist wegen MR. Also solange man keine vollauslastung der gpus erreicht durch einen limiter hat man ja nahezu keine ruckler also wäre es wohl am besten wenn man nicht die FPS limitiert sondern die auslastung der GPUs überwacht und bei 90% abfängt. So das die gpus nie voll ausgefahren werden. Ob das was bringen würde ist natürlich die frage.
 
@TobiWahnKenobi: Danke fürs Verlinken vom Review, auch für mich (Fan von Single-GPU Lösungen) ein tolles Fazit :)
 
so ich hab mal ein Bios gebastelt




hat
max boost 1202
boostet direkt auf 1202
hat bei 100% 275W
hat bei 105% 290W
hat 1600 Ram
hat P0 1.1875 Volt

erreicht maximal 99% Power und throttled nicht
Vorteil, man braucht kein Tool mehr mit dem Bios ;)
Nachteil, ist für den einen oder anderen evtl zuviel Takt, müsst ihr mal testen

http://www.notyetavailable.de/naennon/GBOC.zip
 
Zuletzt bearbeitet:
Meine AC Kühler sind da, und ich habe keine Zeit zum basteln. Verdammt. Schon jemand seine erhalten, oder alle EK hier?

Jap, ich. Mörderisch guter Kühler. Kühlung ist unglaublich gut. 32° Wasser zu 39° Chip unter Volllast :d Idle bei mir Chip=Wasser. Beide 26°C
leider killt der den Durchfluss mächtig, von 185l/h auf 120l/h...
 
Der Durchfluss ist sekundär

foldingmax7hzb.jpg


Das ist ein Durchfluss von 129Litern

Damit werden 4 Fermi Karten parallel gekühlt


Also geteilt durch 4 rechne dir aus was da pro Karte übrig bleibt
 
Zuletzt bearbeitet:
Da ich meine karte + wakü morgen bekomme, wie kühlt ihr die ramchips auf der anderen Seite der Karte? Oder werden die nicht zu warm?
 
Die sollten vom Kühler selbst mitgekühlt werden da sich die Chips genau parallel zum gegenüberliegenden befinden
 
Gibt es bereits andere Wakü Kühlern neben den EK und AC Kühlern, bzw gibt es da schon nen erscheinungsdatum ?
 
Also geteilt durch 4 rechne dir aus was da pro Karte übrig bleibt

na ganz viel warmes Wasser ;)



Sagt mal, wie stabil taktet ihr euren Speicher? Ich bin jetzt mit GPU und RAM bei +140MHz (was einen stabilen Takt von 1163MHz ergibt, mehr geht nicht, dann stürzt der NV-Treiber ab). Wobei der RAM im 3DMark11 noch ein ganz kleines bisschen zickt... also man könnte mal einen Fehler erahnen. Taktet ihr ihn auf einen völlig fehlerfreien Level?
 
so ich hab mal ein Bios gebastelt

hat
max boost 1202
boostet direkt auf 1202
hat bei 100% 275W
hat bei 105% 290W
hat 1600 Ram
hat P0 1.1875 Volt

erreicht maximal 99% Power und throttled nicht
Vorteil, man braucht kein Tool mehr mit dem Bios ;)
Nachteil, ist für den einen oder anderen evtl zuviel Takt, müsst ihr mal testen

http://www.notyetavailable.de/naennon/GBOC.zip

Mit dem 115er Bios sehe ich beim 3DMark 11 Grafiktest 1 ab und zu auch mal die 114%, siehe im Bild links unten. Danke dir auf jeden Fall für die Biose, die nicht throtteln - klasse! :banana:

Edit:

Sagt mal, wie stabil taktet ihr euren Speicher? Ich bin jetzt mit GPU und RAM bei +140MHz (was einen stabilen Takt von 1163MHz ergibt, mehr geht nicht, dann stürzt der NV-Treiber ab). Wobei der RAM im 3DMark11 noch ein ganz kleines bisschen zickt... also man könnte mal einen Fehler erahnen. Taktet ihr ihn auf einen völlig fehlerfreien Level?

Bei meinem Speicher ist auch bei +150 Schluss im 3DMark 11. Das ist wohl bei fast jedem so, nur die wenigsten sehen es wohl ein. ;) Takt ist bei mir mit 1.212V bei 1188MHz zu 100 Prozent stabil, 1201MHz geht zwar, stürzt aber irgendwann ab.
 

Anhänge

  • TitanTDP.jpg
    TitanTDP.jpg
    77 KB · Aufrufe: 97
Zuletzt bearbeitet:
@SVK was für eine ASIC???
 
@SVK was für eine ASIC???

80%

Aber der große Mora schluckt das spielend

Glaube ich. Meine beiden Novas auch. :d Und da ist noch seeeeehr viel Luft. Da können noch 2 andere Titanen kommen.

Da ich meine karte + wakü morgen bekomme, wie kühlt ihr die ramchips auf der anderen Seite der Karte? Oder werden die nicht zu warm?

Auf keinen Fall, die werden kein bisschen warm unter Wasser. Selbst unter Luft sind die völlig unkritisch.
 
Zuletzt bearbeitet:
Ich glaub bei mir spinnt der Wassertempsensor... Weil hab 1-2grad mehr Wassertemp als Grakatemp im Idle :fresse:

Das war bei meinem 570er SLI damals auch der Fall, aber was solls, schaut gut aus! :d
 
kann es sein, dass adaptive vsync ne supoer sache ist ? hatte das vorhin im nvidia control panel eingestellt und bei crysis 3 habe ich jetzt kaum noch fps sprünge die sind immer nur im kleinen bereich um die 60 fps rum. finde ich gut. bei metro 2033 habe ich das auch probiert, mit selben ergebnis. da habe ich ständig 60 fps springt wenns nach unten geht nur auf 59 und 58 mal.

habe nun auch mal memory übertaktet bei der titan - momentan bin ich mal bis +142 hoch gegangen. gibt keine probleme.

also crysis 3 hat schon ne extrem geile grafik *:d ich bin echt begeistert und es läuft super *:d in manchen maps hatte ich zwar auch mal niedrigere fps aber trotzdem spielt es sich super.

aber eins muss ich mal sagen, das nvidia control panel geht mir voll auf die nerven. es speichert nie die einstellungen. mache immer digitale farbanpassung nach pc start höher, dadurch kriege ich eine schöne sättigung der farben. nach neustart ist das wieder weg. und zum teil sogar bei grafikumstellungen im spiel. habe ich bei metro. wenn ich das spiel starte, startet es immer in der 1024* irgendwas auflösung. wenn ich dann auf 1920 * 1080 umstelle und speichere, ändert sich das bild und wird heller/ungesättigter.... muss dann in windwos zurück und wieder im control panel die digitalefarbanpassung eins hochmachen udn zack wieder das schöne gesättigtere bild, was nun auch in metro dann übernommen ist und so ist, wie ich es haben will.

kann man da irgendwas machen, dass ich nicht erst so eine action reißen muss um es richtig zu haben ???
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh