[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alan Wake skaliert echt gut im SLI mit einer Karte landet man öfters bei 40fps (2560x1440@max),
im SLI landet man auf fast dauerhaft über 100fps hoch bis 140fps, niedrigste fps waren der Schenk zum Leuchturm mit 79fps (kann aber auch sein das die 2,5" HDD daran schuld war) :d

klingt gut :)
mit den 680er ists zum :kotz:, ob niedrige Qualitätseinstellungen oder nicht. Ist schon ne Trauerweide wenn man direkt nach der Installation bei nem 680er SLI nicht die Systemanforderungen erfüllt.
Auch wenn ich auf 1920x1080 zocke...



 
2. Der Gras Level ist absolut CPU limitiert und bringt selbst nen 3570k bei 4,7 Ghz richtig ins Schwitzen. Da dürfte der 2600k @ 4,2 Ghz eher das Problem sein, als die Titan. Zur not mal mit Afterburner/PrecisionX und HWiNFO die CPU Stats ingame anzeigen lassen, dann habt ihr Gewissheit:



(Bild von Black2Soul mit seinem 3570k @ 4,7 Ghz)

Schon mit 4,6 Ghz hat er da 100% Load auf allen Kernen und die CPU limitiert - und das bei ner 670! Denke für die Titan braucht man an der Stelle noch deutlich mehr CPU Takt!
Also mein Sixpack wird im Gras max 65% (auf alle 12 Threads gesehen) ausgelastet. Ins CPU-Limit komme ich nicht. Das scheint ordentlich programmiert worden sein. Schatten habe ich auch nur auf High.

Kann ich so absolut bestätigen. Hab 2 Titanen hier.

1. ASIC 67,0 % (980MHz Boosttakt bei 1,162V)
2. ASIC 77,4% (1006MHz Boosttakt bei 1,162V)

Die Nr.1 bleibt deutlich kühler...
Das kann aber auch am Sitz des Kühlers und/oder dem Sensor liegen oder anderen Gegebenheiten. Da müsste man schon mehr als 2-3 Karten und unter exakt gleichen Bedingungen testen um das mit Sicherheit sagen zu können.
 
Wir machen sowas nicht wir bauen Maschinen dir sowas machen ;) Kannst ja mal bei Martma oder wo anders Anfragen. Aber mir kommt es ziemlich teuer vor. Aber klar so schnallst du ihn drauf und los geht's.

musst es mal so sehen....die haben halt besseres zu tun als meine photoshop Datei in ihr Programm zu importieren und wenn ust abziehst sind wie bei 40 netto....ne viertel stunde sitzen die bestimmt da dran. was solls, die Montage schlägt auch rein, aber dafür ist der kühler durckluft geprüft und fachmännisch montiert. :-)
 
Eben. Außerdem ist das nicht deren Hauptgeschäftsfeld und auch keine Massenabfertigung. Ich finde da 50.- auch total ok.
 
klingt gut :)
mit den 680er ists zum :kotz:, ob niedrige Qualitätseinstellungen oder nicht. Ist schon ne Trauerweide wenn man direkt nach der Installation bei nem 680er SLI nicht die Systemanforderungen erfüllt.
Auch wenn ich auf 1920x1080 zocke...




ich hatte mit GTX680 niemals das gefühl; auch nicht mit zweien; dass die gut mit 8xMSAA umgingen. bin dem guten spielgefühl zuliebe immer mit 4x oder weniger +DS unterwegs gewesen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
kann es sein, dass du in ein vram limit gelaufen bist mit den 680ern? das konnt ich seiner zeit bei bf3 mit ds incl aa jedenfalls festellen.
ds incl aa sind eine der stärken von titan, nicht zuletzt wegen dem überdimensionalen vram.
die 3GB hätte ich heute mit DayZero @ 2688x1512 incl AA fast geknackt.
 
wie schon geschrieben, ob minimalste Qualitätseinstellungen Einstellungen mit 2x AA oder wie oben gepostet. Das Game ist ne reinste Ruckelorgie. Körperdrehungen enden oftmals in absoluter Orientierungslosigkeit weil das Bild kurz hängt, sich plötzlich an der Stelle befindet wo man den Gegner erwartet, dieser aber anscheinend schon ein paar Schritte weiter ist...nicht lustig :(
Bei Tripplescreen liegt der Ram beim Einschalten schon bei 1940MB. Bei quasi null Qualitätseinstellungen liegt der Ram etwa bei 1700MB und füllt sich im 10 sekunden Takt.
Interessant ist aber das wenn ich auf 1080P wechsle mit minimalen Einstellungen der Ram zwar bei etwa 13xx liegt, das Game trotzdem ruckelt wie sau. Gerade wenn verschwommene Szenen auftreten wo man gegen die Schattenmenschen antreten muß.
Ist halt eins der Games die ich erstmal anständig spielen möchte bevor ich mir neue Titel kaufe die ähnlich fordernd sind.
Ich habe noch ein paar Titel die auf tripple gerne anständig gespielt werden wollen. MP3 ist selbst bei 4GB Usern beim anmachen der Ram schon voll und Dirt3 tut sich da auch nichts. Man will ja auch was erleben wenn man Games zockt, da sind Eyecandys Pflicht, sonst kann man auch Konsole spielen^^
pcgh "Reviews" wo dann drin steht das man bei tripple keine Probleme hat und die Karten toll performen und nur seltenst mal ein Ruckler wegen Ramlimit auftauchen gebe ich nichts mehr.
In Zukunft kaufe ich nur noch Karten mit überdimensional viel Ram. Besser man hat, als man hätte. Siehe Sinneswandel 1080p auf 3x1080p.
 
@Grinsemann

Wundert mich eigentlich, Alan Wake läuft doch sehr gut mit einem GTX 680 SLI (2GB)?
(bei einem Bildschirm).

Sicher daß es nicht an was anderem liegt?
SLI Brücke mal getauscht/neu aufgesetzt?

Edit: Dein runterschalten auf 1080p waren trotzdem die drei TFT's?
 
Zuletzt bearbeitet:
Alen Wake hab ich sogar auf meinem Alienware M14xR1 mit GT555m auf mittleren Details durchgedaddelt.
Wundert mich ehrlichgesagt auch, aber gut.
 
"verstehen" kann ich es auch nicht. Brücke habe ich nicht erneuert. Habe aber mal nen Snapshot gemacht vom Verhalten der Karten im Game.
Ram lag da unter 2k, wobei ich eigendlich bis 2035 Luft habe

weil sich die Karten "gleich" verhalten bin ich nicht auf die Idee gekommen die Brücke zu tauschen.
 
Nur kurz zu BF3: das läuft auf dem GTX680 SLI (3770K) "gefühlt" genauso gut wie das 3-way-SLI (3960X).
Keine Spur das irgendwas am einbrechen war.

Die neue Erkenntnis mit der Titan:

selbst 45-50fps sind in BF3 Ultra flüssig.
 
mmelthread + FAQ - Bei Fragen erste Seite lesen

Die neue Erkenntnis mit der Titan:

selbst 45-50fps sind in BF3 Ultra flüssig.

Aha... das wäre ja ein Titan exklusives Feature und würde den Preis evtl. endlich rechtfertigen! Also das sie max. Frames eher halten kann würde ich noch glauben aber flüssiger bei unter 60fps wohl nur gegenüber SLi aber nicht zu ner 680er sGPU...
Könnte natürlich auch das so genannte titanische Fieber sein alles als flüssig zu empfinden :rolleyes:

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Ich mein auch SGPU vs. MGPU.

+1

logisch sind 50 echte frames flüssiger als AFR-frames (60fps im AFR = 2x 30fps).
wobei im AFR 60+ frames völlig okay sind; da sind 50fps im AFR (2x 25fps) schon grenzwertiger; alles darunter wird zumutung.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Tobi

Ja, ich weiß hattest Du ja auch schon öfters erwähnt.
Durch die ganze SLI Geschichte war ich aber auf dem Dampfer "erst mit min. 60fps wirds flüssig" (was halt für SLI auch zutrifft).

Die Titan hat gezeigt, dass sehr wohl auch mit weniger FPS auf einer Karte flüssig gespielt werden kann.

MP3 ist mit dem o.g. Setting zwar spielbar 40-60fps aber da würde ich auch einen Gang zurückschalten damit man eine höhere Framerate erhält.

auf dem "dampfer" waren wir alle mal und es sind noch viele. solange man mit zwei oder mehr topkarten auch topframeraten im MPGU erreicht ist das spielgefühl ja auch nicht per se schlecht. einiges lässt sich optimieren. oder wenn man setups befeuern muss, wo eine karte gnadenlos in die knie geht, ist das MGPU-kram ne krücke, die man einfach nehmen muss, weil es anders nicht geht.

aber jetzt und hier.. im direktvergleich mit identischen spielen wird SLi bzw. das x-mal erwähnte AFR-rendering ganz gut entmystifiziert. so zumindest mein empfinden, wenn ich mir GTX690 und titan parallel anschaue. das ganze könnte anders aussehen, wenn das alternate frame rendering abgeschafft würde und beide GPUs ihre kraft bündeln könnten und zusammen ein bild berechnen. was sie im SLi nicht tun; im moment macht jede karte das gleiche.. allerdings nur für sich (darum hat man im SLi auch keinen doppelten speicher).

von der idee, die GTX690 wieder in den hauptrechner zu stecken, bin ich heute noch weiter weg, als vor ner woche..

edit:
ich hatte auch versucht mit der vsync-geschichte die 60+ fps zu relativieren; eben weil ich tearing nicht ertragen kann, aber interessanterweise funktionieren die 1/2, 1/3 und 1/4 refresh-einstellungen (ausgehend von einem 120Hz bildschirm) noch tadelloser, als gewöhnlicher 60Hz-sync @SLi. was näher betrachtet wieder nicht verwunderlich ist, weil im AFR immer ein frame pro GPU vorgehalten wird, was bei singlekarte entfällt. da addieren sich double/triple -buffer nicht auf die AFR-latenz. limiter waren mal nice2have - jetzt sind sie völlig überflüssig.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
melthread + FAQ - Bei Fragen erste Seite lesen

Ich mein auch SGPU vs. MGPU.

Dann passts ja! Deswegen fahr ich schon seit mehreren Jahren auf sGPU! Auch wenn die Frames manchmal nicht durchgehend hoch ausfallen, empfinde ich es in der Darstellung sauberer. Für Bf3 ist aber sicherlich keine Titan notwendig, zumindest nicht bei 1080p@Ultra. C3 sieht da wieder anders aus, da kann man nicht genug Leistung haben!

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Laut Sendungsverfolgung sollen morgen endlich meine beiden Titan ankommen inkl neuem Board Netzteil usw.

Bin ja mal gespannt ob die Titan noch in Folie verschweißt sind.
 
meine Gigabyte war auch unverschweißt und ich war der erste hier ^^
das hat nicht immer was zu heißen
 
Wenn nicht wäre es sehr ärgerlich :) Ich kann den Feierabend auch kaum abwarten. Dann noch 2 Stunden Heim und die 690er einbauen :) Endlich mal wieder basteln. An der stelle noch mal danke Mario ;)
 
hoffe ihr habt alle die folie vom plexiglas entfernt ;-)

eine frage: bevor ich mir nen wolf such und es selbst rausfinde, dachte ich, ich frag die erfahrenen leute hier.

ds 2688x1512@85hz schnell zusammengeklickt, nicht weiter getestet, was da herztechnisch noch geht.
das prob, wenn ich vsync aktiviere, läuft der mist nur mit 60hz, der checkt iwie nicht, dass mehr gehen würd.

muss ein treiber ding sein oder so, das hatte ich mit den 680ern jedenfalls nicht damals.

warum limitiert der auf den 60hz, wenn ich aber eine custom auflösung mit 85hz erstellt hab.

ehrlich gesagt hab ich mich noch nicht hinreichend informiert, auch was das "displayoverclocking" der titan angeht. hab einfach eine custom auflösung im treiber zusammengeklickt.

wenn jmd ne idee hat, warum der mit vsync nur 60hz macht, wäre ich dankbar.

ps: ist natürlich ein 120hz display
 
Zuletzt bearbeitet:
NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite le

Jetzt wirklich?
 
Nein auch nicht
Kann aber kene Retoure sein ;)

Nicht alle versiegeln ihre Karten
 
Bei meiner letzten Asus Karte war zumindest Folie und Siegel vorhanden.

Das sollte dann bei so hochpreisigen Karten ebenfalls der fall sein.

Hoffe ich zumindest ;-)
 
So, meine Titan + Wasserkühler ist nun auch unterwegs, gerade bei Caseking bestellt, freue mich rießig drauf :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh