[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
irgendwie versteh ich das mit dem Powertarget nicht.Man kann standartmässig +106 einstellen, bleibt aber trotz übertaktung immer unter 99%. Aber die GPU läuft nie auf vollem Boost. Liegt das an der Luftkühlung? Temptarget auf 94°C gestellt und in Games bleibt die Graka immer unter 85°C

kann man denn irgendwie mehr Watt rausbekommen als die 300W oder würde das auch nix bringen?
 
Guten Morgen,

Ich vermute bzw. hoffe, dass sich hier einer überteuerte EVGA SC/SC Signature kaufen möchte. Falls dies aber trotzdem der Fall sein sollte, anobo.de hat zur Zeit lieferbare SC Signature Karten für 947 statt 1049€.


Sent from my iPad using Hardwareluxx app

die Karten sind doch von der Hardware gleich wie die normalen, bei EVGA steht nix neues dazu
 
irgendwie versteh ich das mit dem Powertarget nicht.Man kann standartmässig +106 einstellen, bleibt aber trotz übertaktung immer unter 99%. Aber die GPU läuft nie auf vollem Boost. Liegt das an der Luftkühlung? Temptarget auf 94°C gestellt und in Games bleibt die Graka immer unter 85°C

kann man denn irgendwie mehr Watt rausbekommen als die 300W oder würde das auch nix bringen?

was ist denn an dem Boost so schwer zu verstehen?

man hat 2 Begrenzer, Power und Temperatur
wird eines und oder beide erreicht gehts runter
wird keins erreicht gehts hoch

Beispiel:

1100 MHz, 50°, 1,2V, 100% Power > nichts passiert
1100 MHz, 80°, 1,2V, 100% Power > 1-2 Taktstufen runter und VCore runter
1100 MHz, 80°, 1,18V, 110% Power > 2-3 Taktstufen runter und VCore runter
1100 MHz, 55°, 1,18V, 95% Power > VCore hoch, Takt hoch
 
ja das habe ich schon kapiert, aber ab welchen Temps, bzw Power lvl Taktet er runter? Ab 80°C? Und wenn man mittels Wasserkühlung permanent weit unter 80°C bleibt, kann man das volle 106% PT ausnutzen?
 
Wie hoch kann mam ohne probleme und spannung Erhöhung den Memory takt übertakten? Sind 200 Mhz mehr in grünen bereich? Also von 1502 auf 1602 mhz (3004 auf 3204 Mhz)?

Wie genau merkt man es, das es stabil ist außer Artefakte und bluescreen bekommen? Kann eine hohe übertaktung die spiele zum stocken bringen wie nachladeruckler ohne absturz und Artefakte? Weil crysis 3 und tomb raider stocken mal, was nervig sein kann. Hoffe das ist nur ein treiber bug oder spiel bug
Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
ja das habe ich schon kapiert, aber ab welchen Temps, bzw Power lvl Taktet er runter? Ab 80°C? Und wenn man mittels Wasserkühlung permanent weit unter 80°C bleibt, kann man das volle 106% PT ausnutzen?

Ok 80 Grad ist die Schallmauer
Ab 65 reagiert er schon, ab 70 mehr, ab 75 noch mehr
Und du kannst die 106 % solang ausnutzen, bis du sie erreichst, dann throttled er auch, auch wenn du - 273 Grad auf der GPU hast

Wenn du unter Air 75 Grad erreichst ist Boost 2.0 deine Power egal und wenn du da bei 5 Watt bist, er throttled, weil du zu heiß bist
 
ah achso, alles klar, das wollte ich wissen!

Wenn ich mein Bios editiere und somit beispielsweiße auf 113% PT komme, kann ich die dann auch ausnutzen, oder ist hier ein interner Riegel davor?

Dann ist ja Wasserkühlung pflicht für Titan:bigok:
 
du kannst 113% nutzen solang du nicht zu warm wirst
 
Dann wirds Zeit für nen Wasserkühlblock

welcher Wasserkühler ist für die Titan denn zu Empfehlen? Hatte auf allen meinen Grafikkarten bis jetzt Aquacomputer.
Aber der EK Water Block in Nickel gefällt mir auch sehr gut!

Oder geben die sich nix?!
 
Wasserkühler ist doch eigentlich immer eine Optik frage nehme sich alles nicht viel mMn?!
Weil in 690 Fred keine antwortet evtl hier.
Hey Leute mal eine Frage. Ich bin vor ein paar Tagen von der GTX 670 auf die 690 umgestiegen und habe die neusten Treiber installiert.
Jetzt habe ich das Problem das wenn ich den PC in Standby schicke und wieder "wecken" möchte das er immer komplett neu Bootet.
Hat jemand eine Idee ob es am Treiber liegt ob was ich dagegen tun kann?
 
Hey Leute mal eine Frage. Ich bin vor ein paar Tagen von der GTX 670 auf die 690 umgestiegen und habe die neusten Treiber installiert.
Jetzt habe ich das Problem das wenn ich den PC in Standby schicke und wieder "wecken" möchte das er immer komplett neu Bootet.
Hat jemand eine Idee ob es am Treiber liegt ob was ich dagegen tun kann?

Hast du eine komplette Neuinstallation vom Treiber gemacht?

Erweiterte Installation Haken rein bei komplette Neuinstallation dann sollte er alles Nutzlose in der Registrierung löschen
 
Ich habe mir eine Anleitung gesucht habe habe und mit 2 Tools versucht alles zu löschen. Ab entweder habe ich was falsch gemacht oder keine Ahnung ^^
 
Tools sind gar nicht nötig wenn du von Nvidia auf Nvidia upgrades

Wenn du Pech hast zerwurstest du die damit das OS mehr wie alles andere

Probier's mal mit dem was ich dir oben gesagt hab
 
Werd dann mal bissel im SLi testen.
Was mir schon aufgefallen ist: passt die Auslastung der Karten nicht, dann takten sie runter bis 666Mhz, weil sie "unterfordert" sind. Rechner verbrät dann sogar weniger Saft wie mit einer Karte :shot:.
Ich möchte gern 3 D mit meinem 120 Hertz tft machen welche brille schnurlos oder mit kabel gibt es sonst was zu beachten was empfiehlt ihr mir.
nVIDIA GeForce 3D Vision 2 Wireless Kit (942-11431-0009-001) Preisvergleich | Geizhals Deutschland

Leider besitzt dein Moni keinen Lightboost, somit ist das Bild in 3D dunkler wie z.b. beim XL2420T. Ich hab gewechselt vom 10T zum 20T samt meiner ollen 3D 1er Brille und dank Lightboost ist es in 3D viel heller. Somit keinen Wechsel auf die neue Brille nötig :d.
WOW, GZ :)

PB habe ich manuell aktualisiert und hat genau gar nichts gebracht.

mfg
tobi
Ging mir ähnlich, PB aktualisiert, das Game in PB aktualisiert und trotzdem flog ich runter... Lösung: Rechnerneustart. Seitdem meckert PB net mehr rum^^.
Sagt mal ist das nicht etwas wenig für SLI?
Mit meinem 314.09 kann ich Firestrike Extreme vergessen. Ruckliger wie mit nur einer Karte. Warten auf SLi-Patch FM und/oder gescheites SLi-Profil NV angesagt.
 
Nachnahme kein DHL. Das ist schonmal Mist. Kann sie also nichtmal abholen gehen.

932€ sind immernoch zu viel!
 
so crysis 3 durch, was für geile grafik *;D und super titan performance. hatte heute 1135 mhz als höchstleistung, aber auch konstant für lange zeit. also meistens über 60fps bei crysis 3 klar auch bereiche um 50, aber störte nit wirklich, also alles super.

also mehr als + 142 mhz auf die auf die boost clock geht bei mir wohl nit *;D

hatte eben +148 mhz offset probiert noch. aber crysis 3 abgeschmiert.. wie bei far cry 3 ganz am anfang mit +155mhz offset. aber ist ja kein weltuntergang, reicht ja für geile taktraten. kann halt im evga precision nichts anderes mehr wählen. nach +142 kommt direkt +148, dann + 155 usw. Kann ich da echt nicht zb, 145 mhz auswählen ? das wäre ja noch ein versuch wert, passiert ja nix.

vllt. gucke ich nochmal im afterburner, wie da die schritte sind zum übertakten.

Naja auf jeden fall wartet meine titan jetzt auf metro last light *;D - spiele nochmal ein bisl far cry 3 in nächster zeit, das läuft ja absolut zucker auf der titan *;D - da geht auch 8 x msaa. zumindest lief das bei nem kurz test optimal, muss ich nochmal testen und länger spielen.
 
Zuletzt bearbeitet:
Ach ich hätte ja so gerne auch eine aber ich zocke nur mit 1080p und habe ne GTX 680. Da wäre die Kohle schon rausgeschmissen bei ca 949€.
 
Naja, die 680er kannst du im Moment noch sehr gut verkaufen. Ich Daddel auch nur in 1920*1200. Für mich hat es sich trotzdem gelohnt.
 
so crysis 3 durch, was für geile grafik *;D und super titan performance. hatte heute 1135 mhz als höchstleistung, aber auch konstant für lange zeit. also meistens über 60fps bei crysis 3 klar auch bereiche um 50, aber störte nit wirklich, also alles super.

also mehr als + 142 mhz auf die auf die boost clock geht bei mir wohl nit *;D

hatte eben +148 mhz offset probiert noch. aber crysis 3 abgeschmiert.. wie bei far cry 3 ganz am anfang mit +155mhz offset. aber ist ja kein weltuntergang, reicht ja für geile taktraten. kann halt im evga precision nichts anderes mehr wählen. nach +142 kommt direkt +148, dann + 155 usw. Kann ich da echt nicht zb, 145 mhz auswählen ? das wäre ja noch ein versuch wert, passiert ja nix.

vllt. gucke ich nochmal im afterburner, wie da die schritte sind zum übertakten.

Naja auf jeden fall wartet meine titan jetzt auf metro last light *;D - spiele nochmal ein bisl far cry 3 in nächster zeit, das läuft ja absolut zucker auf der titan *;D - da geht auch 8 x msaa. zumindest lief das bei nem kurz test optimal, muss ich nochmal testen und länger spielen.

Hab zwar kein Titan, aber das Tool nutz ich trotzdem... klick mal direkt auf die Zahl ohne den schieber zu nutzen. Dann kannst du direkt dein offset eingeben.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Sooo...meine zweite kommt wohl die woche...beende meine benchkarriere und werde mit sli bis ende des Jahres glücklich sein!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Sooo...meine zweite kommt wohl die woche...beende meine benchkarriere und werde mit sli bis ende des Jahres glücklich sein!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

halten die 2 nicht ein wenig länger? Wollte ende Jahr eine 2. verbauen und so bis ende 2014 Glücklich sein ;-)
 
Ich bin nur so lange glücklich, wie es nichts schnelleres gibt!
Könnte mir fur die kohle auch zwei 7990 oder eben ares kaufen...aber das ist eben nicht das schnellste!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
halten die 2 nicht ein wenig länger? Wollte ende Jahr eine 2. verbauen und so bis ende 2014 Glücklich sein ;-)
Das ist doch schlichtweg eine Frage der Settings...

Manche erzählen mir hier, für 1200p wäre eine Titan doch gar nicht nötig. Ich hole hingegen hole mir genau dafür noch eine zweite, weil eine alleine die High Quality Settings auch nicht packt. Jetzt, nicht 2014.

Aber es muss ja nicht jeder mit SGSSAA zocken wollen, wenn es um die reine Spielbarkeit geht würden zwei Titanen sicherlich bis Ende 2014 "reichen".
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh