[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
oh jetzt muss ich passen, jetzt bin ich überfragt *;D

wenn ich evga precision nutze würde ich halt bei memory clock, oder wie das heißt. +100 MHZ einstellen, was dann da am Ende für ein Gesamtwert rauskommt, keine Ahnung *;D

jetzt bin ich noch verwirrter. in allgemeinen specs steht die titan taktet den ram mit 6008 MHZ ?!

jetzt peile ich gar nixmehr, woher nehmt ihr jetzt 3004 und 1502 `?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Quadpumped 4×1500=6000 MHZ
1750=3500=7000
 
Zuletzt bearbeitet:
Der Offset im EVGA bezieht sich auf 3004 MHz, sind dann bei +100 also 3104. Praktisch Fliegenschiss :)
 
Zuletzt bearbeitet:
Der Offset im EVGA bezieht sich auf 3004 MHz, sind dann bei +100 also 3104. Praktisch Fliegenschiss :)

also wird das fps technisch nix bringen, richtig *;D ? Dann kann ich da ja auch es einfach lassen *;D

verstehe das mit dem ramtakt zwar immer noch nicht... wieso bezieht der sich auf 3004, wenn die karte mit 6008 taktet udn was bedeutet quadpumped *;D ?!

an sich auch egal, wichtig ist jafür mich nur zu wissen, ob mit dem offset hinzufügen noch eins, zwei fps mehr rausspringen. wenn ja, dann stell ich es ein udn wenn nit, dann nit *;D
 
wenn du 100 offset taktest
werden aus angezeigten 1600 dann 1650

und 1600 quadpumped ergibt 6400 effektiv
1650 entsprechend 6600
 
also wird das fps technisch nix bringen, richtig *;D ? Dann kann ich da ja auch es einfach lassen *;D

verstehe das mit dem ramtakt zwar immer noch nicht... wieso bezieht der sich auf 3004, wenn die karte mit 6008 taktet udn was bedeutet quadpumped *;D ?!

an sich auch egal, wichtig ist jafür mich nur zu wissen, ob mit dem offset hinzufügen noch eins, zwei fps mehr rausspringen. wenn ja, dann stell ich es ein udn wenn nit, dann nit *;D

Mach's dir nicht so schwer. ;) Es ist im Grunde ganz einfach, nach meinen Tests, wenn du +100 einstellst, hast du ca. 2-3 Frames mehr, je nach Game oder Benchmark. Wenn du +200 einstellst sind es ca. 4-5 Frames, bei +400 sind es ca. 8 Frames usw. - es wird alles immer gerne verkompliziert!
 
Zuletzt bearbeitet:
GDDR5 hat einen "differential command clock (CK)" (die 1502) und einen "forwarded differential write clock (WCK)", wobei der WCK doppelt so hoch taktet wie der CK, also dann 3004. Jetzt werden aber pro WCK-Taktzyklus zwei 32-bit Worte übertragen und nicht nur eines. Daher kommt nochmal ein Faktor zwei, was in einem effektiven Speichertakt von 6008 MHz resultiert - das wäre dann ein Speicher, der mit 6008 MHz taktet und nur ein Wort überträgt. Die Rechnung finde ich aber unsinnig, denn der Speicher schreibt nunmal nur mit 3004 MHz und nicht mit 6008. Eine bessere Angabe ist dann einfach die resultierende Speicherbandbreite.

@Trill:
So kannst du nicht rechnen, denn es kommt auf die absolute Höhe der fps an. 5% von 100 sind 5, 5% von 30 sind aber nur 1.5
Dazu kommt noch, dass nicht jedes Spiel bzw. jede Einstellung gleichermaßen bandbreitenlimitiert ist. Prozentrechnung hat schon ihren Sinn ;)
 
Zuletzt bearbeitet:
ah okay, jetzt kann ich es ein bisschen besser nachvollziehen. guuut, also wichtig für mich,ich kann mit zb. 100 noch n tick mehr rausholen, dann werde ich das beim nächsten mal vorm zocken erstmal mit +100 versuchen.

+200mhz undso ist ja dann eher was für wasserkühlung und für referenzkühler schon etwas zu hoch ? Trill hatte ja schon mit +132 probleme *;D
 
+200 offset sind 1600 also 3200

das is GAR nix, kannste machen
 
hmmmm okay *;D ach ich probier mal n bisl rum,wundert mich nur, dass er dann aber schon mit +132 probleme hatte *;D ?!?!?
 
Nein... Länge und Breite sind ziemlich gleich... Höhe - naja - höher mag er sein aber 3x ? Das wäre dann 6 Slot ;) ... Nö...



Der Höhenunterschied kommt auf dem Bild nicht mal raus. :)
 
Wie hast du das zum laufen bekommen ?
Sobald ich meine GTX670 dazu stecke läd der Treiber nicht mehr und ich hab nur noch "Standard VGA" ...
614. Beta ?

Ja, dass war in der Tat merkwürdig:

Erstmal lief es nicht: "es wurde keine Nvidia Karte gefunden" !?

Dann hab ich den Beta-Treiber erneut installiert (Neustart!) und irgendwie klappte es dann doch.
Voher fehlte mir auch die GTX680 in der PhysX-Auswahl.

Dann weiteres Problem:

Game schmierte immer ab - lag an Windows 8 - mit Win7 Kompatibilität (Launcher & Game) lief es dann endlich stabil.

(Vorsichtshalber hatte ich noch so eine GfWL Umkopiererei gemacht)

Wie mir schein, nutzt Arham City auch in den Zwischensequenzen PhysX :

Statt min. 30fps (Titan only) mit zusätzlicher GTX680 = min. 40fps
(Direkt am Anfang wo Wayne das Gefängnis betritt).
 
Zuletzt bearbeitet:
@Trill:
So kannst du nicht rechnen, denn es kommt auf die absolute Höhe der fps an. 5% von 100 sind 5, 5% von 30 sind aber nur 1.5
Dazu kommt noch, dass nicht jedes Spiel bzw. jede Einstellung gleichermaßen bandbreitenlimitiert ist. Prozentrechnung hat schon ihren Sinn ;)

Ich kann machen und rechnen wie ich will bzw. ich habe nirgends gerechnet. So wie ich es beschrieben habe passt es in etwa, also was den Gewinn an Frames in Spielen im Durchschnitt angeht, darüber hinaus steht bei meinen Angaben überall ein "ca." dabei - der Rest ist mir ziemlich egal. Aber die Cracks hier können sich ruhig stundenlang die unterschiedlichen Meinungen an die Ohren hauen, ich sehe ja bei mir, wie sich der Speichertakt im Realen auswirkt - trotzdem wird hier gelogen, dass sich die Balken biegen, was einen stabilen Takt beim RAM angeht!;)

+200 offset sind 1600 also 3200

das is GAR nix, kannste machen

Was ich ziemlich gefährlich finde, so eine pauschalisierte Aussage! Zum Glück teste ich selber und höre nicht auf so etwas!

+200mhz undso ist ja dann eher was für wasserkühlung und für referenzkühler schon etwas zu hoch ? Trill hatte ja schon mit +132 probleme *;D

Bitte teste es selber genau aus und sei ehrlich zu dir selber, das ist sicherer! ;)
 
Zuletzt bearbeitet:
Du implizierst also, dass andere Werte als deine nicht real sind? So klingt es jedenfalls. Und dann unterstellst du den Leuten auch noch Lügen? Und was ich schrieb, stimmt natürlich - absolute fps-Angaben machen keinen Sinn, denn die gelten nur für ein bestimmtes Szenario. fdsonne hat ja schon erklärt, wie sich das Speicher-OC prozentual auswirkt, das deckt sich auch in etwa mit meinen Messungen.
 
Du implizierst also, dass andere Werte als deine nicht real sind? So klingt es jedenfalls. Und dann unterstellst du den Leuten auch noch Lügen? Und was ich schrieb, stimmt natürlich - absolute fps-Angaben machen keinen Sinn, denn die gelten nur für ein bestimmtes Szenario. fdsonne hat ja schon erklärt, wie sich das Speicher-OC prozentual auswirkt, das deckt sich auch in etwa mit meinen Messungen.

Hier impliziert jeder irgend etwas! Und klar, wenn einer schreibt, sein Speicher ist mit +500 stabil in allen Lebenslagen, den nenne ich Lügner. ;) Nimm's nicht so ernst, es geht nur um Speicher!
 
Ich hab +100 Mhz bei GPU Glock und 200 Mhz bei Memory takt. Dann hab ich noch Powertarget auf 106% gemacht. Was ja dann noch per Boost höher taktet. Denke mal es reicht bis ca 1100 mhz per Boost zu haben. Hat man bestimmt laut test 10 FPS mehr als standard takt je nach Spiel

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
hihi ach ich bin da sehr vorsichtig, ich fange langsam an und arbeite mich langsam hoch und gucke was geht, also werde mit 100 mal anfangen, dann 120 usw. *;D

@ thommy96

du kannst die gpu clock ruhig noch höher einstellen, bei mir läuft zb. +145 mhz perfekt, dannhaut das bei dir bestimmt auch hin, denke ich mal *;D ist immer noch unter werten, die man woanders liest, die über 150 mhz (oder sogar 165 habe ich mal gesehen) gepusht haben *;D einfach mal testen.
 
Zuletzt bearbeitet:
sagt gar nix, womit haste denn belastet
 
Hab mal ne Frage zu den Herstellern.

Wenn man die Wahl hat zwischen Gigabyte und Zotac und selben Preis, welche sollte man da nehmen und warum?
 
NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite le

Sind alle gleich!

Ist doch nur eine Geschmacksfrage? ;)
 
Valley taugt nichts meiner meinung nach, meine 680 läuft da auch mit 1411 Mhz durch aber sobald auch nur 1 Spiel gestartet wird war es das.

Dagegen ist der Heaven 4.0 schon besser.
 
jo für Valley nice
 
Re: NVIForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Asic?

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Also ich finde, die Titan ist einfach zu günstig, so kann sie sich wieder fast jeder zweite Larry leisten und man hat wieder kein Alleinstellungsmerkamal, das einem vom Pöbel abhebt. Ich hab mir jetzt auch eine bestellt, weil ich finde, sie sieht einfach super aus. Dazu kommt noch GPU Boost 2.0 rockt mal wirklich.
 
Also ich finde, die Titan ist einfach zu günstig, so kann sie sich wieder fast jeder zweite Larry leisten und man hat wieder kein Alleinstellungsmerkamal
Bitte was?:fresse: "Ich brauche Hardware, um zu zeigen, wie toll ich bin?" Lustig, fast schon kindisch. Aber nur ein bisschen:shot: Du weißt hoffentlich, dass das hier das Luxx ist und hier sowieso sich die ganzen ultra hardcore freaks und nerds treffen. Da ist es ganz normal, dass es hier so scheint, dass viele Leute die Karte schon hätten. In wirklichkeit kaufen selbst 90% der üblichen High-End Enthusiasten sich keine 900€ Karte;)
Und wenn du ein alleinstellungsmerkmal brauchst, kauf dir doch 5 davon (PhysX außen vor), ach halt, man kann ja nur 4 im Quad-SLI laufen lassen...



Ich kaufe mir solche Hardware, um diese auch zu nutzen. Und für das gebotene ist Titan "immer" noch zu teuer. Aber so wie ich mich kenne, hab ich spätestens in drei Monaten sowieso wieder eine im System... kann mich da einfach nicht beherrschen:banana:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh