[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Ich war mal so frei und kickte einige Beiträge.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum du den Beitrag von p$YcHo gelöscht hast verstehen wahrscheinlich nur die Elben in Bruchtal.:hmm:
 
Versteh ich auch nicht aber auch egal... War ja nix wichtiges ;)

Joar... Ich warte halt noch auf die Wasserkühler dann schauen wir mal was damit noch so geht...

Über den Preis braucht man nit viel zu sagen... zu teuer... Wer was anderes sagt redet es sich schön oder hat genug Geld und es interessiert ihn einfach nicht :fresse:
 
Zuletzt bearbeitet:
Die Verzögerung versteh ich gar nicht (Wasserkühler)Weil nur K20 gibt es mit Luftkühler.K20X gibt es nur Passiv oder mit ???(nur Lüfterlos erhältlich).
 
Zuletzt bearbeitet:
Jungs, ich muss mal feststellen: für mich ist diese Karte perfekt!
Bei SGSSAA lässt die ja richtig ihre Muskeln spielen, und dann noch die 6GB. *-*

Liebes XSPC-Team, macht hinne. Ick will die WaKü dafür.
 
Die Verzögerung versteh ich gar nicht (Wasserkühler)Weil nur K20 gibt es mit Luftkühler.K20X gibt es nur Passiv oder mit ???(nur Lüfterlos erhältlich).

Die EK's werden die ersten sein und die sollen erst am Montag rausgehen. Ich gehe nicht davon aus das ich vor Ende der Woche die Kühler haben werde... leider. Aber ich brauch ja eh noch den restlichen WaKü Kram, weil ich bau nur einmal um ^^

Was ich aber eher ne Frechheit finde... Man geht auf die EK Website und da steht "in Stock" und man bestellt 2 Stück per Express (24€ Versand !) und bekommt dann als Antwort das die erst am 4.3. verschickt werden :hmm:

Jungs, ich muss mal feststellen: für mich ist diese Karte perfekt!
Bei SGSSAA lässt die ja richtig ihre Muskeln spielen, und dann noch die 6GB. *-*

Liebes XSPC-Team, macht hinne. Ick will die WaKü dafür.

Und genug Dampf für Crysis 3 ^^
 
Zuletzt bearbeitet:
Die EK's werden die ersten sein und die sollen erst am Montag rausgehen. Ich gehe nicht davon aus das ich vor Ende der Woche die Kühler haben werde... leider. Aber ich brauch ja eh noch den restlichen WaKü Kram, weil ich bau nur einmal um ^^

Was ich aber eher ne Frechheit finde... Man geht auf die EK Website und da steht "in Stock" und man bestellt 2 Stück per Express (24€ Versand !) und bekommt dann als Antwort das die erst am 4.3. verschickt werden :hmm:



Und genug Dampf für Crysis 3 ^^

Mann könnte fast meinen EK hat erst Ende Februar eine Titan bekommen und sind vor Ehrfurcht erstarrt.:)
 
Falls es jemanden interessiert, ich habe ein wenig die single und double Precision Leistung getestet, nur synthetisch mit SiSoft(Rechenleistung GP (GPU/CPU/APU). Es folgen meine Ergebnisse.

Zur Erklärung: GTX 680 Eintrag als Vergleich, SP ist Titan im SP Mode (Default Core Clock 993 MHz) DP im CUDA doppelte Genauigkeit Modus (Default Clock 836 MHz). Ich habe Afterburner benutzt um die Core Clock zu übertakten. Beim Benchmark wird diese beim double precision Test von der Karte automatisch abgesengt.

Interessant ist der letzte Eintrag. Wenn ich die Core Clock um 350 MHz anhebe was als Resultat zu 1124 MHz im DP Modus führt, undervolted die Karte automatisch und sie wird nicht mehr durch das Power Limit beschränkt, da sie dann nur noch bei rund 98% rechnet und deutlich kühler bleibt. Einen Schritt davor drosselt sie, da die Karte zwischen 104 und 108 Prozent beim Power Limit schwankt. Höhere Taktraten konnte ich nicht testen, da sie dann durch die hohe SP Clock abstürzt.

Testsystem: ASUS GTX Titan + i7 3930K@4,2GHz

ModusClock SPClock DPPower LimitPowerClock OCSingleDouble
GTX 680100 %02318,54 Mpixel/s205,35 Mpixel/s
SP993 MHz993 MHz100 %03448,03 Mpixel/s308,26 Mpixel/s
DP836 MHz836 MHz100 %02925,66 Mpixel/s1717,48 Mpixel/s
DP993 MHz903 MHz106 %1603406,09 Mpixel/s1851,35 Mpixel/s
DP1058 MHz1019 MHz106 %105 %2203636,07 Mpixel/s2092,68 Mpixel/s
DP1087 MHz1045 MHz106 %105 %2503765,10 Mpixel/s2145,69 Mpixel/s
DP1137 MHz1071 MHz106 %>105 %3003942,62 Mpixel/s2212,97 Mpixel/s drosselt DP Clock
DP1189 MHz1124 MHz106 %98 %3504106,42 Mpixel/s2305,26 Mpixel/s undervolter auf 1,08v DP

Testszene in 3dsMax 2013 mit iray im GPU only Modus
993 MHz 681 Sekunden
1189 MHz 586 Sekunden
GTX 680 1159 Sekunden

Gruß der Spawn
 
Zuletzt bearbeitet:
und gegen was Bencht du das Cuda (luftleerer Raum)Titan ist leistungsfähig ohne Frage. Aber z.B Single Precision ist Tahiti besser.
 
Mir ging es weniger um einen Schwanzvergleich gegen XYZ sondern eher um den Punkt, dass bei 1124 MHz Clock bei Double Precision die Karte undervolted. Was schließlich für mich bedeutet, dass die Karte bei 1124 MHz nicht nur schneller rechnet :) sondern kühler bleibt und somit dies die optimale Taktrate ist. Vielleicht ist das ja eine Info, die für andere "Titan" Besitzer eine gewisse Relevanz hat.

Ferner irritieren viele Benchmarks bei den Reviews im Netz, die nicht darauf eingehen, dass ich im CUDA doppelte Genauigkeit Modus problemlos die Core Clock anheben kann und somit eben das Beste aus beiden Welten habe. Fazit ich brauche nichts umschalten sondern habe ihn schlicht immer an.

Was nutzt mir single Precision, wenn ich auf double angewiesen bin und eine AMD, wenn ich CUDA nutze. Sorry auch nur Luft oder?
 
SiSoft misst keine Rechenleistung sondern MPixel/s. Und die wiederrum ist nicht abhängig von der Rechenleistung, wie man schön am Ergebnis sieht.

Daher: Was hat die Bemerkung von Tahiti also hier verloren?!
 
Wenn du an wirklichen Ergebnissen interessiert bist empfehle ich dir CT 2/2013 Artikel :Ein Fächer Schnelles .:cool:
 
Der GTX Titan ist doch auch beschnitten in der rechenleistung damit die leute die server karte kaufen müssen wenn es schnell sein soll!
 
Es War doch immer so das ein Nachfolger immer in dem Dreh 500 bis 550 Euro gekostet hat. Kenne das seit der GeForce 2 und jetzt 900 Euro der Titan und ATI hat nicht mal einen Nachfolger. Gibt es schon Infos wieso und weshalb nvidia diesen Schritt geht. Das muss noch Gründe haben auch das ATI nichts bringt.

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App
 
Es War doch immer so das ein Nachfolger immer in dem Dreh 500 bis 550 Euro gekostet hat. Kenne das seit der GeForce 2 und jetzt 900 Euro der Titan und ATI hat nicht mal einen Nachfolger. Gibt es schon Infos wieso und weshalb nvidia diesen Schritt geht. Das muss noch Gründe haben auch das ATI nichts bringt.

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App

Ich glaube du meinst Curacao aber warum sollte AMD jetzt schon mit dem Big Dog rauskommen wenn ich die 28nm Fertigung für Jaguar brauche.Wenn ich AMD wäre und Titan sehe würde ich sagen ausser Konkurenz.:)
 
Der Grund? TITAN für 550€ würde jegliche Darscheinsberechtigung aller anderen Karten von 250-500€ zu nichte machen.

nVidia ist einfach ein Opfers des verbesserten Perf/Watt gegenüber Fermi geworden.
 
Warum sollte die schnellere Karte billiger sein?

Achje, jetzt verstehe ich auch, wieso du einem nVidia-Hasser zustimmst. Wohl vom selben Fundamentalisten-Stamm, gell?
 
Hasser,Fundamentalisten-Stamm Und am Ende heisst es espanolplaya ist Spielverderber.

---------- Post added at 03:50 ---------- Previous post was at 03:45 ----------

Im 3 .Versuch dich zu verstehen habe ich begriffen wen du meinst mit NVidia-Hasser:Ailuros Ob Scully damit einverstanden ist ,ich glaube nicht.:)

---------- Post added at 03:52 ---------- Previous post was at 03:50 ----------

Meine persönliche Meinung: Meine Signatur
 
Zuletzt bearbeitet:
Irgendwie scheint die Allgemeinheit nicht verstanden zu haben, dass die GTX Titan kein Nachfolger oder ähnliches der GTX 680 ist. Deswegen eben Titan und nicht 68x oder 7xx, diese kommen erst Ende des Jahres mit einer vermutlich 780 und 5GB vRam als Flaggschiff. Sofern die Gerüchteküche stimmt. Die Frage stellt sich, wie wird sich diese zur Titan verhalten?

Aber was solls, ich bin zufrieden.
 
Irgendwie scheint die Allgemeinheit nicht verstanden zu haben, dass die GTX Titan kein Nachfolger oder ähnliches der GTX 680 ist. Deswegen eben Titan und nicht 68x oder 7xx, diese kommen erst Ende des Jahres mit einer vermutlich 780 und 5GB vRam als Flaggschiff. Sofern die Gerüchteküche stimmt. Die Frage stellt sich, wie wird sich diese zur Titan verhalten?

Aber was solls, ich bin zufrieden.

Danke das ist mal eine Antwort. Habe nur gefragt weil es das noch nie gab bei Singlegpu. Mich bringt das durcheinander. Also Titan ist nur für extreme Einstellung und es gibt keinen Nachfolger weil es eh nicht gebraucht wird zu Zeit

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App
 
Titan ist das non plus ultra wer das bestreitet lebt nicht auf diesem Planeten muss man aufgrund dieser Tatsache eine 7970 als aldihardware bezeichnen.Von 10 Millarden Menschen können 100 Menschen ohne Sauerstoff auf den Mount Everest steigen .Alle anderen sind keine
BIOEier.:)
 
Zuletzt bearbeitet:
Irgendwie scheint die Allgemeinheit nicht verstanden zu haben, dass die GTX Titan kein Nachfolger oder ähnliches der GTX 680 ist. Deswegen eben Titan und nicht 68x oder 7xx, diese kommen erst Ende des Jahres mit einer vermutlich 780 und 5GB vRam als Flaggschiff. Sofern die Gerüchteküche stimmt. Die Frage stellt sich, wie wird sich diese zur Titan verhalten?

Aber was solls, ich bin zufrieden.

Sorry, muss mich bezüglich des Nachfolgers korrigieren. Gerüchteküche sagt GTX 880 mit 5GB, zuvor GTX 780 mit 3GB (Refresh) siehe Anhang... (Quelle leider verlorengegangen)

gbeaaahg.png

Das ist dann aber auch genug off-topic :)
 
Zuletzt bearbeitet:
Du meinst wahrscheinlich Maxwell.Über den Chip gibts noch weniger Informationen als Sea Iland.Link
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh