[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
ok, das sind Synthetische Benches, wie schauts in Games aus ?

Werde jetzt erst die Synthis durchtesten, dann mal C3.

edit: Beim Unigene Valley 1.0 gibt es auch keinen Vorteil mit PCIe 3.0. Dann werde ich mal Crysis 3 probieren.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
siehst ja ist schon ein illusterer Club der auf eine HC wartet .Ich hoffe das nicht erst ende März wird.Wo wird man am schnellsten eine her bekommen deiner Meinung nach.

Gruß herm

Laut Jacob ist (mitte) März das "Timetarget". Klingt nach "variabel". Dann ist die aber erst in den Staaten verfügbar. Hoffen wir das es sich nach vorne verschiebt. Ich hatte heute nochmal nachgeschaut und es gibt noch nichtmal finale Taktraten :(
Woher ist ne gute Frage, denn nichtmal evga selbst haben normale Karten in EU lagernd. Ich schätze geizhals wird uns da wohl schneller/besser informieren und das sogar wahrscheinlich etwas günstiger als über evgas hauseigenem shop.
Hoffendlich werde ich mich nicht ärgern müssen mit einem lediglich schwach angezogenem Grundtakt und das wars. Dafür dann 1200,-€ (?) wenn ich hier die 700,-€ Schnapper sehe. Den Kühler und BP kann man ja einzeln bestellen. Ab mitte März sollen die BP ja auch schon einzeln verkäuflich sein. Ich denke die Kühler ebenso.
2 Wochen dauert es so im Schnitt nach Release in den USA bis die Karten hier eintreffen
 
Auch in C3 kein nennenswerter Unterschied zwischen PCIe 2.0 vs 3.0

3840x2160 mit 2XT SMAAA
alles auf Very High
Lens Flares Off

PCIe 3.0
Frames, Time (ms), Min, Max, Avg
3078, 111000, 18, 34, 27.730

PCIe 2.0
Frames, Time (ms), Min, Max, Avg
3053, 111000, 18, 33, 27.505
 
was haste noch zu testen da ? :)

0,2fps Differenz, gutgut. Ein weiterer Grund erstmal noch auf S1366 bleiben zu können. Die 4,5gig reichen auch noch.
 
was haste noch zu testen da ? :)

0,2fps Differenz, gutgut. Ein weiterer Grund erstmal noch auf S1366 bleiben zu können. Die 4,5gig reichen auch noch.

Ich denke das spielt wirklich erst eine Rolle wenn mehr als 2 GPUs zum Einsatz kommen. Das kann ich erst in den nächsten Tagen testen, das neue Netzteil wurde noch nicht einmal verschickt...
 
Ich denke nicht dass das für die meisten in Frage kommt, aber interessant wäre es auf jeden Fall. 2GPUs wären von den Titanen für mich sinnlich gut und finanziell ein absolutes Limit.
Anstatt auf ne 3. Karte zu setzen würde ich eher andere Baustellen angehen. Würde zwar nicht gerade mehr fps auf den Schirm zaubern, aber PC ist nunmal ein scheiß teures Hobby :fresse:
 
Jupp, Differenz IDLE zu Valleybenchlast sind ziemlich exakt 205-210Watt.
Ich denke mit entsprechenden Titanperlen sollten die 1006MHz durchaus mit weit weniger wie 1,05V machbar sein und unter 200W liegen. Vielleicht geht's nicht nur an, sondern unter die 1V bei ~1006MHz. Müssten mal andere Titanbesitzer gegentesten^^.

Hätte ich jetzt auch ne Titan, würde ich wohl wieder umfassende Bandbreiten-tests durchführen, sowie andere dinge ausprobieren:) Naja, ich hoffe, dass es in rund 2 Monaten (spätestens!:d) soweit sein wird :)
 
Laut Jacob ist (mitte) März das "Timetarget". Klingt nach "variabel". Dann ist die aber erst in den Staaten verfügbar. Hoffen wir das es sich nach vorne verschiebt. Ich hatte heute nochmal nachgeschaut und es gibt noch nichtmal finale Taktraten :(
Woher ist ne gute Frage, denn nichtmal evga selbst haben normale Karten in EU lagernd. Ich schätze geizhals wird uns da wohl schneller/besser informieren und das sogar wahrscheinlich etwas günstiger als über evgas hauseigenem shop.
Hoffendlich werde ich mich nicht ärgern müssen mit einem lediglich schwach angezogenem Grundtakt und das wars. Dafür dann 1200,-€ (?) wenn ich hier die 700,-€ Schnapper sehe. Den Kühler und BP kann man ja einzeln bestellen. Ab mitte März sollen die BP ja auch schon einzeln verkäuflich sein. Ich denke die Kühler ebenso.
2 Wochen dauert es so im Schnitt nach Release in den USA bis die Karten hier eintreffen

Dank dir für die Infos.Die 720.-war ja nur ein paar Minuten zu haben und 1200.-wäre schon hart. Im Evga-Shop finde ich keinen Bestellknopf aber Geizhals wird schon richten.Vielleicht liefert der Käsekönig bei mir.Wäre mir schon lieb so ne HC brauche ich nicht zu schrauben und wenn du die3Teile Karte BP und Kühler kaufst bist du auch bei ca.1000.-€. Da hoffe ich das die HC ein besseres BIOS hat und man sie besser aus reizen kann. Bleibt weiter Spannend.

Gruß herm
 
Crosspost ausm 3DCenter:

Krasse VRAM Auslastung in C3:
Settings waren 3840x2160 16QxMSAA+8xSGSSAA ;D
5,7 GB :eek:

Ich sag euch, in ein paar Tagen werde ich das mit den anderen zwei Titanen mit 16 FPS zocken ;)

 
Zuletzt bearbeitet:
Also nochmal 4 Kaufen und es wird mit 32 fps fast spielbar :fresse2:

Ich hoffe die Asus sind bald mal wieder lieferbar bei Mindfactory 2 bestellt aber nix tut sich -.-
 
Also nochmal 4 Kaufen und es wird mit 32 fps fast spielbar :fresse2:

Ich hoffe die Asus sind bald mal wieder lieferbar bei Mindfactory 2 bestellt aber nix tut sich -.-

Experimentiere gerade mit den Settings und es wird wohl irgendwas mit DS + SMAA werden. Das ist IMO der beste Kompromiss aus Leistung und Bildqualität.
 
Nvidias Speichermanagement nimmt sich halt, was geht. Das heißt nicht, das C3 das alles braucht. ;)

Nicht desto trotz.. will ja auch eine. Ich war grad schon in den relevanten CeBIT Hallen... noch nix zu sehen.
Morgen früh mal zu MSI und Asus?!
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
blablabla und täglich grüßt das Ati-Tier
 
Das glaube ich erst, wenn es soweit ist!
Im zack-zack gab es damals eine 5970 zum Release für schlappe 100.-€ über der 5870 - da meinten auch soooo viele, der Preis wird sich senken...tat er auch, als dann die 6990 kam :fresse:
 
bin zwar auch immer sehr "für" preissenkungen, nur warum ne MGPU-lösung des mitbewerbs dafür anlass sein soll, erschliesst sich mir nicht. GTX690 ist rein frametechnisch auch "schneller" als titan - trotzdem wohnt sie zur zeit nur im zweitrechner. 60fps @MGPU sind nicht mit 50fps @SGP vergleichbar.

wünschte mir, dass das endlich mal jemand ausser mir und PCGH kapiert.


(..)

mfg
tobi
 
Zumindest bei SLI spüre ich ab 50fps keinen Unterschied zwischen AFR und SingleGPU. Kann natürlich sein, dass du einfach empfindlicher bist.
 
ich sehs auch so ;)

Ich bevorzuge evenfalls Singlegpu und darum ist es Titan statt 690 geworden
 
ich sehs auch so ;)

Ich bevorzuge evenfalls Singlegpu und darum ist es Titan statt 690 geworden

ich habe ja nun bekanntermaßen beides und wenn ich wollte, könnte ich sie auch beide ins selbe system stecken. nur hat mich die erfahrung mit mischbetrieb (hatte im vergangenen jahr monatelang 7970 neben GTX690 stecken) gelehrt, dass das switchen eher nervig als zuträglich ist.

pauschalisierungen zu AFR vs. SGPU verkneife ich mir, weil es recht individuell ist (siehe beitrag von box). wenn ich etwas pauschalisieren wollte, dann bestenfalls, dass SGPU immer läuft und SLi nur in 80% meiner software ohne frickelei zufriedenstellend. im SLI z.b. benötige ich sync recht oft, für ein saubereres gameplay. im SGPU-betrieb reicht mir sync dort, wo ich von tearing gestört werde. ein effekt, den ich noch nie ertragen konnte und der einzig auf diesem ASUS VG278HR, der vor mir steht, zum glück seltenst auftritt *niederknietweildaspanelsogeilschnellist*

ohne frage ist GTX690 schneller - wie erwähnt - wenn man nur auf absolute frames achtet. das delta zeigt sich auch recht reproduzierbar im 2011 schnullermark (X5500 vs. X7000) lässt man hingegen die ganzen OSDs aus, benchmarks aussen vor und spielt das spiel einfach, erkenne zumindest ich recht schnell, dass sich titan nirgends schlechter anfühlt. und darauf kommts doch an, wenn man gechillt einen rauszocken und sich an seinen investititionen ergötzen möchte. die ollen frames sind zum rumzeigen und das macht solange spaß, bis man die grenzen kennt und leute kommen, die mit dem selben IHV mehr erreichen. einzig cross-IHV-vergleiche lassen mich diesbezgl. kalt.. wir wissen warum.

edit: man muss dazu vllt. im hinterkopf behalten, dass ich mein equipment von hdtv, über beamer und TFTs auf 1080p-ausgabe ausgerichtet habe (wohnkino und 3D -fan) und da ist sowieso bei maximalem 2560er (1440p) downsampling schluss -> das wuppen beide karten. höheres DS ist nicht wirklich kompatibel (siehe meinen dauerbrenner skyrim, ein spiel, das auf beiden PCs regelmäßigst läuft, weil sowohl ich, als auch meine bessere hälfte es seit 150+ spielstunden lieben). daneben bin ich - klammert man gamepad-spiele mal aus - auch auf möglichst latenzfreie eingabegeräte umgestiegen (kabelmaus, PS/2 mecha-keyboards), sodass die die einzigen verbleibenden latenzverursachenden ursachen im sync und im AFR zu suchen sind. hat man sich ersteinmal an HQ-zocking (tearfrei, lagfrei) gewöhnt, fallen einem "rückschritte" in der direktheit extrem schnell auf. ähnliches bemerkt man auch, wenn man von einem schnellen rechner auf einen langsamer umsteigt.. das ist wie irgendwas aktuelles vs. atom.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
weswegen sich SLI auch nur mit der jeweiligen high end Karte lohnt für das Beste Ergebnis. Somit dann Titan SLI
 
war das mit der Titan Lightning von MSI eigentlich nur ein Gerücht ? Die sollte doch angeblich auf der Cebit vorgestellt werden, aber lesen tut man davon nix. War eben bei pcgh, die so nen kleinen Überblick gegeben haben. Meinten sie wären auch am msi stand gewesen, notebooks bla bla, aber kein wort zur titan lightning.

Auf der MSI Homepage findet sich auch nur die normale Referenz Titan, die von MSI halt angeboten wird.

wollte ja noch die Lightning abwarten um zu entscheiden, ob ich auf die warte oder jetzt einfach ne andere Titan dann so langsam mal bestelle....
 
bin zwar auch immer sehr "für" preissenkungen, nur warum ne MGPU-lösung des mitbewerbs dafür anlass sein soll, erschliesst sich mir nicht. GTX690 ist rein frametechnisch auch "schneller" als titan - trotzdem wohnt sie zur zeit nur im zweitrechner. 60fps @MGPU sind nicht mit 50fps @SGP vergleichbar.

wünschte mir, dass das endlich mal jemand ausser mir und PCGH kapiert.


(..)

mfg
tobi

Sag mal, hast du eigentlich das neu Smoot AFR Flag mal getestet? Also ich glaube nicht dass ich mir das einbilde, aber ich kann damit sogar mit 30 AFR FPS spielen, ohne total auszurasten.
 
ja natürlich habe ich das - das mache ich schon seit 310.70.

aber das ist nicht pauschal gut, weil game und endgeräte -abhängig. nochmal wieder das beispiel skyrim -> einzig der ingame-sync bringt ein sauberes spielerlebnis. das spiel ist intern irgendwie auf 60Hz ausgelegt, was auch herstellerseitig bestätigt wurde. zumindest waren oder sind "fehler" die bspw. in reflexionen auftreteten immer auf "nicht-60Hz-fix" zurückzuführen.. etwa wenn man mit 100 oder 120Hz spielt.. oder ganz unsynchronisiert..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Sammelthread + FAQ - Bei Fragen erste Seite lesen

Jemand ne Titan für 700 Flocken gesehen? :fresse:

Ich bin sogar bei der 680er geblieben, da mich die mGPU Geschichte seit meinem ersten SLi Ausflug so abgeschreckt hat! Das war noch lange bevor überhaupt Jemand über AFR Probleme gesprochen hat...
Da können die Frames der 690er so hoch sein wie sie wollen!
Naja ist vermutlich auch Wahrnehmungs- bzw. Empfindungssache.

Also bitte PN an mich bei 700€ Titan Sichtung :d Danke!^^


Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Bei Wortmann und Devil sind 19 Karten lagernd, 4x Gigabyte, 15x Gainward. Die Shops bekommen also immer wieder kleine Wellen rein.
 
Ey ich könnte kotzen.
Die erste GraKa ohne Probleme umgebaut.
Und wat ist mit der zweiten?! Auf einmal krieg ich die dämlichen Schrauben nicht gelöst?!!

Jetzt ist die unten links komplett rund und drei andere trau ich mich nicht ran weil mein Schraubenzieher nicht richtig greift >_<

Jemand ne Idee wie ich die runde Schraube jetzt rauskriege?!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh