[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Das stimmt wohl leider :)
Aber in meiner Sicht, stört das beim spielen von mp titeln eher. Zumindest wenn man Jahre lang auf einen Monotor geddadelt hat.
Ich bin wohl auch als einer der letzten von Röhre auf TFT gewechselt und habe bestimmt nen halbes Jahr gebraucht, um damit klar zu kommen.
Und ehrlich gesagt weine ich den Zeiten immer noch nach :)

Aber 3dVison oder surround oder beides hat natrülich bei nem Atmosühärisch anspruchsvollen Titeln seinen Reiz, keine Frage.
Oder es gibt hier ja auch welche, die sich kleine Simulatoren mit multimonitorsystemen bzw beamern zusammen basteln, da kommt man mit einem Moni nun mal bei weitem nicht dran.


Und Microruckler wären ja vom Prinzip aus der Welt zu schaffen, nur es würde dann um längen schlechter skalieren.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
um zeitliche versätze zwischen fertigestellten bildern im MGPU-betrieb zu eleminieren, müsste man die GPUs so koppeln können, dass sie zusammen an einem "problem" rechnen und nicht dass jede GPU das gleiche macht. dann hätte man auch mehr speicher. das wird es bei AFR aber nie geben.



(..)

mfg
tobi
 
Ja momentan muss ich leider noch auf meinen Overloard Tempest x270Oc warten.
 
Man müsste sie doch synchronisiert laufen lassen oder nicht.
Aber das würde doch die skalierung arg beeinträchtigen, wenn man es aufs nicht wahrnehmbare minimieren will oder nicht ?
Ganz davon abgesehen, das es möglicher weise Eingabe lags verursachen könnte.
 
Man müsste sie doch synchronisiert laufen lassen oder nicht.
Aber das würde doch die skalierung arg beeinträchtigen, wenn man es aufs nicht wahrnehmbare minimieren will oder nicht ?
Ganz davon abgesehen, das es möglicher weise Eingabe lags verursachen könnte.

wenn der bildinhalt einer szene so anspruchsvoll ist, dass eine GPU vllt. 20fps pro sekunde fertigbekommt, gilt das gleiche auch für GPU2. die 40fps die das addiert ergibt, müssen nicht spielbar sein.

wenn aber beide GPUs zusammen an diesem einen bild rechnen, würde eine framerrate von 40fps spielbares SGPU-gefühl ergeben. gibts aber nicht, weil AFR so einfach nicht funktioniert. ändert sich der bildinhalt respektive die komlexität des selbigen, sodass auch noch varianzen zwischen den beiteiligen GPUs auftreten, wird die bildfolge noch stärker gestört. also wenn der anspruch der frames unterschiedlich ist.

synchronisieren hilft da nix. man kann framefolgen synchronisieren, soll heissen die ausgabe glätten, aber das erfordert puffern und puffern heisst latenz. darum ist ja auch von AFR mit mehr als 2 GPUs + triplebuffer-sync abzuraten, weil das ein elendiges gummiband ergibt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
wenn der Postmann klingelt :banana:

 
wenn der Postmann klingelt :banana:


..dann trudelt hier hoffentlich die sehnlichst befürchtete stromrechnung ein.

edit:
toll.. 186€ nachzahlen und künftig auch 186€/mtl. *ichgehemalebenkotzen*


(..)

mfg
tobi
 
Zuletzt bearbeitet:
kommt drauf an was für mäuse das sind. wenns ne 20€ maus aus 1999 ist, dann ja.
bis vor einem hablen jahr hab ich bf3 sehr erfolgreich mti einer Mamba 2012 gedaddelt.
man merkt quasi keinen unterschied zum kabel.
 
Frage mal Tobi, was er von einer PerfomanceMX-Mause hält...:heul:

das hier ist nicht so der thread für meerestiere, aber einen performance-mx schwamm habe ich auch.. :-)





toll für bedienung des mauszeigers auf bettlaken und glastischen; zum spielen eher nix.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
So, habe nun auch eine zweite bestellt..

Man kann sagen was man will, aber eine Titan @ 1920*1080 + alles max + 3DVision langt einfach nicht :)
Zudem schaut ein Wakü-SLI auch sehr schick aus :bigok:

Jetzt nur noch auf die Haswell i7's warten und das System ist fertig
 
Zuletzt bearbeitet:
sogar mit 2 titans sind 1080 ultra mit 4xtxaa in 3D bei crysis3 schon grenzwertig
 
Wie konnte ich nur n 24"er bestellen, mit ner popeligen 680 :fresse:
 
So, habe nun auch eine zweite bestellt..

Man kann sagen was man will, aber eine Titan @ 1920*1080 + alles max + 3DVision langt einfach nicht :)
Zudem schaut ein Wakü-SLI auch sehr schick aus :bigok:

Jetzt nur noch auf die Haswell i7's warten und das System ist fertig

alles max (in welchem spiel auch immer) ist unter 3DVision (oder auch unter tridef und dem toten iZ3D) die DAU einstellung.



(..)

mfg
tobi
 
Photovoltaik heißt das Zauberwort :)

ich hatte an einen besuch im obi, den kauf einer kettensäge und dem anschliessenden trennen des zähler samt hauptleitung vom stromnetz nachgedacht..

aber dann klingelte der wecker und ich war wieder in der realität - naja.. bei mir steht eh stellungswechsel an - ähm.. ich meine standortwechsel.


(..)

mfg
tobi
 

so, da ich eben aus dem Bett gefallen bin schaute ich gleich nach ob das geklappt hat.
Natürlich nicht. Ich den Support am Tele. Man muß über den Link neu buchen. Danach die andere Karte stornieren und umbuchen um keine erneute Zahlung zu machen.
Wäre das anders rum gelaufen würde die Info storno zuerst an das Finanzwesen gehen und hätte auf mein Geld warten müssen und wieder überweisen.
Nun ist die Bestellung durch und die Karte geht jetzt auf Reisen ....eeendlich^^
Eine Umbuchung zu dem Preis ohne das ich über den Link gegangen wäre, wäre so nicht möglich gewesen.

Jetzt kann ich noch ne Std schlafen gehen :fresse:
 
Zuletzt bearbeitet:
alles max (in welchem spiel auch immer) ist unter 3DVision (oder auch unter tridef und dem toten iZ3D) die DAU einstellung.



(..)

mfg
tobi

DAU Einstellung - weshalb?
Habe mich bisher nicht wirklich viel mit 3DV befasst, letzte Woche einfach mal bestellt nachdem hier einige schrieben es sei so "toll", reingesteckt, Games angeschmissen und das wars.

Lasse mich gerne etwas besseren belehren zwecks 3DV Settings :)
 
Zuletzt bearbeitet:
das hat verschiedene gründe und fängt bei fehldarstellungen an, zieht sich über performance und endet irgendwo bei überflüssigem.

-> befolge einfach die anweisungen im OSD des 3DV-treibers und nimm FXAA statt MSAA, dann solltest du zumindest in bekannten unterstützten spielen ein optimales ergebnis bekommen.


(..)

mfg
tobi
 
Dann werde ich das später nochmal testen, danke schonmal :)
 
schau doch einfach im 3DC in den 3DV-thread, da gibts sinnvoller hilfe bei fragen als hier. ich hab jetzt auch nicht wirlich lust, alles niederzuschreiben was mir je mit stereoskopie aufgefallen ist (ich mache das seit 13 jahren) - dazu ist dieser thread hier viel zu unübersichtlich und geschriebenes wäre morgen schon um 30 seiten nach hinten gerutscht und vergessen.

ich hatte hier im luxx auch vor drei oder vier jahren mal einen stereoskopie-thread angelegt, aber mangels interesse ging der wohl unter.

wenn ich heute hilfe benötge schaue ich im 3DC vorbei oder gucke ins geforce-forum.

btw,
eigentlich mus man immer auf irgendwas verzichten (schatten, reflexionen, diverse shader, HUD-anzeigen, fadenkreuze oder MSAA). "toll" bleibt stereoskopie trotzdem und der verzicht auf multisampling ist durch die brille verschmerzbar, weil unser gehirn eh aus zwei unterschiedlichen bildern eines macht und somit "filtert". "rückgang" mit den effekten ist auch kein alleinstellungsmerkmal von nvidias lösung; die gleichen einschränkungen führen auch unter tridef (middleware für 3Disierung) zu brauchbareren ergebnissen. deren lösung war in vielen versionen sogar komplett inkompatibel zu MSAA.
ich bin bei tridef 5.7 ausgestiegen. evlt. reanimiere ich das nochmal, wenn ich das nächste mal mit AMD-grafik unterwegs bin.

aus der erfahrung heraus starte ich heute 3DV auch nicth mehr mit maximalen details und arbeite mich runter, sondern gehe den umgekehrten weg. je nachdem wie ausgeprägt mein "bock" auf spielereien mit einstellungen grad ist, fange ich bei niedrig oder mittel an und arbeite mich hoch.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
- Fehlerdarstellung: manchmal sollte man die Schatten lowern oder muss sie sogar ganz deaktivieren, damit einem der Kopf nicht platzt, das merkt man aber, wenn die 3D Darstellung mit den Schatten nicht richtig funkt (Beispiel: Diablo 3)

- Performance: 50-60 fps reichen mir im Singleplayer @ 3D

- Überflüssiges: zu viele Details gibts quasi nicht :)

crysis3 sp maxed out in 3D incl TXAA sieht einfach bombe aus! Das hat mit DAU nichts zu tun, da genieße ich mehr die Grafik als dass ich wirklich spiele.

crysis3 mp spiele ich zum beispiel auf low mit 2x msaa, da brauche ich mir nicht die effekte anzusehen, da will ich die gegner pwnen und da helfen 120 fps die 100% stable sind nun mal

und genau dafür bau ich mir 2 titans ein

da möchte ihc mir den dau nicht nachsagen lassen
 
Zuletzt bearbeitet:
- Fehlerdarstellung: manchmal sollte man die Schatten lowern oder muss sie sogar ganz deaktivieren, damit einem der Kopf nicht platzt, das merkt man aber, wenn die 3D Darstellung mit den Schatten nicht richtig funkt (Beispiel: Diablo 3)

- Performance: 50-60 fps reichen mir im Singleplayer @ 3D

- Überflüssiges: zu viele Details gibts quasi nicht :)

crysis3 sp maxed out in 3D incl TXAA sieht einfach bombe aus! Das hat mit DAU nichts zu tun, da genieße ich mehr die Grafik als dass ich wirklich spiele.

crysis3 mp spiele ich zum beispiel auf low mit 2x msaa, da brauche ich mir nicht die effekte anzusehen, da will ich die gegner pwnen und da helfen 120 fps die 100% stable sind nun mal

oh doch - überflüssiges gibt es.. unkomprimierte texturen z.b.

oder bewegungsunschärfe..

oder tresFX

btw,
wenn irgendwo hohe frameraten oder bwf nötig sind und 120 nicht gehalten werden können, erfüllen 100Hz ihren zweck genauso. so habe ich 2012 BF3 gespielt - weiss gar nicht warum - finde das heute ohne sync viel besser.. *gg*


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ich denke da ist ganz deine persönliche meinung und sicht der dinge. ich spiele sp nur in 3D maxed out soweit möglich.
ob mir bewegungunschärfe oder tresfx dabei gefällt ist eine sehr persönliche geschichte. der eine legt großen wert darauf, der andere findest überflüssig

ich bin bereit einen tausender extra auf den tisch zu legen, damit ich diese details (auch in 3D) im sp genießen kann
 
jupp - persönliche meinung und langzeiterfahrung über verschiedene generationen hinweg und nicht nur auf die drei titel bezogen, die wir seit märz 2013 auf den rechnern haben oder die fermi und kepler zum laufen benötigen.

subtile effekte finde ich vernachlässigbar; bildgröße hingegen nicht.. wer die 1000€-scheine hortet sollte sich auf jedenfall zum shuttern einen beamer zulegen, das ballert mehr als flackernde haare. allerdings hat es zwei nebeneffekte -> man wird der bequemlichkeit zuliebe zum padzockenden couchpotatoe (was den arsch breiter macht) und man kann auf 27" nicht mehr genussvoll shuttern, weil man das gefühl bekommt, in einen schuhkarton zu gucken. so zumindest hier bei mir wenn ich zocking zwischen 140 und 27" vergleiche.

@crysis3
das lässt sich @3DV auch mit der alten 1000€ karte spielen. da es ein gutes 3DV-rating hat, funtkioniert es auch @max detail. ob man jetzt unterschiede zwischen möglichen AA-stufen sieht, lass ich mal im raum stehen, weil ich -wie erwähnt- nach möglichkeit FXAA verwende wenn ich shuttere und AA benötige, aber es reicht für die benötigten 60fps @sync.


Crysis3 (origin download) @3DVision 1080p, max detail, GTX690, Win7 x64 FW314.22WHQL

FXAA
Time: 111000ms - Avg: 85.108 - Min: 60 - Max: 105

1xSMAA
Time: 111000ms - Avg: 83.261 - Min: 62 - Max: 102

2x SMAA
Time: 111000ms - Avg: 65.324 - Min: 51 - Max: 84

TXAA Mittel
Time: 111000ms - Avg: 55.559 - Min: 44 - Max: 69

TXAA Hoch
Time: 111000ms - Avg: 47.514 - Min: 38 - Max: 62

2x MSAA
Time: 111000ms - Avg: 67.559 - Min: 52 - Max: 88

4x MSAA
Time: 111000ms - Avg: 55.595 - Min: 43 - Max: 77




(..)

mfg
tobi
 
Zuletzt bearbeitet:
das klingt schon verlockend. Ich werde mir wenn die 2. Karte da ist auch mal so ne Shutterbrille zulegen. Nur werde ich da wohl auf einen TFT zurück greifen müssen, da auch mit nem Titan SLI bei Tripplescreen die Performance wohl schwer in den Keller fallen wird. Denke ich mal.
 
Naja, wenn man mit Unempfindlichkeit gegenüber Shutterbrillen gesegnet ist, dann hat man Schwein gehabt. Ich kenne nicht viele Leute, die stundenlang damit durchhalten können. Auch bei mir stellen sich bei dem Geflimmer spätestens nach 30 Minuten Kopfschmerzen ein, mit der Zeit wird es immer schlimmer. Die Dinger gab es vor 15 Jahren schon einmal, damals wurden sie als unausgereifter Schrott abgetan und an der Funktionsweise hat sich bis heute nichts geändert, sehen jetzt nur stylischer aus als die Taucherbrillen von damals und sie haben Akkus statt dicken Strippen^^ Bei mir kommt 3D erst ins Haus, wenn es anständiges Passiv-3D wie im Kino gibt.

Und Beamer, schön und gut wenn dazu kompatible Spiele zockt. Bei Rennspielen und so zum Beispiel stelle ich mir das ganz toll vor. Ich zocke aber zu 99,99% mit Maus und Tastatur, das ist Murkskram auf dem Sofa. Und die Bildwirkung ist eine Frage des Verhältnisses von Sichtabstand und Bilddiagonale, die Bilddiagonale allein sagt nichts aus.
 
Naja, wenn man mit Unempfindlichkeit gegenüber Shutterbrillen gesegnet ist, dann hat man Schwein gehabt. Ich kenne nicht viele Leute, die stundenlang damit durchhalten können. Auch bei mir stellen sich bei dem Geflimmer spätestens nach 30 Minuten Kopfschmerzen ein, mit der Zeit wird es immer schlimmer. Die Dinger gab es vor 15 Jahren schon einmal, damals wurden sie als unausgereifter Schrott abgetan und an der Funktionsweise hat sich bis heute nichts geändert, sehen jetzt nur stylischer aus als die Taucherbrillen von damals und sie haben Akkus statt dicken Strippen^^ Bei mir kommt 3D erst ins Haus, wenn es anständiges Passiv-3D wie im Kino gibt.

Und Beamer, schön und gut wenn dazu kompatible Spiele zockt. Bei Rennspielen und so zum Beispiel stelle ich mir das ganz toll vor. Ich zocke aber zu 99,99% mit Maus und Tastatur, das ist Murkskram auf dem Sofa. Und die Bildwirkung ist eine Frage des Verhältnisses von Sichtabstand und Bilddiagonale, die Bilddiagonale allein sagt nichts aus.

hatten wir alles schon ein paar seiten weiter vorn.. sämtlichen padtauglichen spiele
(bei mir sind das zur zeit:
crysis3, tombraider, bioshock, hitman, AC3, worms, force unleashed, skyrim, farcry, fallout, alan wake, max payne, need for speed, dirt, metro, mirrors edge, trine und gta)
laufen hier auf wand. warum sollten sie auch nicht kompatibel sein??

klar dass der abstand ne rolle spielt. aber man sitzt nunmal auch in relation betrachet näher am schuhkarton als vor dem projizierten bild. 3D kann gar nicht groß genug sein ;-) zumal der raum ja seine größe nicht verändert und bei 5x5m (mein spaßzimmer) ist das beamerbild aus jeder sitzposition bombastischer als das schnuggeldings am schreibtisch oder der olle fernseher, den man 2005 noch als riesig bezeichnet hätte (47").

ich neige derweil eher zum kleckern, was das 3DV-geraffel angeht, weil ich sage, dass eine 1000€ karte genügt, wenn sie zwei GPUs hat. das klotzen mit den höheren AA-leveln überlasse ich liebend gern denen, die mit 1000€-scheinen umsich werfen. meine sind grad aufgebraucht.. die DX11-kompatiblen 1000€ scheine.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh