[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
So erster Kontakt ist erfolg die Karte weist gebrauchtspuren auf 2 Kratzer im Glass 1* Staubflussen und es sieht aus alls wenn irgendwelche Krümmel in den Lamelen vom Kühler sind.

Ich weis gar nicht ob ich die überhaupt einbauen soll oder gleich wieder einpacke.

Die muss nicht zwingend gebraucht sein. Meine Gigabyte hatte auf dem Plexiglas keine Schutzfolie und entsprechend paar kleine Kratzer wenn man sie gegen das Licht hält. Man muss sagen, dass Plexiglas scheiß empfindlich ist und sowas schon beim Verpacken passieren kann!


So von der Leistung bin ich entäuscht in Crysis 3 .Far Cry 3 .so wie TBR. in BF3 geht die Leistung in Ordnung .
Boost 980 ASIC 67.5% 78°C

Und es ist auch genauso wie früher FPS um die 40 mit Single Gpu fühlen sich nich so gut an wie gesyncte und limiter bei knapp 60 mit MGPU.

Jo von der Crysis 3 Leistung gegenüber meiner 680er war/bin ich auch enttäuscht. Aber das war mir bereits bei den ersten Reviews klar, dass hier kaum Unterschiede sind. Die Praxis hat es lediglich bestätigt. Seit den letzten zwei Patches läuft es insgesamt aber noch schlechter. Hab an Stellen wo ich definitiv 60fps hatte nur noch 50 rum... Also die App ist sicherlich auch nicht der Hit wie man anhand der massigen Grafikfehler sehen kann...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn das mal reicht.

Das ist auch so ein Ding hier im Forum Dancop .

Bei mir läuft das ja! nur schreiben die Leute dan erstmal nie hin wie und dümpeln irgendwo mit Krassen Setting bei um die 33 bis 44 fps rum und nörgeln dann über MR bei Multi Gpu Gespannen rum was haben die Leute blos gepafft frage ich mich dann manchmal.

So viel illegale Substanzen kann man gar nicht zu sich nehmen .
 
Zuletzt bearbeitet:
das dumme an der situation ist, dass du dich auf 1440p festlegst. das schulterst du entweder mit zwei titanen für horrendes geld oder halt mit zwei billigen AMD-karten. wahrscheinlich wären auch zwei GTX670er für kleines geld besser für die 60fps.

µ-ruckeln im MGPU ist eine ganz andere immersionsstörung als eine geringe framerate. ich könnte 40fps wunderbar synchronisieren.

unbenanntj1ie1.png


schmeiss dich ins auto, komm rumgekurvt (bin abends zuhause), kauf mir meinen beamer ab, der noch im marktplatz steht und dann hast du auch mit ner single-karte spaß. vor allem sind die DLP ungleich schneller als jedes TFT.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Und es ist auch genauso wie früher FPS um die 40 mit Single Gpu fühlen sich nich so gut an wie gesyncte und limiter bei knapp 60 mit MGPU.


:d

unfassbar aber ok, deine Sache

und 67 ASIC und nicht neu? weg damit
 
Takt 980MHZ GPU

TR 2560*1440
2*SSAA Rest Maxout
Frames, Time (ms), Min, Max, Avg
640, 21482, 23, 36, 29.792
/schwamig kein gutes Spiel Gefühl
FXAA Rest Maxout
Frames, Time (ms), Min, Max, Avg
625, 13603, 40, 54, 45.946
Mit FXAA Superflüssig

Hier Crysis 3 Maxout FXAA 2560*1440
Frames, Time (ms), Min, Max, Avg
2035, 44913, 34, 57, 45.310
Leicht verwaschen bei schnellen Bewegungen subjektiv Spielbar zu flüssig fehlt noch ein Stück
TXAA 2
Frames, Time (ms), Min, Max, Avg
378, 11591, 28, 35, 32.612
Läuft schlecht sehr verwaschen beim bewegen nicht mehr flüssig

Far Cry 3 2560*1440 Max out FXAA

Frames, Time (ms), Min, Max, Avg
2535, 46192, 49, 63, 54.880
Gut zu spielen aber leicht verwaschen bei schnellen Bewegungen

Maxout 4* MSAA
Frames, Time (ms), Min, Max, Avg
1939, 47503, 36, 47, 40.818
verwaschen bei schnellen Bewegung nicht mehr flüssig

BF3 Rail Road ordentlich Krieg in 2560*1440 MAX Out

Frames, Time (ms), Min, Max, Avg
7147, 93522, 57, 110, 76.421
läuft erste Sahne.
 
Zuletzt bearbeitet:
@ThunderBurne

Bleibe doch endlich deinen ATI / AMD Karten Treu
3x HD7970 Edition X und wieder verkauft und ins Fettnäpfchen erneut gegriffen.
Titan ist nicht schlecht, aber mit MGPU fährt man dennoch billiger und weitaus schneller unterwegs.
Powerplay wird auch noch sein Wunder erleben mit der GTX 780 um die 500 Euro bis 600 was er erhofft...

NV zieht die Kunden gnadenlos aus,- und IHR checkt dies allzuspät !!
TITAN hat den Markt komplett durcheinander gebracht, das MUSS bestraft werden!!
NV wird sich auch selbst ins Gewissen reden müssen, warum man immer soooo endlos gierig sein MUSS !!!
Zudem kommt der Sommer und die Titanen werden OC gewaltig Einbußen erleben, der Boost Tick von beiden Herstellern ist ABSOLUTES NOGO !!!

So, Mahlzeit!


PS:
Dann doch lieber eine HD7990 bei , oder um die 850 Euro
 
Berni versuch macht klug .
Hören sagen muss ich mir nicht mehr vorwerfen lassen.
 
<-- gibt nix auf Texte bei denen die Ausrufezeichen in der Überzahl sind.
 
Erstes Fazit könnte meine Meinung noch ändern wenn ich den Monitor auf die NV Karte anpasse.
AMDs Bild ist knackiger und schärfer auf meinem Monitor und die Farben intensiver kann aber eine Kalibrierungs Geschichte sein das sehe ich heute Abend nach der Spätschicht..

Zur Karte selbst sie fiebt nicht und bedingt durch meine Raum Temps bleibt sie verhältnis mässig kühl bei dem Takt die Lüfter drehen bis 2000 RPM bei knapp 80°C.
Habe noch kein OC betrieben werde ich warscheinlich auch nicht wenn das Bild über das Wochenende nicht stimmiger wird durch einstellungen überlege ich mir gut ob ich den Titan behalte.

Noch hat die Karte nicht mein Herz erobert vor allem deshalb nicht weil eine HD7970 @ 1250 MHZ dem Titan ganz schön im Nacken sitzt.
Die erste begegnung mit dem Titan fällt vorerst sehr zwiespältig aus Begeisterung ist was anderes.
Von der Qualität und Verarbeitung ist das Teil auf jeden Fall ein leckerli.
 
Zuletzt bearbeitet:
Hab ja meinen Takt von 1176/3200 auf 1150/3200 gesenkt, da mir BF3 alle 20 Stunden der Treiber hängen geblieben ist.

Ist mir die Tage auch wieder passiert. Mit 3300 passierts schneller.

Also scheinbar macht der RAM keine 3200 mit. Übrigens kein Downsampling oder so, Treiber alles standard, ingame maxed out.

Die Leistung ist aber super.

EDIT:
Könnte mir bitte jemand das 300W Bios mit dynamischer Voltage verlinken oder hochladen? Ich hab nur eins mit fester Voltage.
 
Zuletzt bearbeitet:
Erstes Fazit könnte meine Meinung noch ändern wenn ich den Monitor auf die NV Karte anpasse.
AMDs Bild ist knackiger und schärfer auf meinem Monitor und die Farben intensiver kann aber eine Kalibrierungs Geschichte sein .


Soll das ein Qualitätsmerkmal sein?

Knackiger u schärfer muss nicht zwangsläufig bedeuten näher am Standard

Kalibriere mal mit nem anständigen Tool auf 6500 Kelvin u du wirst staunen wie ein Bild aussehen muss was reale Farben liefert:)

Nur weil dich die AMD Karte in ihrer Grundkonfig im RGB Farbraum erschlägt mit "schön Bunt" u du dich an den Stil gewöhnt hast ist das nicht im Sinne des Erfinders
 
Zuletzt bearbeitet:
Das Bild wirkt nebelig auf der NV auf der AMD nicht ich schrieb ja ich werde heute Abend noch mehr in die Materie einsteigen aber so out off Box lifert die AMD das Briliantere Bild auf meinem Monitor.
Das war schon dals so auf dem 120 Hertz Benq vom wechsel GTX580 auf 7970.
Vielleicht muss das ja so sein das das Bild einem in BF3 so milichg vorkommt bei NV und AMD macht was falsch das das Bild so klar ist ?
 
Zuletzt bearbeitet:
NV zieht die Kunden gnadenlos aus,- und IHR checkt dies allzuspät !!
TITAN hat den Markt komplett durcheinander gebracht, das MUSS bestraft werden!!

you Sir made my day

Was zum Geier rauchst du und wo gibts das.
Es gibt ja neutrale, Fanboys und Verrückte. Aber du bist besessen, schon fast divergent.
Lass dich mal behandeln.

Kannst wie gesagt gern 200 AMD Karten erwerben und glücklich sein, ich gönns dir.
Aber so langsam kriegt man bei deinen Posts echt Fragen....
Wir wissens alle, dein Nick kolportierts schon. Missionierung war vor paar Hundert Jahren im Wege der Aufklärung, ist hier aber unnötig ;)
 
Zuletzt bearbeitet:
Erstes Fazit könnte meine Meinung noch ändern wenn ich den Monitor auf die NV Karte anpasse.
AMDs Bild ist knackiger und schärfer auf meinem Monitor und die Farben intensiver
kann aber eine Kalibrierungs Geschichte sein das sehe ich heute Abend nach der Spätschicht..

ja, war bei meiner HD7970 auch so. allerdings war das kein voodoo oder ü-ei, sondern ne fehleinstellung im CCC seitens der radeon. die AMD-karte spielte per SE begrenzten farbraum zu, wohingegen die NV auf korrektes RGB eingestellt war. computerbildschirme arbeiten im RGB-farbraum.
das vermeintlich "knackigere" lässt idR kontraste absaufen.

die begrenzte einstellung ist eher für filmzuspielung richtung HDTV oder projektor die korrekte. allerdings muss man das nicht einstellen, das machen anständig konfigurierte codecs von allein.. die anpassung bei filmausgabe.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
LOL, Nvidia wird die 770+780 einfach oberhalb der 680 platzieren; wie ich sagte.
Ich war zwar treu NVIDIA, aber jetzt ist gut. Tchiau NVDIA.
 
Ja Powerplay meinte gerade zu mir das die NVs nicht den ganzen RGB Farbraum abdecken .
Ich schaue mir wie gesagt alles noch in ruhe an Heute Abend.
 
Ja Powerplay meinte gerade zu mir das die NVs nicht den ganzen RGB Farbraum abdecken .
Ich schaue mir wie gesagt alles noch in ruhe an Heute Abend.

wir haben ja bei dir mit der AMD karte alles kalibriert von daher sollte das schon mit der AMD karte perfekt sein was die Farben anging!
Das mit dem Milchigem bei NV habe ich auch schon öffter gesehen und gehört schau mal im NV treiber ob da vieleicht ein begrenzter RGB farbraum eingestellt ist weil der war bei meinem HTPC mit der GT240 auch begrenzt wodurch das bild deutlich an brillianz eingebüßt hat!

Das Bild der HD7970 ist na klar enorm klar und brilliant@stock wärend ja damals schon bei deinem GTX580er SLI das Bild total milchig aussah ---> Aber da sollte man nochmals kalibrieren und schauen ob es dann besser ist!

Bin gespannt wenn wir beiden heute abend mal Vergleichen können HD7970@1200 vs. GTX Titan weil mich interessiert es brennend was bei Crysis 3 rumkommt weil grade da sollte der Titan ja richtig abgehen!
Auch BF3 und Farcry 3 sollten wir mal gegen testen.

@ Berni
die ATI HD7990 kannst ja mal total verbrennen...
 
Zuletzt bearbeitet:
Jo schauen wir uns Heute Abend in ruhe an Powerplay .
 
Jo schauen wir uns Heute Abend in ruhe an Powerplay .

dann takten wir mal beide karten gleich um zu sehen wie viel besser der Titan ist weil dann kann man das Perfekt sehen!
Weil wenn der Titan bei dir mit 980Mhz rannte stell ich bei mir auch 980Mhz bei der HD7970 ein weil das interessiert mich auch was an leistung pro takt bei raus kommt
 
Kein problem können wir machen interessiert mich ja auch ob es Sinn macht oder nicht .
Da ich mir bei Crysis und TR sowie Far Cry nicht so die Fps gemerkt habe mir kamm es aber so vor alls wenn die AMD bei 1200 sehr nah dran ist vs.980 Titan.
Aber gleicher Takt ist ja fair.
Das OC ist inzwischen ja zihlich auf gleichem höhe bei beiden hersteller Karten mit über 1200 MHz sind sehr selten geworden .
 
Zuletzt bearbeitet:
Takt 980MHZ GPU

TR 2560*1440
2*SSAA Rest Maxout
Frames, Time (ms), Min, Max, Avg
640, 21482, 23, 36, 29.792
/schwamig kein gutes Spiel Gefühl
FXAA Rest Maxout
Frames, Time (ms), Min, Max, Avg
625, 13603, 40, 54, 45.946
Mit FXAA Superflüssig

Hier Crysis 3 Maxout FXAA 2560*1440
Frames, Time (ms), Min, Max, Avg
2035, 44913, 34, 57, 45.310
Leicht verwaschen bei schnellen Bewegungen subjektiv Spielbar zu flüssig fehlt noch ein Stück
TXAA 2
Frames, Time (ms), Min, Max, Avg
378, 11591, 28, 35, 32.612
Läuft schlecht sehr verwaschen beim bewegen nicht mehr flüssig

Far Cry 3 2560*1440 Max out FXAA

Frames, Time (ms), Min, Max, Avg
2535, 46192, 49, 63, 54.880
Gut zu spielen aber leicht verwaschen bei schnellen Bewegungen

Maxout 4* MSAA
Frames, Time (ms), Min, Max, Avg
1939, 47503, 36, 47, 40.818
verwaschen bei schnellen Bewegung nicht mehr flüssig

BF3 Rail Road ordentlich Krieg in 2560*1440 MAX Out

Frames, Time (ms), Min, Max, Avg
7147, 93522, 57, 110, 76.421
läuft erste Sahne.

Du hast ja mit deinem 27er mit der nativen Auflösung gebencht.
Brauchst du da eigentlich noch viel extra Kantenglättung like msaa?

Steh auch vor der Anschaffung ... entweder 1440p oder 3d 24er... bin mir nicht sicher, was eine Titan besser packen würde...
 
Es ist schon ohne MSAA sehr glatt von da her man kann schon zocken mit einem Titan in der Auflösung.
Full HD konnte ich nicht mehr sehen Nativ 2560×1440 sieht auch besser aus alls DS.
Full HD ist der Titan ein Monster aber es sieht halt schäbig aus einfach nur Brei 1920×1080 ich habe mir den Monitor nicht einfach so zu gelegt es hatte schon seine Gründe und schnell genug sind ein Paar Geräte auch um Shooter zu zocken.
 
Zuletzt bearbeitet:
ich würde auch sagen das wenn man bei 2560x1440 auf MSAA@ BF3 verzichten kann und dafür halt postAA nutzt hat man die gleichen FPS wie bei 1080p@ 4xMSAA und man sucht bei 1440p@ BF3 das MSAA schon bald mit der lupe :d
 
wird zeit auf 3D umzusteigen. dann bekommt auch kantenglättung eine ganz andere bedeutung, weil durch die plastischere darstellung eh alles runder wirkt..


(..)

mfg
tobi
 
wird zeit auf 3D umzusteigen. dann bekommt auch kantenglättung eine ganz andere bedeutung, weil durch die plastischere darstellung eh alles runder wirkt..


(..)

mfg
tobi

da hast du allerdings recht wobei ich mit der AMD bei 3D in sachen kantenglättung keine einschränkungen machen musste und es trozdem top lief mit MSAA wärend das bei NV ja öffters aus geschaltet werden muss. Naja ok das hat aber nix mit dem titan zu tun.
 
wieso abgeschaltet werden muss? wäre das eine tendenz, müsste es mir über die jahre aufgefallen sein. zumindest bei NV. mein ausflug mit tridef @AMD war vergl. mit 3DVision eine unterirdische erfahrung. für die middleware habe ich atm zwei lizenzen. eine, die nur mit AMD funktioniert und eine, die auf LG-TFTs besteht. *gg* das braucht man nicht.

was man aber braucht ist kantenglättung und besonders im 720p-betrieb macht 8xSGSSAA richtig sinn und sieht sogar gewinnbringend aus. bei weitem nicht so subtil, wie auf TFTs.

btw,
bei NV ist @8x AA übrigens noch lange nicht schluss. auch 32fache kantenglättung ist möglich; ist schon ne tolle spielwiese. manchmal würde ich mir mehr zeit wünschen.

während ihr zockt, muss ich mein laminat erneuern.. :-(


(..)

mfg
tobi
 
Zuletzt bearbeitet:
meine ersten erfahrungen mit Trdef wahren bei mir auch eher zum :kotz: und da war ich schon kurz davor mir extra ne GTX660-680 für 3D gaming am Beamer aber dann hatte ichs nochmal ( ca. 1 Jahr später) mit Tridef probiert und war sehr zufrieden.
Mir ist bei einigen spielen mit NV und 3D aufgefallen das MSAA und andere grafik features automatisch deaktiviert worden ist.
Triedf geht auch mit NV karten ;)

bin hin und wieder immernoch am überlegen ob ich mir in den HTPC ne GTX660-GTX680 einbauen soll :fresse:
AMD würde mir da nicht in den HTPC kommen wegen dem verbrauch und wegen dem postprozessing welches Cuda nutzt



bei AMD geht 24xAA und auch 16xSGSSAA aber was ich mir wünschen würde wäre mal 32-64x AF weil 4xSGSSAA reicht eigentlich nur AF kommt meist zu kurz
Klar mit DS kann man den AF faktor stark verbessern kostet aber auch deutlich mehr
 
Zuletzt bearbeitet:
ich glaube da verwechselst du was. der NVidia-stereotreiber hat eigentlich keine direkte auswirkung auf irgendwelche ingame-einstellungen. er blendet lediglich tipps per OSD ein, was man abschalten oder reduzieren sollte, damit z.b. schatten und objekte nicht in der falschen tiefe dargestellt werden..

dass man MSAA abschalten soll oder dass es gar nicht erst appliziert wird, ist ein alleinstellungsmerkmal von tridef (und dem toten iZ3D). wobei sich das im laufe der versionen bei ersterem wohl gebessert haben soll. aber man merkt halt im vergleich, dass tridef nur hinten an der renderpipeline hängt.. middleware halt.. 3rd party krempel. mit höherer verbreitung von nativem stereosupport (crysis2/3, tombraider, bf3, trine usw haben es ja schon) ist das thema hoffentlich bald vom tisch. ärgerlich ist dann nur, dass man der technik des endgerätes ausgeliefert wird. ich fühle mich ja an meinen neuen geräten (HDTV und beamer sind grad mal wieder neu) auch schon leicht eingeschränkt, da jetzt entweder 720p/60 side-by-side oder 1080p/23 zum einsatz kommt. mit nativem 3DVision + sequenziellem shuttern waren meine möglichkeiten umfangreicher.

btw,
mir kommt auch keine AMD-grafik vom schlage eine HD7000 in die medienschleudern. die default-videoeinstellungen des controlcenters waren immer unter aller sau und kein regler machte irgendwas besser.. ausser: alles abschalten. war gruselig @ 3,5m diagonale und ich erwähnte es ja schon 300x hier im forum -> ich bekam eigentlich nie verwertbaren ton aus AMDs karten richtung AVR (HDMI).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh