[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Messe doch genau so wie PCGH auch, sonst ist es nicht vergleichbar ;)
Gleiche Auflösung, auch mit 30s Fraps aufzeichnen etc.

Bei 2880x1620 mit 4xMSAA hast du nie und nimmer 80 fps, da hast du MSAA vergessen oder sowas. Oder du hast deine Titan auf 2,5 GHz übertaktet :d
Jo und wie A6 sagt gibts da noch ein erweitertes Grafikmenü, DX11 advanced options oder so nennt sich das. DOF zieht massiv Performance.

Edit:
Ja, eine. SLI kann ich nachher mal testen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe das cursed level auch gemacht, mit fraps halt *;D und ich habe die auflösung 2880 * 1620, liegts daran ?

auf jeden fall kriege ich in cursed 60 frames bei der szene. und mit 1920*1080 kriege ich da zwischen 80 aufwärts. habe aber keuine average fps, verfiolge halt die frames und sehe meistens die hohen frames, also liegt der average denke ich auch ähnlich *;D

Dann haste nicht alles an! Vieleicht sogar nur AAA und nicht 4xMSAA und DOF ist bestimmt auch aus!
 
habe nochmal was gemacht, vbenchmark hotkey von fraps benutzt

cursed in full hd:

Frames, Time (ms), Min, Max, Avg
5009, 35630, 103, 182, 140.584

cursed mit 2880*1620

Frames, Time (ms), Min, Max, Avg
2983, 39764, 56, 97, 75.018

---------- Post added at 16:20 ---------- Previous post was at 16:19 ----------

habe dass alles an, tesselation und dof *;D und habe 4xmsaa steht so im grafikmenu *;D
 
So, nach ein paar Tagen intensivem Testen mit der Titan, nachfolgend mal ein wenig ungeschönte Praxiserfahrung von mir – ist ein wenig mehr Text, aber lohnt sich zu lesen.

Anfänglich, und nach dem Umbau auf den Wasserkühler, dachte ich, toll, sie macht 1202MHz ohne zu murren. Die Praxis zeigte dann aber schnell, zumindest ist es meine Erfahrung mit der Titan, kloppt alle Benchmarks in die Tonne, keines dieser Dinger ist zuverlässig, was die Beurteilung der Stabilität in Games angeht. Egal ob 3D Mark 11, 3D Mark 13, Vallley, Heaven und wie sie alle heißen, alles in die Tonne!;) Na ja, ganz so schlimm ist es nicht, aber die Praxis zeigt dann, das Games spielen immer noch das Beste ist, um die Stabilität zu ermitteln. Liefen alle zuvor genannten Benchmarks Ewigkeiten durch, stürzten Games munter ab.

In meinem Fall musste ich bei Verwendung von 1.212V also Schritt für Schritt von 1202MHz auf 1889MHz, dann auf 1176MHz, nachfolgend auf 1163MHz und schließlich auf 1250MHz zurück, bis schließlich alle Spiele stabil liefen ohne abzustürzen. Wie gesagt, die 3DMarks und Co. liefen alle mit 1202MHz Ewigkeiten durch, sogar 1228Mhz war möglich, selbst manche Games wie Crysis 3 und BF3 liefen mit 1202MHz Ewigkeiten durch. Zu den Spielen, die unmittelbar oder innerhalb von 15 Minuten abstürzten gehören unter anderem Assassin's Creed III und Tom Clancy's Ghost Recon: Future Soldier, nur so als Tipp, laufen diese beiden so ne Stunde durch, ist alles andere auch 100 Prozent stabil. Achtung: Ist nur meine Erfahrung und ich verallgemeinere nicht, muss eben jeder selber ausprobieren!

Meine Karte läuft nun unter Wasser im Endeffekt also so, und das zu 100 Prozent stabil:

Mit 1.162V = max. 1110MHz unter Wasser
Mit 1.200V = max. 1137MHz unter Wasser
Mit 1.212V = max. 1150MHz Wasser

Und falls es interessiert, mit Luftkühler liefen 1097MHz bei 1.150V zu 100 Prozent stabil. Bleibt man innerhalb der Standardspannung bis 1.162V, ist der Zugewinn zwischen Luft und Wasser zumindest bei meiner Karte läppische 13MHz. Gut, der unerreichbare Wert von 1150MHz, und das ohne zu throtteln, ist natürlich mit Luftkühler gar nicht erst machbar, so dass sich der Wasserkühler doch mehr als lohnt. Der Zugewinn beläuft sich also auf 53MHz, aber noch wichtiger als die MHz, es throttelt nichts mehr, die Karte taktet also nicht runter und bleibt in allen Situationen selbst bei 114% über TDP mit 1.212V auf 1150Mhz – zum MOD-Bios gleich mehr.

In der Praxis, und wenn man kein Bencher ist, ist es im Übrigen vollkommen egal, ob die GPU mit 1202MHz oder 1150MHz läuft, der Unterschied beläuft sich in Spielen meist auf lediglich 1 – 2 realen Frames, natürlich im Durchschnitt und das eine oder andere Games hat auch mal 3 Frames mehr - siehe die beiden Bilder im Anhang, ein Vergleich von Firestrike einmal mit 1202MHz und einmal mit 1150Mhz, beide Benches mit 6608MHz Speichertakt - der Unterschied: 1 Frame!

Den Speicher habe ich im Übrigen auf +300, also Effektiv 6608MHz laufen, das Problem mit den grünen Streifen beim 3D Mark 11 ist ja gelöst. Bei allem über +300 stürzten die zuvor genannten Games auch irgendwann ab – ach ja klar, eh ich es vergesse, die 3DMark Benchmarks liefen natürlich auch mit +450 durch!;) Also auch beim Speicher, weniger ist mehr und der auf der Titan verbaute Samsung Speicher ist nicht gerade taktfreudig. Zusammengefasst kann man sagen, 50MHz mehr GPU gibt 2 – max. 3 Frames mehr in Spielen. Beim Speicher im Übrigen in Etwa das Gleiche, 50MHz mehr ergeben ca. 1 - 2 Frames mehr.

So, zum Abschluss noch ein zwei Sätze zum Bios. Ich habe mir mein eigens MOD-Bios gebastelt, ich hänge es mal zur freien Verfügung an, es ist ein EVGA SC Bios, dieses hat nun folgende Werte und kann für den einen oder anderen Wasserkühlerbesitzer interessant sein – Besitzer mit Luftkühler, probiert es erst gar nicht.;) Die Datei nach dem Download bitte in .rom umbenennen.


  • 1. Dass Bios ist fest auf 300 Watt gestellt, also für GPU und PCB, es throttelt also nicht.
  • 2. Der P00 State, also der volle 3D-Modus, ist fest auf 1.212V gesetzt.
  • 3. P02, P05 und P08 sind weiter dynamische Vcore, bei einem Spiel mit geringer Last, so um die 50 - 54 Prozent und darunter, zum Beispiel aktuell Sniper Ghost Warrior 2, geht die Vcore also runter und bleibt nicht immer fest auf 1.212V.
  • 4. Takt ist auf Base Clock: 976MHz, Boost auf 1006MHz, im 3D-Modus als Max Boost liegen im Endeffekt aber 1150MHz GPU und 1.212V an.
  • 5. Speicher ist auf +300, also 3304MHz (6608MHz) gesetzt.

So, so viel zu meinen Erfahrungen mit der Titan – ein tolles Stück Hardware!

Gruß
Trill
 

Anhänge

  • Firestrike-1150MHz GPU-1652MHz RAM.JPG
    Firestrike-1150MHz GPU-1652MHz RAM.JPG
    40,9 KB · Aufrufe: 60
  • Firestrike-1201MHz GPU-1652MHz RAM.JPG
    Firestrike-1201MHz GPU-1652MHz RAM.JPG
    41,4 KB · Aufrufe: 66
  • Titan-Mod300.doc
    228,5 KB · Aufrufe: 59
Zuletzt bearbeitet:
@MeliMelicious:
Hast du zwei Titans im SLI? Dann könnten die Werte stimmen. Mit nur einer - never.
Du weißt schon, dass du eine feste Zeit einstellen kannst in Fraps, oder? :)
 
Zuletzt bearbeitet:
Metro2033 2013-03-18 16-24-39-20.jpgMetro2033 2013-03-18 16-24-33-73.jpg
@MeliMelicious:
Hast du zwei Titans im SLI? Dann könnten die Werte stimmen. Mit nur einer - never.
Du weißt schon, dass du eine feste Zeit einstellen kannst in Fraps, oder? :)

ne habe eine titan. ich kanns auch nit erklären, ich kann nur das ablesen, was der framecounter sagtm und der becnhmark auflistet *;D

grade nochmal, dead city Part 1, mit downsampling (ca. ne minute den test laufen lassen, oder 90 sekunden ioder so) 74 average.

die bereits geposteten Benchmarks liefen über ne minute, habe halt irgendwann wieder auf F11 gedrückt ums zu beenden *;D

kann es sein, dass fraps vllt. mist anzeigt ? aber glaueb ich nit. ich hatte metro letztens mal gestartet, hatte adaptives vsync im nvidia control panel eingegeben und im game waren die fraames auf 60 fixiert. jetzt dudeln sie halt fröhlich in hohen bereichen herum ohne adaptives vsync.
 
Zuletzt bearbeitet:
@ trill, das deckt sich ganz gut mit meinen erfahrungen unter lukü

Mit 1.200V = max. 1137MHz unter Wasser

meine beiden laufen nun synced @ +130,87°C,106% mit custom lüfterprofil bei 1.2v
das ergibt 1137-1150MHz und das bereits seit tagen stable @ crysis3 mp und dayzero
 
VSync hab ich zum Benchen natürlich aus.
Hier kannst du eine feste Benchmarkdauer einstellen:


Fraps misst schon richtig, bei dir ist wie gesagt sicher irgendwas nicht aktiv. Kannst ja mal alle Optionen einstellen, das Spiel neustarten (sicher ist sicher) und dann im Benchmark nen Screenshot machen mit Fraps, wo die fps-Anzeige mit drauf ist.
 
also ich habe oben zwei bilder drinne.... da sind meine einstellungen *;D

wie stelle ich bei fraps ein, dass ein screenshot ingame mit fps anzeige ausgegeben wird ?
 
Im Screenshot Tab das Häkchen "Include frame rate overlay on screenshots".
Vielleicht übernimmt er bei dir die Settings nicht gescheit oder sie erfordern wirklich einen Neustart. Denn hier sieht das in 2880x1620 mit 4xMSAA so aus:


An der Screenshotauflösung kann man ja auch wunderbar erkennen, dass die Auflösung im Spiel so war.
 
Zuletzt bearbeitet:
Irgend wie fehlt Tessellation, ich sehe fast keine Rauch bei deinen Screen.

Soll jetzt kein War enstehen:



 
Zuletzt bearbeitet:
Tessellation war an, wie alles andere auch, keine Sorge. Den Rauch siehst du wegen dem Lichtblitz der Waffe nicht so gut, aber in der rechten Bildhälfte ist er noch gut zu erkennen. Was soll das mit Tessellation zu tun haben?
 
Zuletzt bearbeitet:
@ Trill

kann ich nur bestätigen. Meine (Naeonnon Bios @ 1,21V) lief auch mit knapp 1240 durch alle möglichen Benchs und bis 1202 auch noch die meisten Spiele. Dota2, Starcraft 2 etc. waren diese 1202 dann auch nicht mehr Stabil. Letztlich bin ich nun bei ~1180 geblieben und das völlig stabil. Übrigends gilt das für beide Karten unter Wakü. Die eine Asics 72,8 und die andere hat 88,4.
 
also, ich hänge jetzt ne reihe bilder an, hier der benchmark dazu *;D

Frames, Time (ms), Min, Max, Avg
819, 12293, 58, 81, 66.623


Metro2033 2013-03-18 16-46-51-91.jpg Metro2033 2013-03-18 16-47-05-25.jpg Metro2033 2013-03-18 16-47-20-76.jpg Metro2033 2013-03-18 16-47-26-47.jpg Metro2033 2013-03-18 16-47-38-43.jpg

kommen noch mehr bilder *;D
 
Im Screenshot Tab das Häkchen "Include frame rate overlay on screenshots".
Vielleicht übernimmt er bei dir die Settings nicht gescheit oder sie erfordern wirklich einen Neustart. Denn hier sieht das in 2880x1620 mit 4xMSAA so aus:


An der Screenshotauflösung kann man ja auch wunderbar erkennen, dass die Auflösung im Spiel so war.

Schaut halt so aus. Sehe meine Screens alles Verraucht :bigok:
 
Nix für ungut, aber da passt was nicht wie gesagt. Die fps-Werte sind völlig unrealistisch für die Einstellungen. Deine Screenshots sind 1600x900 groß, das wird vermutlich auch deine Spielauflösung sein, egal was im Menü steht. Dann kommen die fps auch hin.
 
im fraps ordner steht Abmessungen: 2880 * 1620 *;D - ich habe die in jpgs erst umwandeln müssen in gimp, damit ich sie hochladen kann, soll ich dir ein original .bmp schicken ? habe die bilder halt hier über grafikanhängen hochgeladen, der rechnet die runter, kann das sein. ich will mich beweisen, omm ich schick dir die origianle aus dem fraps ordner per email *:)

---------- Post added at 17:13 ---------- Previous post was at 17:09 ----------

guck mal hier *:)



Bild "metro20332013-03-18165fa6l.jpg" anzeigen.

---------- Post added at 17:18 ---------- Previous post was at 17:15 ----------

tut mir leid mit der verwirrung, beim uploaden via "grafik hochladen" hat die forums software die dinger runtergerechnet *;D das wusste ich nit

---------- Post added at 17:19 ---------- Previous post was at 17:18 ----------

Bild "metro20332013-03-1816hbuyw.jpg" anzeigen. und hier noch eins.

---------- Post added at 17:20 ---------- Previous post was at 17:19 ----------



Bild "metro20332013-03-1816hbuyw.jpg" anzeigen. und hier noch eins.

btw. die karte hatte laut evga preciison log mit 1090 mhz ungefähr geboostet zu dem zeitpunkt *;D

---------- Post added at 17:39 ---------- Previous post was at 17:20 ----------

soooo habe jetzt auch die osd anzeige im precision genutzt, die zeigt die selben frames an wie fraps *;D
 
Zuletzt bearbeitet:
Da kannste schreiben und screens machen wie du willst das ist mit einer Titan nicht möglich!!!
 
Da wirst du 100% nen problem mit DOF haben.
Weil ich sehe auch das du es in english hast weswegen ich glaube das es kein original ist und weswegen man vieleicht da dann nen problem hat! Ich habe mit zwei HD7970 bei 2880x1620 nichtmal diese FPS von daher ist es mit einer titan absolut nicht möglich! Bei zwei Titan aber denkbar das man die FPS erreicht!
 
hör mal.....

du solltest aufpassen was du sagst... natürlich habe ich das game original, was hat das mit englisch deutsch zu tun ?! ich spiele mit englischen untertieln, weil ich die sprachausgabe auf russisch habe, ist geiler. nachdem ich das spiel 3 mal auf englisch durchgespielt habe wollte ich es mal mit original synchro spielen.

Unbenannt.jpg

SO DA OBEN mal Bild anklicken.........................

habe ne retail uk fassung, habe gar keine deutsche sprachausgabe

und ja vllt. gibts irgendwelche einstellungsprobleme in den optionen, wenn ich zwischen 4xmsaa und aaa wechsele, bleiben die frames gleich, wollte ich mal testen. vllt. übernimmt er das 4xmsaa nicht, warum auch immer. das wäre die mir einzige erklärung warum ich so hohe fps mit ds habe. wie ich es dazu kriege - falls das die ursache ist - 4xmsaa einzustellen, keine ahnung, wenn die optionen das nicht übernehmen. aber ie auflösung übernimmt er wie man ja bei den hochgeladenen bildern sehen kann.
 
Zuletzt bearbeitet:
gut, wie bringe ich das spiel dazu 4xmsaa zu benutzen, das kann man ja forcierenm, will sehen, wies dann aussieht und obs tatsächlich daran liegt, dass der 4xmsaa nicht verwendet, obwohl ich es einstelle.

was muss ich machen im nvidia inspector, dass ich das machen kann ?
 
Gibt es zum Heatkiller für Titan von Watercool schon genaueres? Bestellbar ist er ja schon.
 
3 Way nicht, aber ein normales SLI, bis zum erscheinen des Heatkiller in der Nickel Hole Edition auch noch @ Air
 
WTF !!! Die Nickelausführung gab es auch schon ? :wall:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh