[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
die karte rockt. hatte heute zum ersten mal im precision diesen monitor angeguckt, direkt nachdem ich meine ca. 2,5 std. (bin erkältet und krankgeschrieben, da hat man mehr zeit zum zocken) Session Crysis 3 beendet hatte. und der höchstwert war über einen längeren zeitraum 1130 mhz, also schon echt nice *;D

das spiel lief heute wieder die meiste zeit 60+ (zum teil sogar auf 80-90 hoch, in engen - nicht offenen passagen) fps mit alles auf max und 4xsmaa. selten mal unter 50 kurz, das merkt man dann gaaanz kurz. aber stören tuts nit, da es nur selten vorkommt.

ich spiele es mit dem gamepad @beamer @FHD und ohne störende framecounter/OSD -anzeigen. sämtliche meiner wandtauglichen spiele (nicht nur crysis oder farcry) laufen völligST gut mit der GTX titan.
hochgehen kann ich bis 1440p ohne dass ich gefühlt frames einbüße.

frames darf ich nicht vergleichen, weil die grundsätzlich niedriger ausfallen, als mit der GTX690 im zweitrechner.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Tobi

ich finde es recht interessant, die kleine fraps counter anzeige stört mich nit, habe sie unten links. aber an sich könnte ich es auch wieder lassen sie mitlaufen zu lassen, weil wirklich viel ändern wird sich da eh nit mehr, dsas spiel läuft super, darauf kommts an *;D

höhere auflösungen traue ich mich bei crysis nicht, habe angst, dass das spiel nit mehr flüssig läuft, wenn ich da downsampling mache. in 1080p reichts doch vollkommen aus. also kann mir kaum vorstellen, dass das noch besser aussehen kann *;D von daher...

wollte aber mal metro 2033 downsamplen *;D aber erstmal crysis 3 durchspielen.

metro 2033 läuft auch wie ein messer durch Butter mit der titan, ist schon ein unterschied zu der 580 vorher.. und auf der fabnd ich es damals echt gut, aber jetzt, nach dem direkten vergleich war das wohl ein irrglaube *;D - ist ein ganz anderes spielgefühl mit der titan... bei far cry 3 genauso.... selbst mit 8x msaa läuft das absolut perfekt, hatte das ja kurz mal getestet.
 
Zuletzt bearbeitet:
das spielgefühl mit geringem MSAA + DS kann besser sein, als nativ mit hohem MSAA. was aber an der implementierung liegt. ich schieb diesen effekt gern auf deferred renderer.

muss man ausprobieren.

ich spiele auf der wand sogar manchmal in 720p weil der projektor dann 120Hz schafft. das geht aber idR. mit einstellungen für SGSSAA im NVI einher, was auch wirklich toll aussehen kann; trotz 3.2m bildbreite.

ich habe das kann mal unterstrichen, weil man es echt ausprobieren muss. geschmäcker sind unterschiedlich.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
naja ein paar sachen von denen du sprichts verstehe ich nit ganz (okayeigentlich nur eine sache, deferred renderer), kenne mich zu wenig aus *;D

einer hat mir gesagt, wenn (was bei mir wohl eingestellt werden müsste) ich dann 2880 * 1650 (oder so um den dreh) einstelle, sprich downsamplimg mache, bräuchte ich gar keine anti aliasing sachen mehr. mal sehn, vllt. wenn ich C3 durch habe... dann kann ich ja mal scherzeshalber downsamplen. denke bei anderen spielen kriege ich da aber eher keine wirklichen probleme und wohl noch gut spielbare fps. ach mal sehn, ich genieße es erstnmal so wie ich es momentan habe. alle spiele werden locker durchgezogen von der titan *;D
 
Zuletzt bearbeitet:
Was ist eigentlich an 120 Hz so toll?
Und ab wann lohnt es sich vsync einzuschalten und wann besser nicht?
 
Zuletzt bearbeitet:
Das ist schwierig zu beschreiben. Das ganze Bild und der Ablauf ist einfach.. flüssiger. Spiel mal ne Woche oder auch zwei auf einem 120Hz und geh dann zurück auf einen 60Hz Monitor. Du wirst nicht zurück wollen :)
 
120 Hz ist angenehmer für dein Sehorgan :d
Und du hast kein lästiges Tearing bei hohen FPS
VSync würde ich nie nutzen wegen Inputlag und das ist ein weiterer Vorteil des 120Hz Monitors, bis 120 FPS brauchste kein VSync aktivieren um Tearing zu vermeiden.
Und 120 Hz ist nebenbei noch notwendig für 3D Vision
 
Was ist eigentlich an 120 Hz so toll?
Und ab wann lohnt es sich vsync einzuschalten und wann besser nicht?

wenn ein spiel auf dem heimischen bildwerfer teart, schaltet man vsync an.
es gibt 120Hz geräte, die ein sauschnelles reaktionsverhalten an den tag legen, was besonders da auffällt, wo man nicht mit funkmäusen oder crappy USB-eingabegeräten lags erzeugt. ein 120Hz bildschirm kann auch jede andere BWF bis runter auf 23Hz darstellen und das bietet eine fast beliebige flexibilität.

dazu dann die optionalen möglichkeiten, die der treiber zur synchronisation bereitstellt und schon passt auch die darstellung, wo man vllt. vorher noch von tearing geplagt wurde.

unbenanntr8sbo.png


ein rechenschieber und ein paar minuten zeit: schon sollte es möglich sein, einen synchronisationsfähigen refresh passend zur rechnerperformance zu finden.

120:2 = 60
120:3 = 40
120:4 = 30
..
..
..
..
110:2 = 55
110:3 = 37
110:4 = 28
..
..
..
..
100:2 = 50
100:3 = 33
100:4 = 25
..
..
..
..
60:2 = 30
60:3 = 20
60:4 = 15
..
..
..
..
23:2 = 12
23:3 = 7
23:4 = 6

120Hz bedeutet nicht automatisch, dass das Panel tearfrei schaltet oder 3D fähig ist, meines ist es (asus VG278HR).

auf gewöhnlichen 60Hz geräten, lässt sich das potenzial, das NVidia für einen flüssigen spieleindruck im treiber bereitstellt nicht abrufen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was genau versteht man unter teart? Also ich habe seit gestern meine GTX 690 ok das passt hier nicht so perfekt rein. Aber im 690 Thread ist ja nichts mehr los ^^
Habe gerade mal Diablo 3 an geschmissen bin mir aber noch nicht sicher ob ich es mit oder ohne vsync geschmeider finde.
 
zerreißende bilder bei horizonzalbewegungen, wenn das panel schon frame 2 darstellen soll, obwohl frame eins noch nicht vollständig dargestellt wird. das bild baut sich immer zeilenweise von oben links nach unten rechts auf.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
einfach spielen? mir springt tearing regelrecht ins gesicht, seit ich 1999 mein erstes LCD in betrieb genommen habe..


(..)

mfg
tobi
 
Wo bekomm ich nen Titan Bios her mit Max Vcore unlocked und ohne Throttel?
 
huhu also ich habe ohne vsync kein tearing, aber finde mit adaptiven vsync (control panel forciert) läuft es besser *;D ? zumindest habe ich das gefühl, die frames bleiben eher im 60er bereich. ohne vsync war da viel mehr bewegung drin, aber die war in der regel auch im hohen bereich, also so oder soimmer tolle frames bei crysis 3.
 
Zuletzt bearbeitet:
habe grade mal geguckt, also 2013 sollte meine Titan mir definitiv null probleme machen *;D - weil es kommt dieses jahr - außer metro last light - kein spiel mehr raus, was mich interessiert. okay, dead island riptide noch, aber joa das frisst die titan zum frühstück. maximal metro stellt eher eine herausforderung da, die sie aber gut nehmen sollte *:) !

davon abgesehen interessieren mich nur neue Stalker Mods (misery 2 für cop und den neuen ogse mod) sowie stalker lost alpha, was ja standalone rauskommt. jedoch ist das alles auchkein problem für die titan.

ahja day z standalone wollte ich evtl. auch mal probieren, aber ebenso kein problem.

wo wir von stalker sprechen, mir kam vorhin die idee den complete mod vllt. nochmal zu spielen und zwar mit downsampling hihi. soltle null probleme machen. den complete mod hatte ich mit der 580 gtx sogar auf 100+ fps (ingame anzeige über konsole) am laufen.

was ich noch überlegt habe, vllt. hole ich mir crysis 1 und knall dasmit extrem grafikmods zu, warum eigentlich nicht. vom setting her spricht mich crysis 1 mehr an als crysis 3. weil 1 geht eher in richtung far cry 3 und dead island.

hoffe die titan reicht auch noch für doom 4 *;D
 
Zuletzt bearbeitet:
mal am rande, wenn auf titan irgendwas nicht läuft, ist etwas anderes kaputt.


(..)

mfg
tobi
 
mal am rande, wenn auf titan irgendwas nicht läuft, ist etwas anderes kaputt.


(..)

mfg
tobi

hihi dann kann ich beruhigt sagen alles ist heile *;D - ne metro last light sollte nit mehr fordern als crysis 3, eher vllt. sogar n tick weniger, also kein problem für die titan *;D

alles andere was in zukunft so kommt, wird man dann sehen *;D
 
werd jetzt dann auch mal c3 testen, endlich mal bisserl zeit zum daddeln :-)
bin ja gespannt, wie es läuft auf 3 moni´s
 
Ich möchte gern 3 D mit meinem 120 Hertz tft machen welche brille schnurlos oder mit kabel gibt es sonst was zu beachten was empfiehlt ihr mir.
 
So gerade nochmal BF3 (MP gleicher Server) einmal mit SLI und ohne SLI gezockt,

mit SLI ist doch besser :d
 
öhm hatte grade mal aus interesse was gegoogled und zwar das adaptive vsync.. laut dem was ich lese scheint das gar nicht zu greifen, weil ja trotzdem öfters zum teil weit über 60 fps angezigt werden bei crysis 3 *;D

werde es beim nöchsten mal zocken wieder ausschalten und nochmal gucken, ob ich nen unterschied wahrnehme *;D

bei metro gings aber wohl weil da war die anzeige immer auf 60 und ging maximal auf 58 runter. aber an sich brauch man es doch gar nit, oder ?`weil wenn man mehrals 60 fps kriegen kann und kriegt, warum limitieren *;D ?Tearing habe ich nit, höchsten in den ingame cutscenes habe ich sowas verinzelt gesehen, aber im spielbetrieb nie
 
Zuletzt bearbeitet:
So meine beiden sind nun da, teste gerade die erste

hier mal paar Eckdaten:

Asic: 74%
Läuft nun seit 20 min Heaven 4.0 mit 1215 Gpu 3140 Speicher bei 1,2v Lüfter auf 75% gefixt bei 65° +-2 schwankend.
 
BF3 @1200p/Maximum läuft akzeptabel mit einer Karte, aber Tomb Raider und Far Cry 3 sind hier immer noch Ruckelorgien :( Besonders TressFX macht ja alles nieder, da brauchste im Prinzip echt eine eigene Karte nur um die Haare zu rendern, sowas beklopptes können nur Männer programmieren :fresse:
 
BF3 @1200p/Maximum läuft akzeptabel mit einer Karte, aber Tomb Raider und Far Cry 3 sind hier immer noch Ruckelorgien :( Besonders TressFX macht ja alles nieder, da brauchste im Prinzip echt eine eigene Karte nur um die Haare zu rendern, sowas beklopptes können nur Männer programmieren :fresse:

FC3 schluckt für das Gebotene etwas viel Leistung meiner Meinung nach ;) 8x MSAA, 2k Auflösung, Rest Max Ultra etc und manchmal drop auf 35 FPS mit einer Titan @ SC

mit 4x MSAA ist dafür alles in Butter nur wenige Einbrüche gegen 45 FPS
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh