[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
EVGA Precision -> Voltage blabla Button und dort findest du den K-Boost Button. Das sehe ich aber nur als Workaroundbzw halt für einen Test, keinesfalls sollte das die Lösung für das Problem sein. Dir Ursache wird eine andere sein.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gib mal bitte komment wie das abgeht

fps verlauf und timekurve please

zwei, drei oder immernoch vier Karten ?

Wenn ich dazu komme kann ich das machen. Immer mit 4 Karten, damit läufts bei mir am besten. Das Game ist teilweise sehr stark im CPU Limit so das man nur mehr 30 FPS hat, aber auch damit kann man spielen.

---------- Post added at 16:39 ---------- Previous post was at 16:36 ----------

@derguru: nettes Ergebnis! :bigok:
Ich hab das aber mit dem EVGA Precision versucht, evtl liegt mein Scheitern mehr oder weniger daran, dass ich ein anderes Tool verwendet habe?!

@DragonClaVV: DS != Display OC, aber gut, hab einfach meine custom Auflösung im Treiber erstellt und finde die Auflösung eigtl in jedem Game. (Arma2/3, BF3, Crysis3)


Um nochmal auf meine Frage bzgl. der zusätzlichen PCI-E Stromversorgung der großen Mainboards zurück zu kommen, ich konnte hier bereits eine Kleinigkeit im Internet recherchieren.

Bei der PCIe Spezifikation sind wohl bis zu 75 Watt Leistungsaufnahme über den PCIe Slot selbst vorgesehen. Rest via PCIe Stecker der Karten. Ob sich da bei 3.0 irgendwas geändert hat, konnte ich nicht rausfinden.

Mein R4E hat jedenfalls einen 6-Pin EZ-Plug, wie Asus das so schön nennt. Im Handbuch steht folgendes:



Nun stelle ich mir die Frage, auch weil ich irgendwo aufgeschnappt habe, dass es für den OC zuträglich wäre, wenn auch nur minimal, wenn man diese zusätzliche Spannungsversorgung verbindet. Ich habe zwar nur 2 Titans @ 3.0 laufen, wäre aber über einen kleinen Erfahrungsaustausch seh drankbar.

Werde es wohl auch selbst mal probieren und sehen, ob es irgendeine Änderung bringt.

Kann ja nicht schaden wenn man den ansteckt. Also ich habs gemacht. Auf meinem RIVF ist das aber nur ein normaler 4-Pin Molex.
 
joa, bei 4 Karten sollte man das auch machen. Bei 2 Karten wohl noch nicht von Nöten.
 
Also Funktionieren tuts damit auf jedenfall schonmal, teste jetzt mal obs am 3d Vision liegt, weil gestern konnte ich BF3 ohne Probleme spielen!
 
Mein 3-Way 680er SLI lief auch stable oced, die Frage wäre eher, ob man einen OC Vorteil erhält.
Meine gelesen zu haben, damit wären ca. 10MHz mehr drin?!

@bans3i: ich wette das Titan Quartet läuft auch ohne den Stecker stable.

Andere Frage, PCIe Bus Takt oc? Meinungen bzw Erfahrungen?
Bekommt man den mit z.B. 103MHz stable? würde das überhaupt was ausmachen?
 
Zuletzt bearbeitet:
Mein 3-Way 680er SLI lief auch stable oced, die Frage wäre eher, ob man einen OC Vorteil erhält.
Meine gelesen zu haben, damit wären ca. 10MHz mehr drin?!

@bans3i: ich wette das Titan Quartet läuft auch ohne den Stecker stable.

Andere Frage, PCIe Bus Takt oc? Meinungen bzw Erfahrungen?
Bekommt man den mit z.B. 103MHz stable? würde das überhaupt was ausmachen?

Ich würden die PCIe Takt nicht anrühren. Was bringt 1% mehr Leistung, wenn dadurch irgend etwas instabil wird?
 
Ich würden die PCIe Takt nicht anrühren. Was bringt 1% mehr Leistung, wenn dadurch irgend etwas instabil wird?

Zudem sollten sich die Ein und Auslagerungsvorgänge bei 6 GB ebenso auf ein Minimum beschrenken was den Effekt neben Instabilitäten noch weiter einschränkt

Hat sich das Ding erstmal vollgesaugt wie ein Blutegel ist das Sättigungsgefühl bei mordernen Games wohl nahezu konstant:d

Wohl auch ein Grund warum ein Bandbreitenlimit so schnell nicht zum Tragen kommt
 
Zuletzt bearbeitet:
Interessant ist es aber auch mal ältere Spiele zu testen mit ordentlich DS.
schmeiß mal Stalker drauf :fresse:


ich habe gestern stalker + complete mod und photorealistic zone 2 texture mod getestet. Ingame grafikoptionen alles auf maximum.

In 2880 * 1620 downsampling auflösung

+

4xmsaa im treiber erzwungen...

resultierte im cordon in 55-60 frames an lagerfeuern gings in hohe 40er runter, wenn du quasi das lagerfeuer anguckst. kurz auf 35-38 gings runter, als ich einfach auf den military grenzposten zugelaufen bin und die mich unter beschuss genommen habe.

habe dann dasselbe (2880*1620) mit 2xmsaa getestet. das gibt einem direkt nen fps boost auf ca. 80 im durchschnitt, aber oft auch drüber (90 etc.) am lagerfeuer gehts auf 65 und etwas drunter runter. den militärgrenzposten hatte ich hiermit nit geteste, habe mich dafür aber mal kurz in die bar-map teleportiert. hier auch, sogar mittendrin, 70-80 frames im durchschnitt- hatte gedacht da gehen die frames vllt. runter, weil da 1000 stalker, dutys usw. rumlaufen, war aber nit so. den obligatorischen splitsecond stutter an der traditionellen stelle gibts trotzdem noch, also da, kurz vor dem duty wachposten. alife-on switch halt. xray engine halt *;D

also werde für meinen dritten complete mod playthrough das ganze im downsampling mit 2xmsaa spielen. wollte evtl. noch ssaa im treiber probieren, aber naja mit downsampling habe ich ja eine ssaa stufe eh scon drin, mehr oder weniger.

vllt. spiele ich priboi story so auch nochmal *:d stalkersoup wäre auch interessant, aber da warte ich noch auf ne finalere version, habe eine etwas ältere version ziemlich lange gespielt, aber dann für den old story restoration mod (rma 1.1.5) abgebrochen. letzter btw. einer der besten soc mods !!! habe ich zwei mal hintereinander gezockt. das zweiote mal mit nem russischen addon für den mod.

edit: ohne msaa erzwingen in downsampling bist du immer zwischen 90 und über 100 frames und das oihne overclocking der titan, für die msaa tests habe ich aber übertaktet.
 
Zuletzt bearbeitet:
@MeliMelicious

Wieviele Total Pixel hast Du bei 2880x1620 angewendet?

Edit:
komisch ich kann 2880x1620 ohne Probleme einstellen aber in den Spielenexisitiert die Auflösung nicht?
 
Zuletzt bearbeitet:
danke für die Info :)
 
@MeliMelicious

Wieviele Total Pixel hast Du bei 2880x1620 angewendet?

Edit:
komisch ich kann 2880x1620 ohne Probleme einstellen aber in den Spielenexisitiert die Auflösung nicht?

Hast du im Custom Resolutions Panel auch ein Häkchen bei den neuen Auflösungen rein gemacht?
 
Ja sind,

ich muss den Windows Dektop auf die Auflösung stellen dann gehts.

Was wäre denn der nächst höhere Schritt in der Auflösung?

Könnte bis 3200x1700 gehen (auf die schnelle getestet)
 
Zuletzt bearbeitet:
Ich glaube anobo verarscht die Kunden. Genau wie gestern bei der EVGA steht nach meiner Bestellung Lieferzeit über 7 Tage. In meinem Kundenkonto steht wieder Bestellung noch nicht Bearbeitet und per email kam auch noch nichts.

Das die nach 7 Werktagen wieder Karten da haben ist auch nur Wunschdenken. Man muss ja nur gucken wie oft das immer bei Mindfactory&Co verschoben wird.
Werde die Bestellung mal laufen lassen bis Morgen Abend und mal schauen ob da morgen was in den Versand geht. Wenn nicht, wieder storno! Bestelle mir dann sicherhalb eine von Mindfactory nach 0:00 für 939€.
 
@MeliMelicious

Wieviele Total Pixel hast Du bei 2880x1620 angewendet?

Edit:
komisch ich kann 2880x1620 ohne Probleme einstellen aber in den Spielenexisitiert die Auflösung nicht?

weiß nit genau, was du mit totalen pixeln meinst *;D

habe diese auflösung zuerst im nvidia control panel manuell eingestellt und für meinen desktop übernommen, danach speiel starten und zack taucht diese auflösung in den spielen zur auswahl auf. danach brauchst du esim desktiop dann nicht mehr. wenn es einmal im spiel auftauchte, kannst du es jetzt dort immer auswählen, zumindest bei metro und stalker *;)
 
Eigentlich sollten 2880x1620 ohne jegliche Anpassungen gehen. Wenn die Auflösung nicht in Spielen angezeigt wird, liegt die Hz-Zahl außerhalb des erlaubten Bereichs im Monitortreiber. So kannte ich es jedenfalls von Fermi. 3840x2160 z.B. ging nur bei 54 Hz, mein Monitor hat aber nur Auflösungen bis minimal 56 Hz zugelassen. Da musste ich dann basteln. Bei Kepler ist das aber gar kein Problem mehr, da gehen 60 Hz auch so.
 
Eigentlich sollten 2880x1620 ohne jegliche Anpassungen gehen. Wenn die Auflösung nicht in Spielen angezeigt wird, liegt die Hz-Zahl außerhalb des erlaubten Bereichs im Monitortreiber. So kannte ich es jedenfalls von Fermi. 3840x2160 z.B. ging nur bei 54 Hz, mein Monitor hat aber nur Auflösungen bis minimal 56 Hz zugelassen. Da musste ich dann basteln. Bei Kepler ist das aber gar kein Problem mehr, da gehen 60 Hz auch so.

Danke!

Das wars. Obwohl die Auflösung als OK eingestuft wurde war sie nicht in Spielen zu sehen. 1-2 Hz weniger und sie wurde angezeigt. Ich hatte es schon beinahe aufgegeben.
 
Also das Titan SLI brauch schon 5 Ghz auf dem 3770K um über 90% ausgelastet zu werden auf Full HD :fresse2:

Wird zeit für nen 1440P bzw 1600P Monitor ...
 
Neeeeeiiiin, kann doch echt nicht sein :wut:
Umbau mit Backplates und EK-FC Terminal Dual fertig, jetzt leckt es!!!

Wat ist? Einer der Plexideckel hat beim Verschrauben des Terminals einen Riss bekommen bei der mittleren Schraube...

Und jetzt gibt nirgends wo nen Ersatz zu kaufen heul heul
 
Plexi-Nogo?
Aber wie ärgerlich ist das denn? Hauptsache die Karten leben noch.
 
Wat ist? Einer der Plexideckel hat beim Verschrauben des Terminals einen Riss bekommen bei der mittleren Schraube...

l

Las mich raten auch EK

Obs nun am Material alleine liegt oder an der Güte des Plexiglases wieder ein Grund mehr Abstand zu nehmen von deren Produkten

Aber wenigstens noch Glück im Unglück stell dir vor das Wasser hätte dir die Karte gekillt:)
 
Zuletzt bearbeitet:
Wenn schon EK, dann lieber die Acetalversion. Plexiglas ist einfach zu anfällig.
 
hat sich einer mal das EK Video reingepfiffen ?
http://www.youtube.com/watch?v=Bo8peEd4a_c 

entfernt ihr auch so pinibel die WLP ?
Ich habe immer Tempos und Feuerzeugbenzin oder Bremsenreiniger genutzt :fresse:

Zu den Hydros bzw Swiftechkühler

There were some details that we learned about a bit late on that caused a delay on the blocks, we revised the VRM section on the TITAN block to make sure that it makes adequate contact on all systems.

dauert wohl noch was :(
 
ich habe gestern stalker + complete mod und photorealistic zone 2 texture mod getestet. Ingame grafikoptionen alles auf maximum.

In 2880 * 1620 downsampling auflösung

+

4xmsaa im treiber erzwungen...

resultierte im cordon in 55-60 frames an lagerfeuern gings in hohe 40er runter, wenn du quasi das lagerfeuer anguckst. kurz auf 35-38 gings runter, als ich einfach auf den military grenzposten zugelaufen bin und die mich unter beschuss genommen habe.

habe dann dasselbe (2880*1620) mit 2xmsaa getestet. das gibt einem direkt nen fps boost auf ca. 80 im durchschnitt, aber oft auch drüber (90 etc.) am lagerfeuer gehts auf 65 und etwas drunter runter. den militärgrenzposten hatte ich hiermit nit geteste, habe mich dafür aber mal kurz in die bar-map teleportiert. hier auch, sogar mittendrin, 70-80 frames im durchschnitt- hatte gedacht da gehen die frames vllt. runter, weil da 1000 stalker, dutys usw. rumlaufen, war aber nit so. den obligatorischen splitsecond stutter an der traditionellen stelle gibts trotzdem noch, also da, kurz vor dem duty wachposten. alife-on switch halt. xray engine halt *;D

Kannst du mal sagen, wieviel VRAM du bei den beiden Settings belegt hattest? Ich jetzt eigentlich auch mal wieder richtig Bock auf Stalker, aber mit meinen 1.5GB VRAM wird es sicher knapp bei 2560x1440.

Wenn doch die Titan nicht so teuer wäre. :wall: Ich würde vermutlich zwei brauchen und das kann ich im Moment noch nicht mit meinem Gewissen vereinbaren.
 
Schön das WC endlich den HK fertig hat. Jetzt weiss ich aber net welchen ich nehme ... AC/WC/Kollance? :d

was mich noch viel mehr interessieren würde, besonders mit einem titan sli,
ist der mehrwert durch verwendung des zusätzlichen stromanschlusses auf dem mainboard für die pci-e slots. gibt es da erfahrungswerte? auch im hinblick auf die 3.0 spezifikation.
Mein MIVE hat 2 Zusatzstromstecker und beide hab ich auch angestöpselt. Ob das Einfluss auf OC der Titanen hat kann ich net sagen, da ich die Stecker nicht rausziehen werde (komme da schlecht dran^^).
Was ich jedoch sagen kann: damals mit den GTX580ern@SLi (sowie Single) konnte ich die Grakas weiter übertakten mit angestöpselten Boardstromsteckern! Ohne war bei um 940-950MHz GPU-Takt Ende im Gelände, mit gingen sie bei Benches bis 980-1000MHz.
Daher stöpsel den/die Zusatzstromstecker am Board an.
So, habe gerade mal das 3D Vision zeugs angeschlossen und battlefield 3 gestartet, sieht klasse aus, aber ruckelt. In GPUZ nachgeschaut, aha, die Titan taktet sich nicht hoch, bleibt einfach im P5 State, egal was ich im Treiber einstelle von wegen "Maximale Leistung".

Jemand eine Idee?
Geh mal Ingame mit ALT+Tab raus zum Desktop und dann wieder rein ins Game.
Eventuell auch mal Fraps/Precision/whatever ausmachen bevor du ins Game gehst, gerade wenn du den "Injector" verwendest solltest die Tools immer aus haben ;).
 
was ?, wo gibts denn die Koolance ? .. link ?
 
Bei AT ist der schon gelistet 129€ ;)
 
Hat hier schon jemand den Heatkiller von WC? Wie ist die Verarbeitung und sind alle Pads dabei?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh