[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Games im allgemeinen sind immer bessere Indikatoren wie irgendwelche Tools

Wenn Artefakte kommen geh weiter zurück u teste erneut
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Games im allgemeinen sind immer bessere Indikatoren wie irgendwelche Tools

Wenn Artefakte kommen geh weiter zurück u teste erneut

Ok aber ist so wenig Mhz normal? Dachte 100Mhz wären locker drinnen für den Speicher. Was ist so der Durchschnitt bei den Titanen?

Edit: Bei +90Mhz keine Artefakte mehr...
 
Zuletzt bearbeitet:
Das ein 100er Offset immer garantiert ist kann keiner vorhersagen ein schlechter Chip u das Ganze ist hinfällig

Ich würde den Speicher sowieso nicht anrühren da allein durch seine schiere Größe von 6GB Ein u Auslagerungsvorgänge auf ein Minimum beschränkt bleiben

Wohl auch ein Grund warum Speicher OC nicht so durchschlägt wie bei kleiner dimensionierten Karten

---------- Post added at 17:36 ---------- Previous post was at 17:31 ----------

Edit: Bei +90Mhz keine Artefakte mehr...

So schnell?

Da solltest du schon mal so ein Stündchen spielen um einigermaßen auf der sicheren Seite zu sein
 
Zuletzt bearbeitet:
hab sie gefragt wieviel sie grad braucht :d
ne na errechnet aus stock benches abzüglich rest load gemessen mit strommessdingensteil

die einen reden mit ihren Pflanzen, die anderen mit iherer HW :haha:
Der mit dem grünen Daumen bemerkt erst wenn sein PC aus geht das es ihm nicht gut geht, der Nerd hingegen stört sich weniger an pulvertrockenen Pflanzen :fresse:

thx 4 Info
 
Ich weiß nicht warum, aber ich habe mit dem neuen treiber weniger fps in BF3, als zuvor mit einer 680.
Irgendwie komisch, gerade bei diesem spiel.
Bei mir funktionierten die beta treiber nicht und heute der whql bringt zumindest in bf3 alles andere, als stabilität oder performance.
Ich kann eigentlich fast ausschließen, dass es an was anderem liegt, habe windoof frisch drauf und alles -.-
Hat ein anderer mit Titan und BF3 diesbezüglich probleme ?
 
Also ich kann nur soviel sagen das ich zuvor mit dem 314.21 stabilere FPS in BF3 hatte als mit dem neuen WHQL 314.22 keine Ahnung.

Hab das Gefühl das die Titan bisher nicht richtig von den bisherigen Treibern ausgereizt wird.

PS: Kann es eigentlich möglich sein das die FPS schwanken bzw weniger sind wenn die 12V Schienen des Netzteils nicht mehr viel hergeben?

Ich meine ich hab zwar nen 1250ger Revolution 85+ aber das hab ich auch schon seit knapp 3 Jahren.

Und mein Sys siehe Systeminfo + noch 2 Vertex 3 SSDS und 2 Blueraybrenner frisst sicher auch nicht wenig.
 
Zuletzt bearbeitet:
Hier auch nicht. BF3 läuft signifikant schneller als mit der 680er! Vorallem in heftigen Gefechten bricht kaum was ein, fast durchgehend 60fps.

@Scully
Scheint doch nicht am VRam zu liegen, sondern am angewendeten AA in C3. Habe mit TX2 gezockt und ab und zu Fehler (s. Bild). Mit 4xSMAA tritt das nicht auf!

 
Ich finde das komisch, es ist ja zumindest die gleiche architektur.
Dachte nicht, dass da der einstieg schwer fällt ..
 
PS: Kann es eigentlich möglich sein das die FPS schwanken bzw weniger sind wenn die 12V Schienen des Netzteils nicht mehr viel hergeben?

Nein wenns Netzteil kollabiert geht die Kiste aus oder es gibt nen Blauen

---------- Post added at 18:11 ---------- Previous post was at 18:09 ----------

@Scully
Scheint doch nicht am VRam zu liegen, sondern am angewendeten AA in C3.

Wie schauen denn die Artefakte aus bunter Pixelmatsch Hieroglyphen oder sowas?

Höhere AA Stufen fordern den Speicher auch mehr da kann es schon sein das der aussteigt
 
Zuletzt bearbeitet:
Nein wenns Netzteil kollabiert geht die Kiste aus oder es gibt nen Blauen

Na ja sagen wir mal so ich hatte ab und zu mal das Problem das mitten im Spiel oder manchmal auch im Windows der Monitor schwarz wurde und beide Titanen lautstark aufdrehten und ich den PC reseten musste.

Vielleicht hats ja damit was zu tun?

Das habe ich in den letzten Tagen allerdings nicht mehr gehabt. Keine Ahnung...
 
Zuletzt bearbeitet:
Na ja sagen wir mal so ich hatte ab und zu mal das Problem das mitten im Spiel oder manchmal auch im Windows der Monitor schwarz wurde und beide Titanen lautstark aufdrehten und ich den PC reseten musste.

Vielleicht hats ja damit was zu tun?

Das habe ich in den letzten Tagen allerdings nicht mehr gehabt. Keine Ahnung...

Das könnte schon eher auf nen Kollaps hindeuten

Das Revo hat doch mehrere Stromschienen hast du die mal gewechselt nicht das zuviel Last auf einer hängt
 
Zuletzt bearbeitet:
Na man hat ja hinten im Netzteil die roten Ports für die 12V Schienen und jede Graka hängt extra an solch einem Port oder was meinst Du?
 
Na man hat ja hinten im Netzteil die roten Ports für die 12V Schienen und jede Graka hängt extra an solch einem Port oder was meinst Du?


Ich weiß jetzt nicht ob die anderen 12Volt Verbraucher ne getrennte Schiene haben oder ob die auch irgendwo an einer der PCIe Versorgungen geklemmt sind

Machs doch einfach mal so das du pro Schiene lediglich einen der modularen Stecker pro Karte zuordnest

Das Ding hat doch 4 PCIe Versorgungen an der Zahl
 
Zuletzt bearbeitet:
Schiene = roter Port?

Ich meine ich hab ja jede Graka seperat an solch einem roten Port und der Stecker hat am anderen Ende 2 mal 8 Pol stecker und diese 2 kommen in eine Titan.
 
Jupp roter Port meistens eine Schiene bei Enermax

Es kann aber auch sein das die anderen 12Volt Verbraucher in deinem System auf einer dieser Stränge mitbeschaltet sind

Deshalb probiere es eben mal mit zwei Kabeln u zwei roten Ports pro Karte oder schau nach ob die anderen Verbraucher separat geschaltet sind
 
Zuletzt bearbeitet:
---------- Post added at 18:11 ---------- Previous post was at 18:09 ----------

[/COLOR]

Wie schauen denn die Artefakte aus bunter Pixelmatsch Hieroglyphen oder sowas?

Höhere AA Stufen fordern den Speicher auch mehr da kann es schon sein das der aussteigt

Siehe Bild weiter oben...

In dem Fall sind die niedrigen AA Stufen fehlerhaft. Ab 4xSMAA aufwärts (also höhere AA Stufen), tritt der Fehler nicht mehr auf. Sieht nach Application bzw. Grakatreiber Bug aus, da der Fehler auch komplett ohne Mem Übertaktung auftritt!
 
Zuletzt bearbeitet:
Hmm also Rätsel raten und mal alle Ports ausprobieren. Wobei ich das vorhin genannte Problem nicht reproduzieren kann.

Danke Dir aber erstmal für deine Hilfe.

Denke aber das ich mir das spare und das Platimax 1500 hole damit sollte ich auf der sicheren Seite sein.
 
Hmm also Rätsel raten und mal alle Ports ausprobieren. Wobei ich das vorhin genannte Problem nicht reproduzieren kann.

Naja was heißt Rätzelraten so kommst du am schnellsten dem Problem näher tritt es nicht mehr auf war eine Schiene überbeansprucht u die Schutzschaltung hat gegriffen.Tritt es weiter auf könnte auch das ganze Netzteil nen Schuss haben

Nicht alle Ports probieren nur halt mal jedem roten PCIe Port nur die halbe Last der Grafikkarte zuordnen indem du zwei Kabelstränge einsetzt;)

---------- Post added at 18:44 ---------- Previous post was at 18:36 ----------

Siehe Bild weiter oben...

In dem Fall sind die niedrigen AA Stufen fehlerhaft.!

Ich finde zwar kein Bild weiter oben :d aber applikationsbedingte Grafikfehler sehen im allgemeinen anderst aus wie Artefakte beim OC

Deshalb hab ich nach bunten Pixelmatsch bzw Hieroglyphen gefragt gehabt

Wenn das nicht der Fall ist wirds wohl wirklich treiberbedingt sein
 
Zuletzt bearbeitet:
das erste problem mit den neuen Nvidia Treiber ist, das EVGA Precision Tool den GPU Takt falsch zeigt
immer steht bei GPC Glock 575 Mhz beim zocken :stupid:
 
Hi,

um unter Dos zu flashen, ist da die Version 5.127 aktuell genug für die Titan?

ciao Tom
 
mmelthread + FAQ - Bei Fragen erste Seite lesen

Hier auch nicht. BF3 läuft signifikant schneller als mit der 680er! Vorallem in heftigen Gefechten bricht kaum was ein, fast durchgehend 60fps.

@Scully
Scheint doch nicht am VRam zu liegen, sondern am angewendeten AA in C3. Habe mit TX2 gezockt und ab und zu Fehler (s. Bild). Mit 4xSMAA tritt das nicht auf!


In dem Post ist doch das Bild!
Siehst du es nicht?

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Bald ist endlich Ruhe im Kasten:



So wertig das Teil... :love:

Was die Karte luftgekühlt & übertaktet für einen Krach macht ist ja nicht auszuhalten. :(
 
In dem Post ist doch das Bild!
Siehst du es nicht?

Gesendet von meinem GT-I9300 mit der Hardwareluxx App



Das was funktioniert meinte ich nicht sondern das mit den Fehlern

---------- Post added at 20:07 ---------- Previous post was at 20:05 ----------

Bald ist endlich Ruhe im Kasten:



So wertig das Teil... :love:

Was die Karte luftgekühlt & übertaktet für einen Krach macht ist ja nicht auszuhalten. :(

Ha die Katze lässt das mausen nicht :d

Hattest du nicht neulich noch abgeschlossen mit Wakü

Zitat meinerseits

Und das aus deinem Mund

:fresse2:

---------- Post added at 20:08 ---------- Previous post was at 20:07 ----------

, da dort bei TITAN eine jede S/N eingetragen ist.

MfG
Edge

Echt?

Das ja ne bedeutende Info danke Edge:bigok:
 
Ne Scully, da hab ich mich missverständlich ausgedrückt. Ich habe keine Lust auf SLI in Verbindung mit Wakü. Letztere bleibt naturelement. :)

Das mit der SN ist nicht so gut, die meiner Karte ist dann schon mal weg. :/

Hab mir direkt das SC Bios geflasht und dachte mir ich hab ja noch das ori Bios von den anderen Titans (hab mehrere). :heul:

Kann man die SN irgendwie wieder setzen, mit einem Hex-Editor evtl?
 
Wem Speicher OC interessiert, mit +100(1552 MHz statt 1502) gibt es 0,7 fps mehr.

Die Nvidia Server haben wohl ein Problem. Download geht nicht!
 
Zuletzt bearbeitet:
Wem Speicher OC interessiert, mit +100(1552 MHz statt 1502) gibt es 0,7 fps mehr.

Die Nvidia Server haben wohl ein Problem. Download geht nicht!

Wobei hast du nur 0,7 Frames mehr? Ich habe mit +300 1652MHz in Crysis 3 satte 5 - 6 Frames mehr, Speicher clocken bringt sehr wohl, die GPU und die CPU muss aber mitgehen. ;)
 
Im Fire Strike Extreme Test habe ich mit +700Mhz auf dem RAM immerhin um 5% mehr Leistung. GPU war dabei unübertaktet.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh