[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Bei 106% PT und 94°C TT taktet sie wie folgt:
1115V max
ASIC 72,7%

1124 MHz auf 1058 MHz
1084 MHz auf 1019 MHz
1019 MHz auf 993 MHz
(stock)993 MHz auf 837 MHz

mit welchem Tool und Lüffie auf 85% ? PT und TT combined ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das heißt also, dass ich meiner GPU für 1084 +91Mhz ausreichen würden (hab ja atm +95Mhz eingestellt)? Und für eine Stufe höher muss ich ihr 104 geben wie oben erwähnt wurde.
 
Das heißt also, dass ich meiner GPU für 1084 +91Mhz ausreichen würden (hab ja atm +95Mhz eingestellt)? Und für eine Stufe höher muss ich ihr 104 geben wie oben erwähnt wurde.

Ja, sofern 993 MHz dein Default Boost takt ist.
Einen Unterschied macht das aber nicht, egal ob du 95 oder 102 einstellst. Erst bei 104 in deinem Fall würde sich der Takt ändern.
 
Zuletzt bearbeitet:
Durch den niedrigeren ASIC Wert hat du auch weniger Default-Boost. Ich vermute mal 980 MHz.
Das mit der "Abnutzung ist" Quatsch ;)

ja gut, wenn ich auf 1,2 Volt stelle schießt der takt auf 1260 hoch, aber bei assassins creed 3 ist das trotzdem nicht stabil...keine Ahnung welches Problem das game hat. aber mal ehrlich 1071 mit ner Titan, bei 34°....was will ich mehr ^^
 
1271 bei 34° ;)
 
interessant, habe der mal etwas mehr v gegeben (+25mV). max auf 1084 und kurz auf 1135.
Dabei bleibt die Karte unter 60°C ... zumindest beim TR Bench der ja recht kurz ist.



Firestrike macht auf Standard 9076 Punkte bei mir.
 
Mehr ist immer besser ;)
Ne, im Ernst, man muss die Karte ja nicht immer am Limit betreiben.
Ich bin momentan recht zufrieden mit den 1202 MHz, ... evtl. bleiben die auch für 24/7. Bisher absolut stabil.

Wievielt volt?

---------- Post added at 00:56 ---------- Previous post was at 00:52 ----------

interessant, habe der mal etwas mehr v gegeben (+25mV). max auf 1084 und kurz auf 1135.
Dabei bleibt die Karte unter 60°C ... zumindest beim TR Bench der ja recht kurz ist.



Firestrike macht auf Standard 9076 Punkte bei mir.

Das ergebnis habe ich auch bei +100mhz und standard volt

---------- Post added at 00:59 ---------- Previous post was at 00:56 ----------


Weil du da die wahre stabilität testen kannst. Bf3 ist eher anspruchslos was das angeht.
 
Ja, je höher die ASIC desto höher der default Boosttakt.
Ab 80% hat mal z.B. 1019 Boost. Und dann ist es wie Naennon schon sagt +100 würden dann 1119 ergeben, die gibts aber nicht als Taktstufe, also werden 1110 MHz angenommen.
Zusätzlich werden bei jeder Spannungsstufe die man anhebt werden dann zusätzlich 13 MHz mehr Boosttakt erreicht.

---------- Post added at 20:09 ---------- Previous post was at 20:08 ----------



Ja, das ist heftig ;)

Da das Thema max. Boosttakt offenbar für viele nicht gerade trivial zu sein scheint, habe ich den folgenden Abschnitt meinem Review hinzugefügt.
Ich hoffe ich kann damit einigen das Thema etwas verständlicher machen.

==================================================

Spannung, Taktraten und Boost


==================================================

ich hab auch 1019MHz boost. GPU-Z wirft 74,8% aus, wenn ich auf asic auslesen klicke.


(..)

mfg
tobi
 
Am besten immer mit Crysis 3 oder Max Payne 3 testen. Diese games haben eine wahnsinnige tesselation. Da zeigt sich dann wirklich ob die Karte stabil läuft und welcher Boost nach 15 Minuten tatsächlich anliegt wenn die Karte so richtig gestresst wird!

Unter Luft mit auto Lüfter sind minimale 1058 MHz bei 1.115V kein schlechter Wert bei Max Payne 3. COD Black Ops 2 läuft da sicher mit 1110 MHz oder so.
 
Zuletzt bearbeitet:
Erstmal vielen Dank für die Erleuchtung zu den Taktungsschritten der Karte *:d

habe jetzt eben alles gelesen und da kommt doch nochmal eine Frage auf...

also bisher hatte ich ja immer die standard-volteinstellung. bisher war ja meine höchste dokumentierte Taktung 1137 MHZ. Das war mit +145 MHZ Offset (was leider in far cry 3 nicht geht, grrrrrrrrrrrrrrr, scheiß spiel ey - zum glück in allen anderen spielen bisher stabil *;D).

Wenn ich jetzt die Voltstufen höher mache..-.. kriege ich dann nochmal min. +13 MHZ Taktung bei gleicher Offset EInstellung ???


WOOOOOOOOO kann ich das Overvolting aktivieren *;D - im precision kann ich da keine änderung vornehmen.

Und es ist definitiv absolut idiotensicher, wenn man das (was bei mri ja eh nur an 1, 2 tagen die woche für 2-4 stunden der fall ist) macht, also kein schaden für die karte zu erwarten ?

ist ja eh so, die muss an sich nur 1,5-2 jahre halten, dann hole ich eh neuen pc.

*lg
 
Wievielt volt?


Weil du da die wahre stabilität testen kannst. Bf3 ist eher anspruchslos was das angeht.


Ja, ich bin ja auch nicht von gestern. Oder meinst du ich habe mit Tetris aus Stabilität getestet?

Kollege war am Montag da und hat Crysis durchgezockt, is ned so meins das Spiel, Story naja. Dennoch ohne Probleme.

Spannung 1.1875


Sent from my iPad using Hardwareluxx app

---------- Post added at 08:18 ---------- Previous post was at 08:09 ----------

Wenn ich jetzt die Voltstufen höher mache..-.. kriege ich dann nochmal min. +13 MHZ Taktung bei gleicher Offset EInstellung ???

Ja, bei jeder Spannungsstufe, 13 MHz.

Und nein, die Karte geht davon keineswegs kaputt.


Sent from my iPad using Hardwareluxx app
 
Zuletzt bearbeitet:
mmelthread + FAQ - Bei Fragen erste Seite lesen

Hab jetzt auf +105 Mhz für 1097 gehen müssen. Mit 104 ist sie nicht über 1084 gekommen... komisch.
Ab wieviel Mhz macht eine Voltzugabe Sinn? Dachte immer, dass die insgesamte Lebensdauer schon darunter leidet, wobei das bei max. zwei Jahren Einsatz der Karte wurscht ist.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
da leidet gar nix mit Spannung
die haben den Riegel schon wesentlich früher gesetzt als notwendig

die 1,2000 Volt sind einfach mal gar nix, nvidia will halt im TDP Limit bleiben

mit paar Mv kriegst keinen Chip platt
 
Ja, ich bin ja auch nicht von gestern. Oder meinst du ich habe mit Tetris aus Stabilität getestet?

Kollege war am Montag da und hat Crysis durchgezockt, is ned so meins das Spiel, Story naja. Dennoch ohne Probleme.

Spannung 1.1875


Sent from my iPad using Hardwareluxx app

---------- Post added at 08:18 ---------- Previous post was at 08:09 ----------



Ja, bei jeder Spannungsstufe, 13 MHz.

Und nein, die Karte geht davon keineswegs kaputt.


Sent from my iPad using Hardwareluxx app

guuut *;D

jetzt muss ich nur noch wissen wo ich wie das aktiviere, dass ich im tool mehr volt anlegen kann. im afterburner gibts dafür zb. nen regler direkt, wo ist das bei evga precision. und muss ich nicht noch vorher irgendwo das erlauben (nvidia control panel ?!) ??
 
Hab jetzt auf +105 Mhz für 1097 gehen müssen. Mit 104 ist sie nicht über 1084 gekommen... komisch.

Das kann daran liegen, dass die eigentlichen Taktschritte nie runde Zahlen sind. Die Tools zeigen diese aber gerundet an. 1097 MHz sind z.B 1097,4 MHz.
Von daher muss man immer etwas probieren.

---------- Post added at 09:00 ---------- Previous post was at 08:46 ----------

ich hab auch 1019MHz boost. GPU-Z wirft 74,8% aus, wenn ich auf asic auslesen klicke.

Welche Karte hast du? "Normal" oder eine EVGA SC Karte?

Evtl. kannst du mir hier antworten? Dann versuche ich eine Liste zu erstellen.

http://www.hardwareluxx.de/communit...-umbau-user-review-951717-4.html#post20428667
 
du solltest dich vllt. einfach von dem "asic-mythos" verabschieden. titan beeinflusst eher das umfeld als irgendwelche nirgends dokumentierten mondwerte. also ich glaube nicht dran und tat es nie. die karte ist ne asus.


(..)

mfg
tobi
 
du solltest dich vllt. einfach von dem "asic-mythos" verabschieden. titan beeinflusst eher das umfeld als irgendwelche nirgends dokumentierten mondwerte. also ich glaube nicht dran und tat es nie. die karte ist ne asus.

Es ging mir nie darum, ob besser ACIS = bessere OC Werte ergeben. Ich möchte lediglich heraus finden, ob NVIDIA den Boost Wert dran fest macht.
Dennoch kannst du evtl so freundlich sein ein Screen deiner Werte zu posten? Wäre nett.
 
na klar.. wenn ich das nächste mal die 1019MHz sehe, drücke ich die drucktaste und uppe ein foto.



edit:
jetzt war ich leicht verwundert.. gestern boost bis 1019; heute bis 1006MHz.. ein blick in den NVi samt OC-reiter brachte dann die erkenntnis, dass ich gestern wohl die overvoltage-funktion des precision-tools aktiv hatte - war mir gar nicht bewusst. denn bisher ging die karte immer auf 1137 oder 1150MHz ohne dass ich an den spannungen spielen musste.



ich habe jetzt mal profilaktisch alle angelegten OC-profile gelöscht, den treiber samt precision-tool neuinstalliert - jetzt sollte nichts mehr querschlagen.

a4fu2x.png

b0oujw.png

cgrucs.png


btw,
ich habe mit dem .22 WHQL übrigens probleme mit der erkennung des im dezember gekauften HDTVs (LG47LM669S). mit alten treibern war alles gewohnt super; mit .14, .21 und dem offiziellen .22 wird die glotze nur erkannt, wenn sie schon beim BOOT als einzelgerät angeschlossen ist. steckt man dann unter windows weitere geräte an, schmiert der rechner ab. toll, nvidia..

das zu lösen wäre für mich viel interessanter, als die nachforschung nach 13MHz takt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Mehr ist immer besser ;)
Ne, im Ernst, man muss die Karte ja nicht immer am Limit betreiben.
Ich bin momentan recht zufrieden mit den 1202 MHz, ... evtl. bleiben die auch für 24/7. Bisher absolut stabil.
Kollege war am Montag da und hat Crysis durchgezockt, is ned so meins das Spiel, Story naja. Dennoch ohne Probleme.

Spannung 1.1875
Läuft das so ohne 300W+-Bios (Bios, das die Gesamtbegrenzung von 300W aufhebt)?
Du glücklicher.
Ich hab den Crysis-GPU-Bench (Crysis1) mit den folgenden Einstellungen als Stabilitästest verwendet:
Very High
Rygel Texturmod
2880x1800 (Downsampling)
4x4 SGSSAA über den Treiber
16xAF über den Treiber

Das letzte was da bei nem Standardbios ohne Throtteln läuft sind 1071 MHz (Ram 3200 MHz) bei 1,16xxV
Bei allem was darüber hinausgeht, wird der Takt nicht stabil gehalten.
Ich hab auch schon ein Bios probiert, das die TDP-Grenzen für den Chip anhebt. Selbes Ergebnis. Damit häng ich vermutlich an der Gesamtgrenze von 300W fest.
Extremes Beispiel: Ich fixier die Spannung auf 1,2 V und heb den Takt an, so das er auch immer wieder mal bei 1150 MHz liegt.
Allerdings hab ich die Takte über ne viertel Stunde mitprotokollieren lassen und dann nen Mittelwert gebildet: ca. 1060 MHz

Die 1071 MHz sind dann aber auch in BF3 und Crysis3 wie angenagelt.

Bei nem ASIC-Wert von 67,x wird meine Karte auf 980 MHz geboostet.

ciao Tom

P.S. nen Screenshot dazu werde ich in Deinem Thread noch nachreichen.
 
Zuletzt bearbeitet:
Allerdings hab ich die Takte über ne viertel Stunde mitprotokollieren lassen und dann nen Mittelwert gebildet: ca. 1060 MHz

Level-Wechsel dabei? Da taktet die Karte ja immer runter *duck*
Ich meine bei Crysis3 braucht man ja nicht soooooooooooooo lange für einen Level^^
 
Zuletzt bearbeitet:
@HisN
nö, geht um den integrierten Benchmark von Crysis1
gibts für Crysis3 etwa auch schon wieder nen Texturmod von Rygel?
 
ein Beitrag ^^ biste von ACom? ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh