[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fängst ja schon wie Tobi an .... *daumenrunter*

Tobi hat mittlerweile wieder die 690 als Hauptkarte, da ihm die Titan dann im Vergleich zur 690 doch zu langsam war. An seiner Stelle hätte ich mir einfach eine zweite Titan gekauft. ^^

Btw. ich teste gerade die SLI-AA Modi, da das perfekt skaliert. Leider ist sie Sample-Verteilung nicht ganz optimal, aber eventuell könnte man da ja mit einer Petition was schaffen. Wenn die Samples besser verteilt wären, würde man mit 2-4 Karten eine Film reife Kantenglättung erhalten. Ich frage mal ein bisschen rum, ob sich da was machen lässt.
 
Hatte mir auch eine Titan bestellt und ausprobiert. Bin aber wieder zurück zu meiner GTX690 da die doch performanter ist.
MR habe ich so gut wie keine, bitte also nicht mit dem Argument kommen.
Aber man merkt schon einen Preisverfall bei der Titan. Wenn ich eine (zwei) um die 600€ (je) bekomme baue ich auf SLI um. Da die GTX690 ja tendeziell eher teurer wird sollte die auch gut zu verkaufen sein.




Tobi hat mittlerweile wieder die 690 als Hauptkarte, da ihm die Titan dann im Vergleich zur 690 doch zu langsam war. An seiner Stelle hätte ich mir einfach eine zweite Titan gekauft. ^^

Btw. ich teste gerade die SLI-AA Modi, da das perfekt skaliert. Leider ist sie Sample-Verteilung nicht ganz optimal, aber eventuell könnte man da ja mit einer Petition was schaffen. Wenn die Samples besser verteilt wären, würde man mit 2-4 Karten eine Film reife Kantenglättung erhalten. Ich frage mal ein bisschen rum, ob sich da was machen lässt.
 
ich bin auf 186€/monat strom hochgestuft worden - davon muss ich mich erstmal erholen.. :-)

rechner1 GTX690
rechner2 titan

für techlevel dx11 ausreichend! von SLi wollte ich eigentlich weg, nur hat titan dazu nicht gereicht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
70% ist schon laut für jemand der von wakü kommt. :) aber beim zocken ist ja sound an, da geht es eigentlich. habe jetzt noch nicht getestet ob die 1124 mit weniger lüfter auch stabil sind.

werd noch ein bißchen rumspielen und dann entscheiden ob ich sie auf wakü umbaue oder nicht. leider gehts erst morgen weiter, muss nu zur arbeit... :(

@chs: das erinnert mich an mein gutes altes 480er SLI :fresse2:

huhu,

also gestern hatte ich nen neuen Mod für Stalker ausprobiert, das ganze in 2880*1620 + 2xMSAA (im Treiber forciert). GPU Clock Offset +145 MHZ / genauso RAM + 145 MHZ. PT 106% und TT war glaube ich 88 °c. Habe ca. ne Stunde gespielt oder so. Immer wenn ich oben links geguckt hatte (in 2880*1620 brauch man ne Lupe bzgl. der evga precision osd anzeige) wars fix auf 1137 MHZ *;D - Lüfter ist auf Auto. Also ist nicht runter gegangen würde ich sagen.

Kann mir einer sagen warum die Karte mit +142 MHZ (anstatt 145 MHZ) nur mit 1124 MHZ taktet und dann aber bei "nur" + 3 MHZ Offset direkt = + 13 MHZ Taktung ingame ergibt *:d ?! nicht das mich das stört *g* vllt. ists auch normal, aber hätte nit gedacht, dass das ingame dann so einen Unterschied ergibt. <- das ganze beim selben SPiel. Hatte vor diesem neuen Mod noch n bisl Complete Mod gespielt. da halt das +142 MHZ Setup, beim neuen Mod dann mit +145 MHZ.

ahja, hatte auch vor n paar tagen noch mal far cry 3 gespielt. also +116 mhz offset scheint auch zu funktionieren. mit 4xmsaa immer gute frames. allerdings hatte ich gesehen, dass in szenen, wo extrem viel los ist (viele leichen, zb. in nem outpost, denn man grade frisch macht) die frames auch mal unter 60 droppen (aber nur wenns outposts im dschungel sind lo, am meer zb. droppt nix unter 60, da ist eher 70+ fps beim outpost ausräuchern angesagt). schade, dass far cry 3 die +145mhz nit stabil hinbekommt *:( weil da waren die frames bei gleichem setup ingame ja sehr viel besser *:d und da würde sicher nix unter 60 droppen. naja muss man so akzeptieren *;D

ahja und HDAO macht grafikfehler *g* also bleibe ich bei HBAO *;D
 
Zuletzt bearbeitet:
die grösse des OSD lässt sich über das symbol im tray skalieren.

in FC3 stört mich das aufgesetzte multisampling - macht die sache reichlich träge. 2880x1620 mit 0xMSAA oder vllt. 2xMSAA fühlt sich besser an. alternativ kann man die eine oder andere einstellung im grafikuntermenu zurückstellen, um noch 2-5fps zu gewinnen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@ tobi

da muss ich dann nochmal gucken im osd menu wo ich das da größer machen kann *;D

müsste ich mal probieren fc3 in 2880*1620 zu spielen, würde da msaa wohl eh ganz weglassen auch, weil sonst kackt die titan ja schon ab, schätze ich mal bzw. bringt mir nicht mehr die tollen fps, die sie so in 1920*1080 auch mit msaa bringt.

aber jetzt spiele ich eh wieder stalker erstmal, bis dead island riptide kommt *:d
 
huhu,

also gestern hatte ich nen neuen Mod für Stalker ausprobiert, das ganze in 2880*1620 + 2xMSAA (im Treiber forciert). GPU Clock Offset +145 MHZ / genauso RAM + 145 MHZ. PT 106% und TT war glaube ich 88 °c. Habe ca. ne Stunde gespielt oder so. Immer wenn ich oben links geguckt hatte (in 2880*1620 brauch man ne Lupe bzgl. der evga precision osd anzeige) wars fix auf 1137 MHZ *;D - Lüfter ist auf Auto. Also ist nicht runter gegangen würde ich sagen.

Kann mir einer sagen warum die Karte mit +142 MHZ (anstatt 145 MHZ) nur mit 1124 MHZ taktet und dann aber bei "nur" + 3 MHZ Offset direkt = + 13 MHZ Taktung ingame ergibt *:d ?! nicht das mich das stört *g* vllt. ists auch normal, aber hätte nit gedacht, dass das ingame dann so einen Unterschied ergibt. <- das ganze beim selben SPiel. Hatte vor diesem neuen Mod noch n bisl Complete Mod gespielt. da halt das +142 MHZ Setup, beim neuen Mod dann mit +145 MHZ.

Ich werde jetzt nochmal ein wenig damit rumspielen. Aber gestern war das schon eindeutig, dass bei Lüfter auf Auto, die GPU clock nicht so stabil bliebt wie wenn ich sie fixiere. Obwohl weder PT noch TT erreicht sind.

Bzgl der 13MHz. Die Karte taktet in 13Mhz schritten, egal was du einstellst, es greift immer erst ab vollen 13MHz. Lies mal Ollis Review hier im Luxx. Das ist echt gut und diese Info habe ich u. a. daher. :wink:

http://www.hardwareluxx.de/communit...ios-boost-wakue-umbau-user-review-951717.html
 
Zuletzt bearbeitet:
Kann mir einer sagen warum die Karte mit +142 MHZ (anstatt 145 MHZ) nur mit 1124 MHZ taktet und dann aber bei "nur" + 3 MHZ Offset direkt = + 13 MHZ Taktung ingame ergibt *:d ?!

Das ist recht simpel. Wie Lixi123 schon sagt, funktionieren die Taktdomänen der GTX Titan in 13 MHz Schritten. Andere Taktraten werden erst gar nicht angenommen.

Beispiel:
Default Takt = 1019 MHz + 10 MHz > Es passiert nichts, da die nächste Taktstufe 13 MHz erfordert. Stellst du +13 MHz ein nimmt die Karte den Takt von 1032 MHz an.
Um die nächste Stufe zu erreichen sind mindestens +26 MHz nötig, dann werden 1045 MHz angelegt. Stellst du +25 MHz ein, bleib es hingeben bei 1032 MHz.
 
Habe nochmal ein wenig mit Valley und den Lüftersettings rumgespielt. So ab 70% gibt es nur noch ganz selten drops von 1124 auf 1097.

Kann ich daraus nun schließen, dass eine kühlere GPU weniger Strom verbraucht? Schreit irgendwie nach Wakü. :)

Ich lote mal aus, was mein maximum für Autolüfter ist.
 
wieso fixiert ihr den lüfter eigtl? wenn man die lüfterkurve anpasst, ist das bei jedem systemstart so, dynamisch, läuft, habt ihr viele probleme weniger.

default kurve geht 50°C @ 50% lüfi + 80°C @ 80% lüfi
bei mir laufen 50°C @ 53% lüfi + 80°C @ 83% lüfi

3% mehr lüfter als default, dafür um eingies stabilere taktraten. beim gamen hab ich immer! ein headset auf, daher stört mich das nicht.
wenn ich idle und browse bzw am edi musik höre, muss ich dafür aber nicht extra die lüfter regeln, das passiert dynamisch, nach der kurve.

ich hätte hier trotzdem manchmal gerne eine wakü, einfach weil sie leiser ist und bessere temps liefert. grml :-(
 
Zuletzt bearbeitet:
wieso fixiert ihr den lüfter eigtl? wenn man die lüfterkurve anpasst und das bei jedem systemstart so, dynamisch, läuft, habt ihr viele probleme weniger.

default kurve geht 50°C @ 50% lüfi + 80°C @ 80% lüfi
bei mir laufen 50°C @ 53% lüfi + 80°C @ 83% lüfi

3% mehr lüfter als default, dafür um eingies stabilere taktraten. beim gamen hab ich immer! ein headset auf, daher stört mich das nicht.
wenn ich idle und browse bzw am edi musik höre, muss ich dafür aber nicht extra die lüfter regeln, das passiert dynamisch, nach der kurve.

ich hätte hier trotzdem manchmal gerne eine wakü, einfach weil sie leiser ist und bessere temps liefert. grml :-(

ja, webmi, das mit der kurve sehe ich jetzt erst. :wall: mit den standardeinstellungen ist es echt seltsam. nun gebe ich nur noch die hälfte des gpu offset und es verhält sich exakt genauso, nur eben in einem niedrigeren bereich. ich teste das jetzt.

wollte auch nochmal was anderes fragen bzgl des gpu offset, denn mir fällt es immer schwer zu wissen wieviel gpu clock am ende eigentlich rauskommen muss.

base clock ist 837 und boost ist 876. schön und gut, nur er taktet die karte ja sofort auf 1000 auch wenn man nichts einstellt. nicht falsch verstehen, finds ja gut wenn er rangeht :d aber ich würde gerne besser verstehen, was der jeweils eingestellte offset für einen effekt hat.
 
Zuletzt bearbeitet:
Hier ist etwas das ich nicht verstehe. Ich stelle einen Offset von 130 ein. Die Karte taktet auf 1123 und geht dann hin und wieder auf 1110 oder auch auf unter 1100 zurück. Der kleinste Wert ist dann 1084. Darunter fällt es nicht.

Wenn ich nun aber hingehe, und den Offset auf 65 halbiere, dann startet er zunächst auf 1084 und macht das selbe Spielchen wie oben. Taktet immer mal runter und wieder rauf.

Ich frage mich allerdings wieso? Denn im ersten Versuch haben sich die 1084 bereits als stabil erwiesen, wieso taktet er die Karte dann bei kleinerem offset auch unter 1084 wenn er doch mit diesem Wert beginnt und er davor stabil war? TP oder PP können es ja nicht sein, da es beim 130er offset ja auch für 1084 reicht.

Mal ganz abgesehen davon, dass ich auch nicht verstehe wie er auf die Werte kommt, weder beim 130er, noch beim 65er offset. Also rein rechnerisch jetzt.
 
Zuletzt bearbeitet:
hehe, ein frischling ^^

baseclock x
boost y
dann fährt er auf x+y

gibst du offset +z
dann x+z+y

dein beispiel
x+y+130 = max 1123 oder x+y+65 = 1084 max

y ist dabei der boost, der isch an temp etc orientiert und deswegen schwankt
 
Zuletzt bearbeitet:
Webmi, so einfach isses leider nicht.

Auch die Spannung die du einstellst, beeinflusst den Boosttakt ebenso.

X + Y + Z bei 1,1625v ergibt nicht den gleichen Takt wie X + Y + Z bei 1,2v.

Dass der Boost schwankt hängt zudem noch an deutlich mehr als nur der Temp.
 
Jupp, gleiche Einstellungen geben bei mir z.b. mit 1.185v 1137 und mit 1.2v werden daraus 1150Mhz
 
Zuletzt bearbeitet:
ja, das etc hätte ich in einem referat ausarbeiten können, ich wollte ihm das verständnis aber vereinfachen
 
hehe, ein frischling ^^

baseclock x
boost y
dann fährt er auf x+y

gibst du offset +z
dann x+z+y

dein beispiel
x+y+130 = max 1123 oder x+y+65 = 1084 max

y ist dabei der boost, der isch an temp etc orientiert und deswegen schwankt


Welchen Wert meinst du hier genau mit Y? Was ist der Boost ohne offset? Standard boostclock sind ja eigentlich 876MHz. Nur dann haut deine Rechnung irgendwie nicht hin. Oder meinst du mit Y die Differenz zwischen Base und Boost? Wären dann aber nur 39Mhz. Passt die Rechnung aber immernoch nicht.


Bin mir im Übrigen nun sehr sicher, dass die Taktsprünge am Powertarget liegen. Habe grad mal eine gepflegte Runde BF3 hingelegt. Dort bekomme ich die 1110 ohne Probleme stabil und das Powertarget ist deutlich niedriger als im Valley. Das alles auch mit Lüfter auf Auto.
 
ja weil BF3 halt weniger zieht

alles was du wissen musst:
normal boost 1000
stellst ohne spannung + 100 ein haste 1100 boost
für jede VCore Stufe (+0,0125 Volt) taktet er eine Stufe höher (13MHz)
also + 100 und 2 VCore Stufen sind dann 1125 Takt
 
Hmm... habe 993Mhz Standardboost aber mit +100 Mhz komme ich nur auf 1084 max Boost statt auf 1093. Mit +95Mhz genauso auf 1084 Boost. Kann mir das Jemand bitte erklären?

Oder war das von dir nur als ca. Beispiel gemeint?
 
Zuletzt bearbeitet:
Meine boostet auch 993 MHz. Haben die selbe Karte :)
 
könnte an der eher schlechten asic liegen, 993 ist etwas zwischen 65 und 75. da muss ich meiner auch schon 1-2 v-stufen geben, damit die 1019 macht, was die andere ohne weiteres (also ohne jegliche änderung) macht
 
nene, ich hab auch ne 68er asic und meiner macht 1000 default.

coldfiners, das ist die geschichte mit den 13er blöcken. er taktet immer nur in 13Mhz schritten.

danke, naennon. momentaner stand ist 1124 stable @BF3. mit nem offset von 106.

eigentlich war ich anfangs gar nicht so angetan von der boost-geschichte, verglichen zu festen werten wie es bei AMD ja noch ist. aber mittlerweile erkenne ich auch vorteile. es macht vor allen dingen das ganze system stabiler. denn wenn er zB für eine sekunde in 10 minuten mal kurz runterclocked, kann man es trotzdem irgendwo als stable ansehen. bei starren werten hättest evtl nen freeze an der selben stelle. und wenn es mal schief geht beim boost, schmiert nur der treiber ab.
 
Zuletzt bearbeitet:
könnte an der eher schlechten asic liegen, 993 ist etwas zwischen 65 und 75. da muss ich meiner auch schon 1-2 v-stufen geben, damit die 1019 macht, was die andere ohne weiteres (also ohne jegliche änderung) macht

Bei 106% PT und 94°C TT taktet sie wie folgt:
1115V max
ASIC 72,7%

1124 MHz auf 1058 MHz
1084 MHz auf 1019 MHz
1019 MHz auf 993 MHz
(stock)993 MHz auf 837 MHz
 
das auch derb hier...

powergpgpumwsxh.png
 
könnte an der eher schlechten asic liegen

Ja, je höher die ASIC desto höher der default Boosttakt.
Ab 80% hat mal z.B. 1019 Boost. Und dann ist es wie Naennon schon sagt +100 würden dann 1119 ergeben, die gibts aber nicht als Taktstufe, also werden 1110 MHz angenommen.
Zusätzlich werden bei jeder Spannungsstufe die man anhebt werden dann zusätzlich 13 MHz mehr Boosttakt erreicht.

---------- Post added at 20:09 ---------- Previous post was at 20:08 ----------

das auch derb hier...

Ja, das ist heftig ;)

Da das Thema max. Boosttakt offenbar für viele nicht gerade trivial zu sein scheint, habe ich den folgenden Abschnitt meinem Review hinzugefügt.
Ich hoffe ich kann damit einigen das Thema etwas verständlicher machen.

==================================================

Spannung, Taktraten und Boost

Die GTX Titan hat einen Basistakt von 837 MHz Core und 1500(6008) MHz VRam. Wenn mehr Leistung benötigt wird, taktet die Grafikkarte auf einen sog. „Boost Clock“
welcher in dem Fall bei 876 MHz liegt. Dieser Wert hat allerdings wenig Aussagekraft, da die Karte je nach Umgebungsparametern deutlich höher taktet.

Maximaler Boosttakt:

Der maximale Boosttakt den die GTX Titan annimmt hängt in erster Linie von dem ASIC Wert
der jeweiligen Karte ab. Je höher dieser "Qualitätswert" desto höher ist auch der vorgesteuerte
maximale Takt (68% ASIC ergibt zum Beispiel 980 MHz Boosttakt, 72% 993 MHz, 77% 1006 MHz und 81% ergeben 1019 MHz).
Wird die GPU nun übertaktet geschieht dies über den Offsettakt (z.B. +100 MHz).
Gehen wir einmal von einem default Boosttakt von 1019 MHz aus, würden sich bei eingestellten +100 MHz theoretisch 1119 MHz ergeben.
Da diese Taktstufe aber nicht existiert (Kepler taktet in 13 MHz Schritten), wird die nächst niedrigere Stufe angenommen.
In diesem Fall 1110 MHz.
Zusätzlich wird bei jeder Anhebung der Spannungsstufe um 0,0125v, der Takt um weitere 13 MHz angehoben.
Wieder am Beispiel eines 1019 MHz Boosttaktes. 1019 MHz +100 MHz bei +0,0125v ergeben 1019 MHz +100 MHz +13 MHZ = 1132 MHz, auch diese
Taktstufe gibt es nicht, daher werden 1124 MHz angenommen.

Der jeweis max. mögliche Takt wird allerdings von dem Feature „Boost 2.0“ geregelt, dazu aber mehr im nächsten Abschnitt.

....
==================================================
 
Zuletzt bearbeitet:
könnte an der eher schlechten asic liegen, 993 ist etwas zwischen 65 und 75. da muss ich meiner auch schon 1-2 v-stufen geben, damit die 1019 macht, was die andere ohne weiteres (also ohne jegliche änderung) macht

meine hat auch nen niedrigen asic wert, musste aber im afterburner lediglich +100 mhz boost einstellen und sie geht auf 1071. die vcore lasse ich lieber auf Standard damit die karte sich net so abnutzt, mehr mhz würde unter assasins creed 3 eh nicht stabil laufen.

---------- Post added at 21:30 ---------- Previous post was at 21:29 ----------

nene, ich hab auch ne 68er asic und meiner macht 1000 default.

coldfiners, das ist die geschichte mit den 13er blöcken. er taktet immer nur in 13Mhz schritten.

danke, naennon. momentaner stand ist 1124 stable @BF3. mit nem offset von 106.

eigentlich war ich anfangs gar nicht so angetan von der boost-geschichte, verglichen zu festen werten wie es bei AMD ja noch ist. aber mittlerweile erkenne ich auch vorteile. es macht vor allen dingen das ganze system stabiler. denn wenn er zB für eine sekunde in 10 minuten mal kurz runterclocked, kann man es trotzdem irgendwo als stable ansehen. bei starren werten hättest evtl nen freeze an der selben stelle. und wenn es mal schief geht beim boost, schmiert nur der treiber ab.

bei BF3 läuft bei mir auch 1200 stable....aber eben net bei assasins creed 3.
 
meine hat auch nen niedrigen asic wert, musste aber im afterburner lediglich +100 mhz boost einstellen und sie geht auf 1071. die vcore lasse ich lieber auf Standard damit die karte sich net so abnutzt, mehr mhz würde unter assasins creed 3 eh nicht stabil laufen.



Durch den niedrigeren ASIC Wert hat du auch weniger Default-Boost. Ich vermute mal 980 MHz.
Das mit der "Abnutzung ist" Quatsch ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh