[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Meine fiepen auch nicht(ausser im 3d mark etc pp wo high fps anstehen), zumindest kann ich es nicht heraushören da die Karten noch @ Air arbeiten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meine fiepen auch nicht(ausser im 3d mark etc pp wo high fps anstehen), zumindest kann ich es nicht heraushören da die Karten noch @ Air arbeiten.

@ Air würde ich es wohl auch nicht hören, aber da es sonst absolut still ist im Gehäuse, nervt es schon etwas?
Hört sich so an als käme es von den Wandlern.
 
@ Air würde ich es wohl auch nicht hören, aber da es sonst absolut still ist im Gehäuse, nervt es schon etwas?
Hört sich so an als käme es von den Wandlern.

Netzteil kannst du als Übeltäter ausschließen dabei?

Ich hatte zu früheren Zeiten mal zwei Dark Power von "Be Quiet" lustiger Name denn die waren mal gar nicht quiet :fresse:Die haben Lapalomo gesungen das war die wahre Freude u ich habs immer auf die getauschten Grafikkarten geschoben bis Enermax schluss gemacht hat mit dem Spuk
 
Zuletzt bearbeitet:
Ah ok, ich habe das noch mal rausgesucht, es waren doch nicht ganz so viele Frames, bei so viel testen kommt man schon mal durcheinander. ;)

Anbei mal, was ich bei Crysis 3 immer an der gleichen Stelle mit unterschiedlichen Taktraten auf GPU / RAM gemessen habe:

1005MHz GPU / 1502MHz RAM = 65/66 fps
1005MHz GPU / 1652MHz RAM = 67/68 fps
1150MHz GPU / 1502MHz RAM = 71/72 fps
1150MHz GPU / 1652MHz RAM = 73/74 fps
1202MHz GPU / 1652MHz RAM = 75/76 fps

Meine Karte läuft jetzt immer auf 1150MHz GPU / 1652MHz RAM, habe also mit Erhöhung von GPU und RAM gegenüber dem Standardtakt, den die Karte von Haus aus mit Boost macht, das sind bei meiner eben die 1005MHz GPU und 1502MHz RAM, also ca. 9 Frames mehr in Crysis 3, im Durchschnitt natürlich.

Trill

du hast aber inzwischen wasserkühlung drauf, oder *;D ? Weil 1202 mhz kann man ohne doch gar nit schaffen, oder *;D ?

und wie schafft man es eine taktrate zu fixieren? so liest sich das zumindest, als ob du das geschafft hat *;D
 
wann hattest denn deinen Wasserunfall Datras
 
das sind doch 25hz und fast 50%, nicht schlecht. konntest du über d-dvi auch was erreichen?

nein, gar nicht erst versucht. DVI ist mein 3DV-ausgang und der läuft so oder so mit 120Hz.

bioshock scheint nicht sooo die herausforderung für die karten zu sein und wenn es beim betreten eines neuen abschnitts nicht immer einen 1 sekündigen nachladeeinbruch geben würde, wäre das echt ein richtig schnelles spiel.. *gg*



"finde das mädchen - bis betreten des jahrmarkts"

2013-03-26 10:51:13 - BioShockInfinite (1080p, ultra, Titan stock)
Frames: 25815 - Time: 225187ms - Avg: 114.638 - Min: 30 - Max: 179

2013-03-26 10:59:10 - BioShockInfinite (1080p, ultra, GTX690 stock)
Frames: 30314 - Time: 187809ms - Avg: 161.409 - Min: 15 - Max: 284


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Spricht klar für Titan
 
Spricht klar für Titan

nein, macht überhaupt keinen unterschied. das bild bleibt auf beiden karten merklich stehen.

grundsätzlich spricht gar nichts für titan. wäre die sache klar, hätte ich nicht beide für quervergleiche eingebaut. keines meiner spiele (und die blockbuster habe ich alle) spricht "klar für titan".. keines.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
du hast aber inzwischen wasserkühlung drauf, oder *;D ? Weil 1202 mhz kann man ohne doch gar nit schaffen, oder *;D ?

und wie schafft man es eine taktrate zu fixieren? so liest sich das zumindest, als ob du das geschafft hat *;D

@Air schafft man das nur mit einer angepassten Lüfterkurve im Afterburner/Evga Precision etc. und einem angepasstem Bios, leise ist ein Titan dann jedoch nicht mehr
 
nein, gar nicht erst versucht. DVI ist mein 3DV-ausgang und der läuft so oder so mit 120Hz.


(..)

mfg
tobi

Ich hab da was gar nicht geschnallt gehabt vorhin bzw überlesen das es um HDMI ging

Hast du damit quasi die Bandbreite bei FullHD erhöht mit HDMI über den Standard hinaus u kannst nun 85 Hertz quasi 40 pro Auge in 3DV fahren damit :eek:


Oder ist das inkompatibel mit 3D Vision?
 
Zuletzt bearbeitet:
wann hattest denn deinen Wasserunfall Datras

Am Mittwoch, als ich die Backplates samt neuem EK-FC Terminal verbauen wollte.

Bei der Montage des Terminals hat es mir das Plexitop zerrissen.
Sagt nischt... Soviel Blödheit muss ja bestraft werden, was ich mir an dem Tag geleistet hab.

War so foxdevilswild™, dass diese beiden scheiß O-Ringe nicht in der Ritze bleiben wollten und ich fast 4 Stunden für die Montage des Terminals gebraucht hab, dass ich es dann beim anziehen der Schrauben übertrieben habe *hmpf*

Es lief ja kein Strom dabei, Gott sei dank, nur weiss ich nicht ob ich jetzt gestern zu hastig war...
Werde es ja nachm Reinigung mit IsoProp sehen...
 
Ich hab da was gar nicht geschnallt gehabt vorhin bzw überlesen das es um HDMI ging

Hast du damit quasi die Bandbreite bei FullHD erhöht mit HDMI über den Standard hinaus u kannst nun 85 Hertz quasi 40 pro Auge in 3DV fahren damit :eek:


Oder ist das inkompatibel mit 3D Vision?

ich hab mit dem 3DV-schirm nicht sooo die optionen, was anschliesserei angeht. die 690 hängt über DVI dran.. 120Hz und 3DV-fähig. die titan kann ich parallel dazu nur über HDMI andocken und da gehen mit NVs pixelübertaktung dann maximal 85 statt 60 hertz. auf jedenfall ein zugewinn. besonders wenn man ohne sync spiel was tearing angeht. mit 3DV hat das freilich nichts zu tun.


(..)

mfg
tobi
 
3D via hdmi nur 720p. 1080 braucht auch 120, da reichen 85 wahrschienlich nciht aus.
 
. mit 3DV hat das freilich nichts zu tun.


(..)

mfg
tobi

Das wäre es gewesen wenn meine Beamer jetzt summa summarum 90 Hz geschaft hätten u der 3D Vision Treiber 45Hz akzeptiert hätte als kompatibles Setup:d

Vielleicht gibts da ja mal jemanden der das umstrickt in der Applikation das wäre schon interessant:)

Wobei 45 Hertz wohl auch noch "Augenkrebs" verursachen zumindestens bei Games
 
Zuletzt bearbeitet:
ich meine iwo gelesen zu haben, dass der pixel-OC auch mit den 600ern funktioniert, hat das mal einer getestet?
 
aufm projektor hat mich die 720p/120Hz geschichte nie gestört, aber da ging ja auch noch nie mehr.. obwohl ja auch DS mit 1080p @720p/120Hz funktioniert. aber meist greifen die AA-spielchen über den NVI anständig, sodass zermatschereien nicht notwendig sind.

ich lasse die beiden gurken heute und morgen noch stecken. meine freundin muss eh arbeiten und ich werde ein bissl freizeit für vergleiche opfern.
donnerstag geht dann eine wieder in den zweitrechner.





(..)

mfg
tobi
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
das spiel hat so hohe frameraten, dass der treiber eigentlich pillepalle-egal ist.. solange keine darstellungsfehler auftreten läuft das spiel schneller als es müsste..

sicher ein schöner kandidat für "leises" zocking.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Als baldiger Titanbesitzer (@thx@Dancop) wollte ich mal fragen, welche Spannungen ihr 24/7 anliegen habt... Mit meiner "Gästeklo-Mora2-Keller-Kühlung" hab ich immer traumhafte Temps. 1,2 müsst doch vertretbar sein oder?
 
Als baldiger Titanbesitzer (@thx@Dancop) wollte ich mal fragen, welche Spannungen ihr 24/7 anliegen habt... Mit meiner "Gästeklo-Mora2-Keller-Kühlung" hab ich immer traumhafte Temps. 1,2 müsst doch vertretbar sein oder?

Ja, 1.2v sind kein Problem.
Je nach Anwendung wirst du aber ins Powerlimit laufen mit dem Defaultbios.
 
Gibts denn von irgend nem Wahnsinnigen schon Erfahrung mit dem Engineer Bios? Im AMI Land schon verkohlte Spannungswandler aufgetaucht? :asthanos:

---------- Post added at 12:36 ---------- Previous post was at 12:32 ----------

Wie erwartet, legt Bioshock Infinite auch bei TITAN ordentlich zu.

MfG
Edge

So?

Es gab da letztens Leute die da nicht so der selben Meinung waren mit Prerelease Benchmarks^^
 
Als baldiger Titanbesitzer (@thx@Dancop) wollte ich mal fragen, welche Spannungen ihr 24/7 anliegen habt... Mit meiner "Gästeklo-Mora2-Keller-Kühlung" hab ich immer traumhafte Temps. 1,2 müsst doch vertretbar sein oder?

Ja, 1.2v sind kein Problem.
Je nach Anwendung wirst du aber ins Powerlimit laufen mit dem Defaultbios.

Ok. Dancop hat noch ein mod bios für mich ...
 
du hast aber inzwischen wasserkühlung drauf, oder *;D ? Weil 1202 mhz kann man ohne doch gar nit schaffen, oder *;D ?

und wie schafft man es eine taktrate zu fixieren? so liest sich das zumindest, als ob du das geschafft hat *;D

Smile, ja klar, habe ich nen Wakü drauf. Mit Wakü und angepasstem Bios mit hoch gesetztem TDP sind die Taktraten natürlich so was wie fixiert, bei mir bewegen sich diese zumindest nicht mehr, stelle ich 1150MHz GPU / 1652MHz RAM ein, liegen diese auch immer an. Nach unten geht's natürlich immer, mit dem neuen absolut hässlichen "Bioshock Infinite" geht die Karte bei mir noch nicht mal in den Boost. ;) 1202MHz kann man mit Luftkühler so gut wie gar nicht schaffen, das stimmt wohl, zumindest nicht, wenn man 1.212V anlegt und das Powerlimit nicht auch dementsprechend hoch setzt.
 
Zuletzt bearbeitet:
Ok. Dancop hat noch ein mod bios für mich ...

OK, dann sollte das kein Problem sein. Pass halt auf dass dus nicht übertreibst bzw. setzt dein PT im Bios auf einen angemessenen Wert.

---------- Post added at 13:00 ---------- Previous post was at 12:58 ----------

1202MHz kann man mit Luftkühler so gut wie gar nicht schaffen, das stimmt wohl, zumindest nicht, wenn man 1.212V anlegt und das Powerlimit nicht auch dementsprechend hoch setzt.

Stabile 1200 sind unter Wasser auch gar nicht so easy, ... 3DMark11 zieht da gerne mal über 350W über die Karte.
 
Stabile 1200 sind unter Wasser auch gar nicht so easy, ... 3DMark11 zieht da gerne mal über 350W über die Karte.

Mit 3DMark11 geht bei nichts mehr runter, ich takte aber auch keine 1202MHz sondern 1150MHz GPU / 1652MHz RAM bei 1.212V. Nur der TessMark schafft es noch, in den radikalsten Einstellungen, dass sie ins 300 Watt Limit läuft und runter geht. Im Bios sind 300W fest eingestellt, ein Spiel hat es bis jetzt zumindest noch nicht geschafft und darauf kommt es an. ;)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh