[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
ja, aber 920,-€+ für verfügbare Karte laut Geizhals

Vibu Online hat Asus lagernd für 939,-€
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ey ich könnte kotzen.
Die erste GraKa ohne Probleme umgebaut.
Und wat ist mit der zweiten?! Auf einmal krieg ich die dämlichen Schrauben nicht gelöst?!!

Jetzt ist die unten links komplett rund und drei andere trau ich mich nicht ran weil mein Schraubenzieher nicht richtig greift >_<

Jemand ne Idee wie ich die runde Schraube jetzt rauskriege?!

Bohren! musst aber vorsichtig sein :)
 
Ey ich könnte kotzen.
Die erste GraKa ohne Probleme umgebaut.
Und wat ist mit der zweiten?! Auf einmal krieg ich die dämlichen Schrauben nicht gelöst?!!

Jetzt ist die unten links komplett rund und drei andere trau ich mich nicht ran weil mein Schraubenzieher nicht richtig greift >_<

Jemand ne Idee wie ich die runde Schraube jetzt rauskriege?!

ausbohren!

ist mir bei GTX690 auch passiert.. eigentlich wollte ich nur die flusen unter dem kühler entfernen und das teil putzen.. aber bei der vierten von vier schrauben ging dann nix mehr.. ist jetzt auch "rund" ;-( hab dann stundenlang mitm pinsel geputzt. an den schrauben war blaue schraubensicherung..

Ah ok, also ich finde das schon recht brauchbar.

ja, ist ein mittel zum zwecke (symptomlinderung) - wie kopfwehtabletten. es wirkt allerdings nicht gegen die ursache. es ist "besser" - da es für den subjektiven eindruck gedacht ist, sind schwammige begriffe wie "gut" und "besser" oder "smooth" erlaubt - als stur zu limitieren und tearing in kauf zu nehmen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hm, dann muss ich mir erstmal so einen kleinen Bohrer besorgen... Was für ne Größe brauch ich da? 2mm?

Bzw. Wie gehts dann weiter? Einfach nur durchbohren? Bin ja bekanntermaßen nicht handwerklich begabt :/
 
mmelthread + FAQ - Bei Fragen erste Seite lesen

Bei Wortmann und Devil sind 19 Karten lagernd, 4x Gigabyte, 15x Gainward. Die Shops bekommen also immer wieder kleine Wellen rein.


Die Verfügbarkeit ist nicht mehr das Problem... wohl eher der Preis. Kenne so viele Leute die bei 600-700 ohne nachzudenken zuschlagen würden. Wird Zeit für ne Preissenkung! ;)

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Macht mir keine Angst! Ich will an 1900 Euro nix bohren müssen...
Aquatuning hat heute keine EK-FC Nickel erhalten, hab bei Caseking bestellt. Hoffentlich kommen die dann diese Woche noch.
 
das sehe ich auch so Boxleitner ... da hätte ich auch nasse Hände.
 
man könnte auch mit nem extrem kleinen und harten schlitzschraubendreher handtieren.. solange mit druck und feingefühl, bis die vernudelte schraube greift, stundenlang micromümeterweise rausdrehen und das ding (die schraube) anschiessend gegen eine passende mit robustem kreuzschlitz tauschen - ich hatte allerdings auf sowas keine böcke - die karte war ja jetzt nicht grad billig.


(..)

mfg
tobi
 
war das mit der Titan Lightning von MSI eigentlich nur ein Gerücht ? Die sollte doch angeblich auf der Cebit vorgestellt werden, aber lesen tut man davon nix. War eben bei pcgh, die so nen kleinen Überblick gegeben haben. Meinten sie wären auch am msi stand gewesen, notebooks bla bla, aber kein wort zur titan lightning.

Auf der MSI Homepage findet sich auch nur die normale Referenz Titan, die von MSI halt angeboten wird.

wollte ja noch die Lightning abwarten um zu entscheiden, ob ich auf die warte oder jetzt einfach ne andere Titan dann so langsam mal bestelle....

ich zitier mich mal selber *;D
 
dir wurde doch schon geantwortet^^

bestelle, denn es wird VIELLEICHT ne Lightning geben, aber wenn nur mit dessen Lüfterkleid und minimal mehr Grundtakt. Aber es wird keine Spannungserhöhungen geben, noch 2x8Pin oder sowas.
 
Crosspost ausm 3DCenter:

Krasse VRAM Auslastung in C3:
Settings waren 3840x2160 16QxMSAA+8xSGSSAA ;D
5,7 GB :eek:

Ich sag euch, in ein paar Tagen werde ich das mit den anderen zwei Titanen mit 16 FPS zocken ;)


Das habe ich mir schon immer gedacht, dass man die 6GB nie wirklich nutzen kann, weil die dafür erforderlichen Settings dann unspielbar sind. Selbst 4 Titans werden es wohl nicht packen. NV hätte lieber mal ein 512bit Speicherinterface mit 4GB und mehr GPU-Takt/Einheiten machen sollen.

Hm, dann muss ich mir erstmal so einen kleinen Bohrer besorgen... Was für ne Größe brauch ich da? 2mm?

Bzw. Wie gehts dann weiter? Einfach nur durchbohren? Bin ja bekanntermaßen nicht handwerklich begabt :/

Wenn du so handwerklich "begabt" bist, dann suche dir lieber einen, der es für dich macht. Bei einer 950€ Karte würde ich mir übelegen, ob es gut ist mit dem Bohrer ab zu rutschen und das PCB zu durchbohren. :)
 
Ich denke wenn die ersten next gen konsolen ports erscheinen kann es schnell passieren das man enorme vorteil von den 6GB bekommt!
Hat hier schon jemand getestet was nun mit wakü für nen boost takt geht? Ich denke da so an 1250MHz bei guter temp
 
das wird im maxtakt niemal cross-all-games stabil werden und 1202MHz (meist aber 1150-1189MHz, wie GTX690) habe ich mit meiner titan auch schon gesehen.. ob es das ohne hard-spannungs-mod wert ist? grad wenn der zugewinn nirgends als in benchmarks irgendwas bringt?!

btw,
3DM2011 @extreme ist hier das erste gewesen, das bei zuviel OC fehler produzierte. games sprangen auf OC irgendwie nicht visuell an.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ja bei dem GK104 hat man ja das bandbreiten problem und wie es scheint ist das beim titan nicht so schlimm weil der RAM auch gut mehr takt zulässt.
Fals man mit ner TITAN in allen GAMES 1250MHZ@wakü halten kann wäre das der hammer...
Hoffen wir mal das man auch mehr erreichen kann durch irgendwelcher tweaks am treiber oder bios.
 
Zuletzt bearbeitet:
so Wakuehler ist da, so ab 15 Uhr kommen Bilder und Tests, kann nich früher weg heut
 
Prima, freue mich schon auf deine Tests :).

Bin gespannt, ob dann mehr Takt geht, da kühlerer Chip und somit hoffentlich das Popwerlimit angehoben wird. Denn das scheint irgendwie der Knackpunkt zu sein.
 
Guten Morgen Gamer^^

Hab mal ne frage, ist das normal das bei Metro 2033 die FPS selten bis 20 runtergehen trotz einer Titan plus übertaktet? Hab alles sehr hoch und 4xmsaa bei Full HD Auflösung. Sonst läuft ja gut bis 90 FPS. Nur das es mal richtig runtergeht die FPS bei ,,viel'' Grafik

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
@Powerplay
Die 1250MHz sind mit "Perlenchips" eventuell machbar, sofern das Powerlimit es zulässt...

Meine Karte kann ich irgendwie nicht voll ausfahren, weil das dämliche PT immer dazwischen funkt und die Spannung+Takt runtersetzt -_-.
Ramtakt erhöhen kannst knicken, da das auch Einfluss auf PT hat, sinkt dann gleichzeitig GPU-Takt+Spannung. Zwickmühle. Irgendwie hab ich den Eindruck, das nur ein erhöhtes PT jenseits der 106% Abhilfe versprechen könnte. Auf gut deutsch: der "Begrenzer" muss raus :fresse:. Ist wie bei manchen Autos, die könnten viel schneller, werden jedoch bei 250km/h abgeregelt.

Naja, schaun mer mal was Naennon seine Wakü-Benches bringen^^.

edit:
Achja nochwas:
Die Ramchips auf der Rückseite werden so schon ordentlich heiss, mit mehr Saft/Takt könnte das ein Problem darstellen. Frag mich wie die Dinger z.b. bei einem (engen) SLi reagieren. Die Chips müssen dann fast kochen...
 
Zuletzt bearbeitet:
Ohne Lüfter sinds 5W weniger und mit Wakü-Temperaturen sicher auch nochmal 30-40W weniger. Das erhöht den Spielraum schon etwas.
 
Ja denke die karte wird schon hart am 300watt limit hängen! Schade das sie die karte nicht mit ner 375watt BOARD TDP gebracht haben weil dann wäre richtig fett platz für OC

Naja 30watt weniger wird man denke ich nur haben im vergleich zu einem max aufgedrehten venti + wakü temperatur
 
Zuletzt bearbeitet:
ja mit 2 mal 8 von NV und 125% und 1,25 VCore braucht NV keine 780/880 mehr bringen ^^

hat alles seine Gründe und ebenfalls haben Messungen ergeben das 100% schon nah an 290W sind, viele vergessen die monströsen 6GB, auch ohne OC...

mit 3 GB wäre die Karte besser gewesen ;)
 
Ich hoffe auch das Wakü das Limit verschiebt.

NAENNON es ist 15Uhr...kannst Feierabend machen :fresse: :d
 
dir wurde doch schon geantwortet^^

bestelle, denn es wird VIELLEICHT ne Lightning geben, aber wenn nur mit dessen Lüfterkleid und minimal mehr Grundtakt. Aber es wird keine Spannungserhöhungen geben, noch 2x8Pin oder sowas.

okay*;D

hm jetzt muss ich dann mal gucken, welche es dann wird.ist im grunde genommen davon auszugehen, dass ich mit allen karten (ob asus, gainward, zotac...) dieselben Ergebnisse bei gleicher Übertaktung erreiche ? Weil im Endeffekt ist es ja dasselbe Referenzdesign, oder kann es mal sein, dass man wie auch imemr eine Karte erwischt, die irgendwie, warum auch immer, besser ist n tick, als die anderen ?

ASUS GPU Tweak soll mehr als 1,2 Volt ermöglichen??? Hatte ich hier gelesen. Wobei das ja anscheinend eh egal ist, da das overvoltaging ja anscheinend nix bringt, zumidnest hattet ihr das ja zum teil getestet und festgestellt.
 
Zuletzt bearbeitet:
Nö, das Asustool hat auch net mehr zu bieten. Selbst wenn du 1,25V anlegen könntest würde das PT dazwischen funken.
 
sicherlich wirds wieder den einen oder anderen Silizium "Lucker" geben. Immo verhalten sich aber alle gleich.
In Sachen Wakü würde ich aber auf evga, Asus oder Zotac (in der Reihenfolge) setzen.
Bezüglich OC müsste ich mich selbst erstmal mit beschäftigen. Ja, lesen bildet, aber wenn man selbst Hand anlegt scheint es doch immer etwas anders :fresse:
 
ja mit 2 mal 8 von NV und 125% und 1,25 VCore braucht NV keine 780/880 mehr bringen ^^
Hehe, ja das sehe ich genauso.
hat alles seine Gründe und ebenfalls haben Messungen ergeben das 100% schon nah an 290W sind...
Wenn dann nur im nur im Default-Betrieb.

Man kann aber selber eingreifen und den Verbrauch dadurch sogar drastisch senken. Hatte ich gestern irgendwo hier im Fred ja mal getestet. Unterschied lt. Verbrauchsmesser waren so 205-210Watt (Rechner IDLE zu Valleybenchlast). KA wieviel die TITAN davon ausgemacht hat, Prozzi genehmigt sich ja schliesslich auch einige Watt mehr wie im IDLE. Somit fällt das Perf/Watt-Verhältnis der TITAN noch besser aus wie gedacht^^.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh