[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OT:

Ich bin gerade von nem I7 3770K auf nem OC Formula auf nen I7 3930K auf nem Extreme9 umgestiegen und da ist ein riesen Unterschied, zumindest bei Win8 merkst Du das sofort beim Einschalten, zack und die Kiste ist hochgefahren, sowas hab ich noch nicht gesehn. Sogar meinem Nachbar ist die Kinnlade nen Stock tiefer gerutscht, als ich ihm das gezeigt hab.

So nu hab ich aber auch noch ne Ontopic Frage :d

Ich hab im Moment ne Vapor X 7970 6GB drin und will mir noch eine dazu holen. Wenn ich hier aber immer so mitles, fang ich an zu sabbern und bin mir da gar nicht mehr so sicher. Vor Allem sieht die Titan so schweinegeil aus. Gut die Vapor X braucht sich nicht gerade verstecken, aber das Teil ist echt edel. Was meint ihr, lohnt ein Umstieg, eher nicht oder?

Was so rein gar nichts mit der CPU zu tun, das ist ausschließlich eine Sache des Mainboards! Meine Kiste bootet genau so schnell wie deine, es ist im Bios Ultra Fast Boot aktiviert bzw. das CSM ist deaktiviert! Ich habe gerade einen Downgrade hinter mir, von 3930K auf einen 3770K, also umgedreht wie du - die beste Entscheidung für mich, weil ich die sechs Kerne nie genutzt habe und das nur so Kopfsache ist bzw. haben wollen! Allein die Stromersparnis, im Idle habe ich jetzt 80 Watt, vorher 120 - 130, für nichts! Kein Spiel läuft merklich schneller mit dem Sechskerner, im Gegenteil, manche sogar schlechter. Für Bencher mit Tripple oder Quad-SLI ok, für nen Zocker vollkommener Quatsch. Aber ich habe mir den 3930K auch immer schöngeredet um damit ganz vorne mit dabei zu sein - dennoch viel Spaß damit. ;)
 
Zuletzt bearbeitet:
Warum antwortet mir keiner meine frage?

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

---------- Post added at 09:11 ---------- Previous post was at 09:04 ----------

Kommt mir vor als ob ihr meine Nachrichten ignoriert. :-(

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Warum antwortet mir keiner meine frage?

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

---------- Post added at 09:11 ---------- Previous post was at 09:04 ----------

Kommt mir vor als ob ihr meine Nachrichten ignoriert. :-(

Gesendet von meinem GT-I9300 mit der Hardwareluxx App


Meinst du diese Frage von dir:

Hab meine Asus GTX Titan heute nachmittag eingebaut auch getestet. Crysis 3 läuft very high und 4xmsaa in Full HD flüssig. Nur das es manchmal kurz stock, ist das normal? Nen Bug oder so? Hab dir karte von 837 Mhz auf 952 Mhz übertaktet und 1502 Mhz auf 1652 mhz. Powertarget ist auf 106%

Wenn ja, dann kurz und knapp, ist normal - Crysis 3 stockt manchmal eben, genau so wie es an manchen Stellen heftige Framedops gibt, vor allem wenn Seile im Spiel auftauchen. Alles normal bei dir, keine Sorge! ;)
 
Zuletzt bearbeitet:
Sorry, aber hat einer einen AMD FX 8350 zusammen mit der GTX Titan am Laufen.
Wie läuft es damit, denn bin am Hadern zwecks Neuer CPU, Board , Ram.
Falls ja, gibt es einige User Benchmarks ?

also wer nen Titan hat und als Unterbau nen FX8150 - sollte mal zum Arzt gehen...

OT: sicher das du 1,21 geben kannst Daniel? bringt dir aber eh nichts oder? hängst im Powerlimit
 
Zuletzt bearbeitet:
Was so rein gar nichts mit der CPU zu tun, das ist ausschließlich eine Sache des Mainboards! Meine Kiste bootet genau so schnell wie deine, es ist im Bios Ultra Fast Boot aktiviert bzw. das CSM ist deaktiviert! Ich habe gerade einen Downgrade hinter mir, von 3930K auf einen 3770K, also umgedreht wie du - die beste Entscheidung für mich, weil ich die sechs Kerne nie genutzt habe und das nur so Kopfsache ist bzw. haben wollen! Allein die Stromersparnis, im Idle habe ich jetzt 80 Watt, vorher 120 - 130, für nichts! Kein Spiel läuft merklich schneller mit dem Sechskerner, im Gegenteil, manche sogar schlechter. Für Bencher mit Tripple oder Quad-SLI ok, für nen Zocker vollkommener Quatsch. Aber ich habe mir den 3930K auch immer schöngeredet um damit ganz vorne mit dabei zu sein - dennoch viel Spaß damit. ;)

Danke für die Antwort. :)

Macht mich jetzt doch wtwas stutzig, wusste gar nicht, dass das was mit dem MoBo zu tun haben kann. Naja, für mich ist der Sechskerner trotzdem ein Gewinn, ich arbeite ziemlich viel mit Filmen, schneiden, transcodiwren, usw und da merkt man die zwei zusätzlichen Kerne doch.

Jetzt überleg ich aber immernoch, zweite Vapor X 7970, oder meine verkaufen und ne Titan. Da wäre zumindest vom Preis her die Titan günstiger, je nachdem, wie ich die Vapor X losbekomm.
 
An die anderen Titanbesitzer:

Welche Spannungen liegen denn bei euch an, wenn ihr mit EVGA Precision den GPU-Takt etwas erhöht?
Normal sind ja um die 1.162V für 1006 MHz. Wenn ich übertakte, sinken die Spannungen laut diversen Tools???
 
ja die sinken immer
und das ist schon seit der 680 so

fängst an mit 1150 Takt, 1,18 Vcore und 50° dann wird das irgendwann
1137 Takt, 1,16 VCore, 65° und irgendwann
1125 Takt, 1,13 VCore, 80° und so weiter

das is halt Kepler
 
Dennoch wären mal Bench eines Titanen mit FX 8350 intserssant.

Könnte nämlich ein MSI Board, FX 8350 CPU und 16GB DDR 3 2400 -er Ram um 350 Euro haben.
Komplett NEUWARE !!
Daher meine Frage, wie groß denn der Unterschied ist.
Da AMD mit Spieleherstellernviel intensiver zusammenarbeitet sollte der FX 8350 wohl in Zukunft äußerst gut werden, und man kauft ja für die Zukunft, nicht für jetzt!
Schauen wir mal wie Lara beim FX 8350 läuft.
 
Das mein ich nicht, bei mir sind die Spannungen mit OC immer so niedrig. Ich mein nicht, dass er runtertaktet, das ist ja normal. Sondern die Spannungswerte stimmen einfach nicht beim OC.
Wo kann man die denn an der Karte nachmessen, hab ein Multimeter da.
 
Hallo, ich habe leider nicht alles mitlesen können in den letzten Tagen.

Ist eine Bios Lösung für mehr Powertarget in Aussicht, oder kann man das ausschließen?
Gibt es schon jem. hier der auf WaKü umgerüstet hat?

Danke vorab.

Olli
 
Soweit ich das überblicken konnte; zu beidem nein.
 
also wer nen Titan hat und als Unterbau nen FX8150 - sollte mal zum Arzt gehen...

OT: sicher das du 1,21 geben kannst Daniel? bringt dir aber eh nichts oder? hängst im Powerlimit

Nö. ..der taktet bei mir schon bei 98% zurück! Trotz 50 grad gpu!
Ein scheiß ist das!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Nö. ..der taktet bei mir schon bei 98% zurück! Trotz 50 grad gpu!
Ein scheiß ist das!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

dazu hab ich gestern was getestet, ist zu viel um es zu schreiben aber ich fass es mal kurz zusammen

unter 60° ist Power und VCore egal > Max Boost
60°-70° Drosselung um 13 MHz und 1 VCore Stufe, TDP noch egal
70°-80° Drosselung um weitere 13 MHz und 1 VCore Stufe, falls TDP über 100% jeweils NOCH eine Stufe
ab 80° Drosselung um weitere 13 MHz und 1 VCore Stufe, falls TDP über 100% jeweils NOCH eine Stufe

solange man unter 60° bleibt, was mit Wakü ganz sicher so ist, setzt man die Priorität auf Temperatur und dann wird 1. nicht nach Temp gedrosselt und 2. WENN überhaupt, dann wenn 107% erreicht werden, also ist (und die Ergebnisse haben so ziemlich alle Titan) mit 1,2 VCore, 106% ein takt von 1175-1188 drin und er sollte nur 1 Stufe runtergehen bei Erreichen des Powerlimit, also 1150

kurz:

Wakü, auf Temp Priorität, alles maxen, 1150-1188 sicher, im Schnitt 1175
 
Was ich festgestellt habe ist, dass der Lüfter tatsächlich einen Einfluss auf den Boost hat, aber erst ab ca. 70 Grad.
Passiert nicht immer, ist szenenabhängig. Ich hab im ersten Level von Crysis 3 gleich am Anfang so eine Stelle gefunden.

Lüfter auf 40%, ca. 70 Grad (Fenster auf und ohne Vorheizen): 1006 MHz
Lüfter per Hotkey auf 85%, im Moment immer noch ca. 70 Grad: 967-980 MHz
Lüfter per Hotkey wieder auf 40%, ca. 70 Grad: 1006 MHz

Das Spielchen kann man innerhalb von 3-4 Sekunden so durchführen, ist auf meinen beiden Karten reproduzierbar.
 
das ist aber nicht der Lüfter an sich sondern die Drehzahl die ausgewertet wird
 
Ganz Intressant, im Idle hab ich 150W fürs komplette System, im 106% Limit sinds maximal 440W macht also 290W Differenz wenn man noch 10-15W Idle Verbrauch draufrechnet sind wir bei 305W und nicht 265W was ja eigentlich 106% wären.
 
dazu hab ich gestern was getestet, ist zu viel um es zu schreiben aber ich fass es mal kurz zusammen

unter 60° ist Power und VCore egal > Max Boost
....
kurz:
Wakü, auf Temp Priorität, alles maxen, 1150-1188 sicher, im Schnitt 1175

Das klingt doch guuuut... sehr gut. 60°C. Lächerlich, unter Wasser sehen wir ja kaum die 50° :d

Ganz Intressant, im Idle hab ich 150W fürs komplette System...
Mit "nur" einem Titan?
 
Zuletzt bearbeitet:
Ganz Intressant, im Idle hab ich 150W fürs komplette System, im 106% Limit sinds maximal 440W macht also 290W Differenz wenn man noch 10-15W Idle Verbrauch draufrechnet sind wir bei 305W und nicht 265W was ja eigentlich 106% wären.

is mir auch aufgefallen, die 106% sind nicht das ganze Board, sonder nur GPU und nur die GPU, der Rest geht am Ram und co drauf, innerhalb der 300W
darum wird man nicht einfach an den 106% vorbeikommen (mit 2 x 8Pin vielleicht)
 
Wanted DEAD or ALIVE

EVGA Titan Superclocked with installed kryographix nickel plated!

:fresse2:
 
das ist aber nicht der Lüfter an sich sondern die Drehzahl die ausgewertet wird

Ich dachte die Boostgeschichte geht nach der Temperatur? Das wäre ja dämlich, wenn man nach der Drehzahl die Geschichte regeln würde.
Weil dann könnte es ja sogar sein, dass die Karte bei 60 Grad mit 70% Lüfter niedriger taktet als bei 70 Grad mit 60% Lüfter. :fresse:

Leckströme Box je höher die Temperatur je weniger vom Budget bleibt für den Core selbst

Die Temperaturen sind aber gleich, ich hab da nicht viel Zeit vergehen lassen. Paar Sekunden wie gesagt.
 
Zuletzt bearbeitet:
er hat nen Nehalem

Ja, OK... ich bin jetzt auch bei 170W im Idle. Mal sehen, was das neue NT mit dem Titan zusammen bringt. Von 850W Silber auf 1000W Platinum waren mal eben 180W Volllast und 50W Idle. :d
 
Ich denke das das alles mit reinspielt bei der Regeltechnik damit er selbst beim urplötzlichen Lüfterdefekt sofort reagieren kann
 
man Boxleitner ^^

wenn der Lüfter mit 8 Mio dreht weiss der Mechanismus: aha, GPU ist am kochen, runterfahren
wenn er mit 1 Umdrehung dreht: aha, GPU is cool, Lack drauf

diese Drehzahlauswertung ist genauer und schneller als Temperatursensoren (die eh nur Annäherungswerte haben) auszuwerten
 
man Boxleitner ^^

wenn der Lüfter mit 8 Mio dreht weiss der Mechanismus: aha, GPU ist am kochen, runterfahren
wenn er mit 1 Umdrehung dreht: aha, GPU is cool, Lack drauf

diese Drehzahlauswertung ist genauer und schneller als Temperatursensoren (die eh nur Annäherungswerte haben) auszuwerten

Das macht aber nur Sinn, wenn die Automatik den Lüfter regelt und wenn die Lüfterkurve nicht verändert wurde. Kann doch sein, dass ich taub bin und 85% auf den Lüfter gebe. Dann ist die GPU kalt und taktet trotzdem niedriger als auf Auto. Ich find das selten dämlich.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh