[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Das ist nicht mal das was ich meine. Man sah es ja schon an Tomb Raider, dass erstmal auf nvidia Treiber gewartet werden musste damit die Performance stimmte. .

Was sah man denn bitte an Tomb Raider ?

Das ne verkorkste Haar Applikation,die bis vor kurzen noch keiner namentlich kannte außer AMD himself ,nicht anständig lief auf Geforce Karten u es dadurch zu Abstürzen kam

Drehen wir den Spieß doch mal rum u fragen wie lange wohl AMD benötigen würde,wenn Nvidia sowas im stillen Kämmerlein entwickelt hätte,bis deren Treiber einigermaßen angepasst gewesen wären

Obs da wohl auch nur ein paar Tage gedauert hätte?

Mal gespannt er ist wie ein Flitzebogen wie umfassend die Leistungsbegutachtung beim nächsten meant to be played Titel ausfallen wird,aber mit sowas kann man dann ja nicht hausieren gehen stimmts;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was habt ihr für 3DMark11 "Basic" Scores?

Würde mich mal interesssieren, wie sich die Titan im Vergleich mit einem 660 Ti SLI schlägt: NVIDIA GeForce GTX 660 Ti video card benchmark result - Intel Core i5-3570K Processor,ASUSTeK COMPUTER INC. P8Z77-M PRO score: P12476 3DMarks

Habe mit meiner Titan @ Stock und CPU auf 4 GHz ~ 500 punkte mehr.

Könnte gleich mal Titan @ 1.2 ghz und CPU @ 5 GHz benchen lassen, da dürften es um einiges mehr sein
 
Zuletzt bearbeitet:
Endlich ein neuer Treiber für unsere Titan, hoffe er bringt verbesserungen mit. Gleich nach der arbeit mal runterladen

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Ja, da reißt es dann wohl der 3770K raus im Vergleich zu meine 3570K obwohl auf 4,5 GHz. Scheint ja bei der Leistungsklasse doch langsam an der CPU zu mangeln.

Aber danke. Jetzt weiß ich wo sich das SLI einordnen lässt. Hätte ich die 400€ übrig würde ich wohl auch ne Titan nehmen :) Aber so bin ich ganz zufrieden.
 
@ Scully

Auch ohne TressFX wars zuerst miserabel...und jetzt bei Bioshock ist es das gleiche. Die minFPS in diesem fall Sprechen wieder eine klare Sprache. Woran das liegt interessiert erstmal nicht. Es ist nur meine Vermutung das man es in Zukunft öfters so sehen wird, da AMD im Gaming Sektor an immer mehr Produktionen beteiligt sein wird, alleine weil auf beiden Konsolen AMD laufen wird. Meant to be Played Titel bzw. nVidia Kooperationen bleiben einfach aus. Es interessiert auch nicht wie lange AMD dafür gebraucht hätte zu optimieren, ich rede von einem ganz anderen Scenario.
 
Zuletzt bearbeitet:
Ein weiter Grund warum sich Intel mit Hashi beeilen sollte

Wenn die Threadperformance nebst OC passt würde ich den 6Kerner Sandy E wohl zu Gunsten des 4Core Prozessors ersetzen wollen^^

Hauptsache das Teilchen rennt problemlos 5GHZ oder mehr scheint imo u wohl auch in naher Zukunft wohl noch mehr zu bringen als erweitertes Multithreading

---------- Post added at 16:02 ---------- Previous post was at 15:57 ----------

@ Scully

A alleine weil auf beiden Konsolen AMD laufen wird. Meant to be Played Titel bzw. nVidia Kooperationen bleiben einfach aus. .

Sagt wer?

Die "rote Dominanz" bei den diskreten Grafikkarten oder die Spieleentwickler oder wer...

Wer lässt sich denn bitte 2 Drittel des Marktes entgehen u optimiert jetzt ausschließlich auf AMD?


Was tangiert da überhaupt die Vergabe einer Hardwarelizenz?
 
Zuletzt bearbeitet:
Sagt wer?

Die "rote Dominanz" bei den diskreten Grafikkarten oder die Spieleentwickler oder wer...

Die Entwickler oder auch der ungewohnte Mangel an NVIDIA HIMTBP Titeln. Die letzten "Kracher" waren Evolved Titel (Tomb Raider, Hitman Absolution, Bishock Infinite, Sleeping Dogs, Crysis 3, DMC, FAR CRY 3)
 
Natürlich, die direkte Zusammenarbeit der Spieleentwickler mit AMD, da hat sich einiges geändert und ich wollte darauf aufmerksam machen, dass sonst AMD diejenigen waren die erstmal ewig optimieren mussten bis es lief. Das Verhältnis Titan zur 680 bei den PCGH Benches scheint ok aber AMD ist da mit ebenfalls Alten Treibern viel zu nahe dran, sprich 4FPS min zur Titan.
Die letzte Zeit sieht das ganze aber anders aus und es ist auch keine Änderung in Sicht. Das ganze vollkommen unabhängig der Verkaufszahlen an Grafikkarten und der Marktstärke, zumindest vorerst.

Der erste Weg steigende Absatzzahlen zu erreichen, liegt immer in Exklusivität und Kooperationen, damals Dell mit Intel und jetzt AMD mit den Spieleentwickler bzw. zukünftiger Grafikchiplieferant für ein Großteil der Gamingplatformen. Vielleicht lassen sich so und auf dem Weg auch Marktanteile Gewinnen.
 
Zuletzt bearbeitet:
Natürlich, die direkte Zusammenarbeit der Spieleentwickler mit AMD, da hat sich einiges geändert .

Da hat sich gar nix geändert nur weil man jetzt mit Tomb Raider nen Haar in der Suppe gefunden hat


Mal sehen wie viel Bestand solche Aussagen in naher Zukunft haben werden bei den anderen 99% der erscheinenden Spiele

Das Konsolenichhabnelizenzuntergangsszenario ist dabei ebenso mit eingeschlossen weil obsolet für den PC

Übrigens liefen die anderen Titel die da oben von AppleRedX so freizügig präsentiert worden gar nicht schlecht auf Geforce Karten oder wer mag was anderes behaupten?
 
Zuletzt bearbeitet:
ich fand auch die erklärung zu TR absolut plausibel. dafür würde ich mir jetzt kein bein ausreissen.. läuft doch.

allgemein würde es mich natürlich freuen, wenn AMD endlich mal aufholt und produkte anbietet, die ich kaufen und damit zufrieden sein kann. damit liesse sich ggü. NV ne menge geld sparen. leider bauen die immer bugs/features ein, die mir die kotze in den hals treiben.



(..)

mfg
tobi
 
@ Scully

nein nein, AppleRedX hat es ja nicht oben verdeutlicht. Die Umsatzstärksten Spiele der letzten Zeit waren Evolved Titel die Problemlos zuerst auf Amd Hardware liefen und nVida musste erstmal nachbesser.
Aber ich sehe schon, deine festgefahrene Ansichten zugunsten eines Lagers lassen da sowieso keine weiteren Diskussionen zu und du scheinst auch nicht im Stande zu sein zu verstehen was ich damit sagen möchte.
 
Übrigens liefen die anderen Titel die da oben von AppleRedX so freizügig präsentiert worden gar nicht schlecht auf Geforce Karten oder wer mag was anderes behaupten?

Hab ja auch gar nicht behauptet das sie schlecht laufen.

Als ich noch meine 470er drinne hatte war nun mal so gut wie jeder namhafte Titel im NVIDIA TWIMTBP Sponsor Programm und AMD lief hechelnd hinterher. Heute ist das eher umgekehrt und als Zocker wundert das einen erst einmal ...
 
@ Scully
. Die Umsatzstärksten Spiele der letzten Zeit waren Evolved Titel die Problemlos zuerst auf Amd Hardware liefen und nVida musste erstmal nachbesser.
.

Auf was beziehst du denn das schon wieder?

Wieder nur auf das eine Standbein TR?

Kein anderer Titel hat auch nur annähernd irgendwelche großartigen Hürden dargestellt für die Geforce Karten,ganz gleich ob da am Ladebildschirm der Evolved Brand klebte oder nicht
 
Zuletzt bearbeitet:
was ich an den titeln ohne TWIMTBP vermisse, ist die uneingeschränkte wählbarkeit der ganzen AA-modi, die NV so bietet.

bei AMD ist ja irgendwie bei 8xAA schluss - mit NV wären sogar 32fach AA möglich.


(..)

mfg
tobi
 
Ich verstehe auch ehrlich gesagt nicht was da ne von AMD "belieferte" Konsole(sagen wir lizenziert) die mit äquivalenter 1D Shaderarchitektur im Mix mit x86 CPUs jetzt so drastisch verändern sollte,das Nvidia aufs Abstellgleis bringt

Ich finde da keinen technischen Aspekt der das untermauern würde

Ganz im Gegenteil die Annäherung an den PC bringt nur Vorteile für diskrete Grafikkarten u der Brand ist mal gar noch weniger in Erscheinung wie der Hardwareaspekt

Es sei denn AMD bastelt sich nun jeden Monat sowas wie TressFX was ich nicht ausschließen will:d
 
Zuletzt bearbeitet:
Du willst mir also weißmachen, dass die 4FPS mehr bei Bioshock einer Titan gegenüber einer 7970ghz Edition zum Release Zeitpunkt die Normalität sind, bei einer alten Unreal Engine 3 ? Ich denke nicht. Es sind nicht die technischen Aspekte, da sehe ich nVidia klar vorne sondern das was auf Software Seite geschieht. Man schaue sich damals die Source Engine und vergleichbares an, super nVidia optimiert und AMD kam da nie wirklich ran. Das gleiche Szenario halte ich für die Zukunft, anders herum eben auch für möglich.
 
Zuletzt bearbeitet:
mein bioshock lässt sich erst morgen starten und dann sehe ich auch, wo die limitierungen liegen.


(..)

mfg
tobi
 
Herrlich endlich wieder Krieg :popcorn:
 
wer auf postprozessblurrmatsch steht, muss das wohl so machen.


(..)

mfg
tobi
 
Jo oder einfach bei Bioshock dank Radeonpro bis zu 24xAA einbringen.
DS mit 5620x2880@4xMSAA sind aber auch ok ;)
 
Zuletzt bearbeitet:
das (DS) ist ineffizientes ordered grid (OGSSAA) und spiele mit text im hud lassen sich so nicht spielen. die schrift wird unlesbar klein. wenn ich mir meine neuerwerbung secret world anschaue, dann ist FHD schon grenzwertig was die lesbarkeit angeht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
hier, wer mal seinen Titan richtig vögeln will

ghfghfghh6ad1.jpg


in dem Setting mit 1.200 Vcore zieht das Ding 295 Watt
 
jo aber das ist maximalst Last ^^
 
wie hast du den reinen Verbrauch der Karte gemessen ? Ich habe nur ein Teil für die Steckdose wo der ganze PC dran hängt.
 
Was nutzt ihr denn zum VRam testen? Meiner scheint bei +95Mhz (3100Mhz) in Crysis 3 an bestimmten Stellen Grafikfehler zu produzieren.
 
wie hast du den reinen Verbrauch der Karte gemessen ? Ich habe nur ein Teil für die Steckdose wo der ganze PC dran hängt.

hab sie gefragt wieviel sie grad braucht :d
ne na errechnet aus stock benches abzüglich rest load gemessen mit strommessdingensteil
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh