[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Ein olles Mauspad von Gigabyte, toll. Würde bei mir eh in den Müll landen da ich ein Roccat Hiro habe. Bei Zotac gibts AC 1-3
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber auf der Garantie rumreiten, die nach einigen Monaten niemanden von den early-adaptor-Nase hier interessiert? *g*
 
Hat von euch Titan Usern auch jemand beim Ladebildschirm oder in diversen Situation auch ein Spulenfiepen? Meine von EVGA macht unteranderem ab und zu im Minecraft Menü geräusche (im Multiplayer Menü) als Beispiel.
 
Bei 5000 FPS? *g*
Ich muss mal vsync ausmachen. Sollte es Geräusche geben, gehen sie im Moment bei mir noch im Lüftergedröhne unter.
 
Eben dann mal C3 getestet.

Ich hab 4-5 Savegames geladen und mal verglichen, darunter auch zwei Stellen die die 680er selbst mit 1400MHz in die Knie gezwungen haben.

Die Titan ist uneinholbar vorne, immer. Selbst @stock (d.h. ~1GHz Boost) ist die Titan vs. meine ausgequetschte 680 @1400/1950 (!) klar im Vorteil.

Bisschen gezockt hab ich auch. Settings waren 1080p + 2xTX SMAA und alles Very High bis auf Schatten (High).

Eine Stelle im direkten Vergleich:

GTX 680 1333/1950: ~40fps
GTX 680 1400/1950: ~42fps
Titan @stock (~1000/1500): ~48fps
Titan @~1190/1650: ~54fps

Vom Spielgefühl ist die Titan nach meinem Empfinden deutlich schneller. Die in dem Game besonders störenden Drops auf unter 40fps gibts kaum noch (muss ich aber noch weiter testen).

Ich hoffe bald kommt der AC Nickel Kühler und ich kann sie unter Wasser setzen, am besten gleich mit VMod und ohne PT. :asthanos:

Deckt sich mit meinen Frames *;D hatte meistens zwischen 50 und 60, aber oft um die 60 rum. manchmal gings hoch auf 70 kurz und vereinzelt unter 40 für ne sekunde oder halbe sekunde. ALsomit übertakteter Titan. Alles auf very high und mit 4x smaa. aölso schatten kannst ruhig auch auf very high machen und probier ruhig mal 4x smaa aus. nur in dieser riesen großen Grasgegend, mit dem raketenwerfer turm (hatte da jedoch fraps noch nit laufen, erst nach diesemgebiet), da dürfte es eher zwischen 40 und 50 frames gewesen sein und vllt. öfters drops unter 40, aber es hat nit geruckelt, fühlte sich nur nit so perfekt an wie sonst *;D davor (in den häuserschluchten) aber zb. wars wie sonst auch absolut zucker, da wo pcgh gebencht hat.

---------- Post added at 06:25 ---------- Previous post was at 06:23 ----------

Crysis 3 ist ja eine einzige Ruckelorgie! :eek:

Eine zweite Titan kommt mir aber nur mit günstigerem Kurs ins Gehäuse...

du spielts mti downsampling oder ? weil ansonsten kannst du mit einre titan unmöglich eine ruckelorgie haben in full hd.
 
Zuletzt bearbeitet:
ja, das ist für eien titan dann wohl zu krass *;) - werde downsampling bei crysis 3 gar nit erst probieren, wäre irgendwie ein doofes gefühl, wenn man eine Titan im Rechner hat und das Spiel läuft nicht flüssig *;D - sieht auch in full hd besser aus, als alles was ich an spielen bisher je gesehen habe, also für mich kein grund da noch mehr rausholen zu wollen *;D - downsampling werde ich aber bei metro 2033 mal wagen *;D
 
4fach MMSA in 2560x1440.. mit dem 3770K.

Habe lt.PCGH aber gelesen das bei 6-Kern ordentlich was an fps dazukommt..

Bei 2560x1440 ist Crossfire oder SLI schon absolute pflicht weil da brauchste richtig viel Leistung!
Mit zwei Titan@ 1200Mhz wäre das genau das richtige Setup für solch eine Auflösung!
 
IA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Jap...obwohl 2 titan @stock auch reichen würden!
Es ist nur Crysis3, dass nur 2txaa erlaubt...der rest geht wunderbar in 1600p! Mit nur einer Karte!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Klarsicht IT und Jacob haben 10 Stück Evga SC auf Lager.
 
Zuletzt bearbeitet:
Einer mit der Option auf nen zweiten bzw dritten weil dem Ding noch der Turbocharger fehlt:)



So ein geiles Setup und dann soooo schlecht fahren??:fresse:
 
wenn ich bei der ersten sichtkontrolle merke, dass eine karte schon verbaut war, geht sie direkt zurück. ich will echt kein stückgut vollpreisig erwerben, das schon irgendein computerkid zerschrotet hat. am besten ausgebencht wie blöde, rumgeflasht und 4x die WLP getauscht.. *pff* fernabsatzgesetz scheint herbe lücken zu haben.


(..)

mfg
tobi
Naja... Eigentlich nicht... Eher die RMA Abteilungen... Vermutlich unterbesetzt... Schlecht bezahlt... Und eventuell auch überfordert...
Ich dachte das FAG soll ermöglichen, dass man die Sache "wie im Laden" prüfen kann... Bios flashen etc. zählt sicher nicht dazu... Bei vielen Monitoren kann man z.B. die Betriebsstunden auslesen... Ferner darf IMHO auch ein Wertverlust geltend gemacht werden (nur wenn der Händler das macht gibts schlechte Bewertungen, das überlegt er sich eventuell 2mal).

Aber ich frag nu nochmal:
An wen muss man sich wenden um das SpezialBios zu bekommen ? Ich komme mit dem Default nicht mehr weiter - er throttelt zu früh trotz schöner Temps dank Accelero... Ich sag auch ganz lieb bitte und werde es nicht weitergeben...
 
Zuletzt bearbeitet:
Welche Auflösung ? Ich habe direkt bei mir die Titan mit 2xSLI GTX670 Asus DC2 verglichen und festgestellt das der Titan bei höheren Auflösungen (2560x1440) anfängt gegen das SLI zu verlieren wärend er davor fast gleich auf ist.
(FireStrike, Unigine Valley, FarCry 3). Trotzdem zum Titan gegriffen (SGPU Fan) und jetzt mit dem Accelero auch zufrieden...
 
Zuletzt bearbeitet:
Aber ich frag nu nochmal:
An wen muss man sich wenden um das SpezialBios zu bekommen ? Ich komme mit dem Default nicht mehr weiter - er throttelt zu früh trotz schöner Temps dank Accelero... Ich sag auch ganz lieb bitte und werde es nicht weitergeben...

Lese einfach in diesem Thread hier bzw. melde dich in diesem Forum kurz an, da bekommst du alle Biose, die so umherschwirren. Hier kann man leider nicht erwarten, dass a) so was geteilt wird und b) darüber außerhalb von PNs diskutiert wird.;)
 
Zuletzt bearbeitet:
@Edge magst nicht nen Sammler für titan Biose machen ? :)
 
Lese einfach in diesem Thread hier bzw. melde dich in diesem Forum kurz an, da bekommst du alle Biose, die so umherschwirren. Hier kann man leider nicht erwarte, dass a) so was geteilt wird und b) darüber außerhalb von PNs diskutiert wird.;)

Dass es einen Grund dafür gibt, das nicht gleich in der Welt zu verteilen kannst du dir nicht vorstellen?

Ich errinnere mal daran wie Nvidia darauf reagiert hat. (geht seit 266.xx nicht mehr)
Disable GeForce GTX 580 Power Throttling using GPU-Z | techPowerUp
 
Wie meinen? Und was meinst du, was ich mir alles vorstellen kann! Das kann ja wohl jeder selbst für sich entscheiden, was er macht! Was diese ständige Bevormundung hier soll! Und genau deswegen verlinke ich woanders hin, da wird wenigstens nicht so von oben herab diskutiert!
 
Er meint damit das wenn das wieder jeder Heini rumverteilt, nvidia früher oder später die Lücke dicht machen wird womit es geht. Aber das funktioniert eh nicht weil das einige nicht raffen, genau wie damals das man die Fermi-BIOS-Editor bitte nicht weitergeben sollte :wall:
 
Zuletzt bearbeitet:
@Edge magst nicht nen Sammler für titan Biose machen ? :)

Das könnte man auch im 600er Thread einfügen. Nun ja, die Auswahl ist ja eh sehr klein (offiziell haben wir ja derweil nur 2 Stück -> Referenz und SC) und das Mod-BIOS mit dem PT-Trick möchte ich aus den Gründen, die schon genannt wurden, nicht öffentlich posten bzw. von Usern geposted sehen. Wär ja schade (zumindest für Bencher und WaKü-OC-User), wenn NV dann diese Lücke schließen würde. Sicher auch im Sinne der GreenLight-Philosophie.
 
Zuletzt bearbeitet:
Mag alles sein, was ihr schreibt, aber trotzdem ist es doch total egal, weil es wo anders ja gemacht bzw. angeboten wird. Aber gut, das Forum hier braucht wohl kein Hits für die Banner!;)

Edit: Was das Thema Biose und clocken angeht, kann man woanders leider wesentlich besser diskutieren.

Leider sieht das Nvidia eben nicht so, und wird möglichweise genauso reagieren wie bei der GTX 580 damals, und dann war es ein kurzes Vergnügen.

Mag sein, aber kann und soll ich dir das glauben? Ich schätze deine Tools und deine Arbeit sehr, allerdings hast du vor einem Jahr auch gesagt, die veränderten Biose der GTX680 würden früher oder später durch den Treiber gesperrt werden, weil die Signatur nicht stimmt - passiert ist von alle dem bis heute aber nichts! Also lassen wir es doch einfach auf uns zukommen. ;)
 
Zuletzt bearbeitet:
manche wollen einfach nicht verstehen^^
je mehr son Bios in der Öffentlichkeit breit getreten wird, desto schneller kann NV reagieren. Also am besten garnicht, sondern nur über PN Wege.
Hits bekommt das Forum sicher genug für andere Sachen.
 
Wie ich schon mal sagte "Grinsemann", ein elitäres Grüppchen hier, das andersdenkende ständig zurechtweisen muss! Aber macht mal!
 
Wie ich schon mal sagte "Grinsemann", ein elitäres Grüppchen hier, das andersdenkende ständig zurechtweisen muss! Aber macht mal!

Denke mal, es ist das gute recht von jedem, genau das zu teilen oder zu erlauben, was er/sie fuer richtig haelt. Obs was bringt? Wohl eher nicht. Das OCN modbios (oder seine variationen) ist jedenfalls sehr hilfreich.
 
Hast du recht, jeder kann teilen, erlauben, mitteilen was er möchte - dennoch ist es doch total dämlich, das User eines Forums in andere Foren müssen, weil hier laut den Aussagen einiger irgendwie die Nvidia-Welt gerettet werden soll! Voll der Widerspruch ist dann, dass die gleichen User, die die Biose hier nicht zur Verfügung stellen, es in anderen Foren aber tun! Voll der Quatsch! Wie ich sagte, sollen alle machen, müssen wir eben wo anders hin, wenn es um das Interessante geht! ;)
 
im prinzip zustimmung - aber es ist ja auch kein grosser aufwand, mal eben zum anderen forum zu klicken, bei dem die meisten, die es interessiert, eh angemeldet sein duerften...;)
 
Eins vorweg: Es wird ein etwas längerer Post. ;) Nach einem Wochenende mit Titan will ich mal meine Erfahrungen und Meinungen zum Besten geben.

Für mich gab es einen Wow-Effekt - nämlich beim ersten Anschalten des Systems und der Geräuschkulisse des originalen Lüfters im Idle. Hier haben die Reviews durchweg recht, wenngleich ich sagen muss, dass ich auf einem offenen Benchtable getestet habe. Unter Last mag der Lüfter dann leiser sein als bei anderen Karten, als leise würde ich ihn aber nicht mehr bezeichnen. Es ist allerdings so, dass er ein Geräusch produziert, was nicht unbedingt nervig ist. Der originale Kühler mag zwar wertig sein, das nutzt jedoch nichts, wenn er als erstes gegen einen Wasserkühler getauscht wird. Also ist dieser Wow-Effekt lediglich ein Zusatz, welcher mich im Alltag aber überhaupt nicht interessieren würde.

Bei allen vier Gainward-Karten ist auf einer der vier Kühlerschrauben, die den GPU-Kühler halten, jeweils ein Aufkleber, der das unbemerkte herauslösen der Schraube verhindert. Die Aufkleber sind jedoch auf verschiedenen Schrauben (also nicht immer in der gleichen Ecke).

Da gleich wieder jemand die ASIC-Werte der Karten wissen will:

- 67,9 %
- 56,7 % (nein, ich habe mich nicht verschrieben!!)
- 73 %
- 71,9 %

Die drei Karten mit den höheren ASIC-Werten haben eine fortlaufende Seriennummer, die Karte mit der niedrigen ASIC hat eine um etwa 100 niedrigere Seriennummer.

Die Karte mit 71,9 % ASIC ist die beste Karte. Sie boostet per Default am Höchsten (993 MHz), während die schlechteste mit 954 MHz boostet. Die anderen beiden liegen irgendwo dazwischen.

Mittels PrecisionX habe ich dann die Taktraten ausgelotet. Als Referenz habe ich 3DMark Fire Strike Extreme genommen und alle Karten da durch gescheucht. Herausgekommen sind folgende Werte (in der gleichen Reihenfolge wie die ASIC-Werte oben vermerkt):

- 1.176 bei 1,20 Volt
- 1.124 bei 1,20 Volt
- 1.176 bei 1,187 Volt
- 1.176 bei 1,187 Volt

Dazu habe ich jeweils K-Boost aktiviert, 106 % PT und 94 Grad TT eingestellt sowie 85 Prozent Lüfterdrehzahl. Somit hatten alle Karten gleiche Voraussetzungen. Die erste und die dritte Karten takten während des Benchmarks auf Werte knapp über 1.100 MHz herunter, was sich in der Performance niederschlägt. Sie erreichen dabei nur etwa 95 Prozent des Powertargets und das Temperturlimit wird auch nicht erreicht. Die dritte Karte zeigt zudem keine Auswirkungen mehr bei 1,20 Volt. Die vierte Karte hingegen hängt fast den kompletten Benchmark bei 1.176 MHz, übernimmt allerdings die Eingabe von 1,2 Volt nicht (das hatte hier schon mal irgendjemand). Vom Gefühl her würde die Karte bei 1,2 Volt auch die 1.189 MHz packen, was unter Wasser mit Glück dann 1,2 GHz wären.

Andere Benchmarks habe ich nicht gemacht, da ich erstmal nur die Karten untereinander vergleichen wollte.

Das Projekt, wofür die Karten gekauft wurden, hat sich am Wochenende in Luft aufgelöst. Insofern gehen jetzt gleich wieder einige Karten weg. Ein Bekannter braucht drei Karten, sodass ich auf die auf einen Schlag losgeworden bin. Die beste Karte bleibt erstmal hier und ich überlege, was ich mache. Denn ursprünglich sollten zwei davon in meinen Rechner. Doch dummerweise habe ich lediglich beim Originalkühler diesen Wow-Effekt gehabt, was mir im Alltag aber nicht hilft. Die Performance ist zweifelsohne gut, allerdings ist sie mir den Preis irgendwie nicht wert. Deshalb überlege ich jetzt, ob ich meine 3 GTX 670 4 GB erstmal gegen eine Titan austausche (würde ungefähr 1:1 sein) und später, bei besseren Preisen, eine zweite Titan dazustecke. Oder sollte ich auch die Vierte wieder veräußern? Naja, so richtig haut mich Titan jetzt nicht vom Hocker…

Wie sind denn 1.176 MHz ohne Throtteln mit Originalkühlung im 3DMark Fire Strike Extreme zu werten?! Gut? Mittelmäßig? Schlecht? Müsste doch eigentlich ganz ordentlich sein, oder?!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh