[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
mit was übertaktet ihr denn eure Titan?

Habe jetzt mal den MSI Afterburner 2.3.1 runtergeladen, aber irgendwie kann ich da keine Voltage sehen, bzw auslesen. Auch lese ich hier immer, das man irgendwo die Priortät zwoscjem PT und Temp einstellen kann... Bei meinem Afterburner gibts sowas gar nicht?!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
du solltest akzeptieren, dass MPGU im AFR kein hexenwerk ist, sondern eine anzahl X an GPUs, die alle das selbe machen. und zwar nicht zusammen, sondern jede für sich. das ist nicht nur bei mir so; eher bei jedem der mit AFR handtiert. schalte mal die buffertricks (vsync p.e.) aus und drück einzelkarte und SLi-system auf vergleichbare 40fps runter. dann hast du schnell die erkenntnis, das eines "echte" frames sind und das andere 2x 20fps. mythenforscher fangen dann mit framediagrammen, framemetring oder framelatenzen an; simple naturen erkennen schlicht stotternde 2x 20fps.


(..)

mfg
tobi

Warum soll ich irgendwas akzeptieren, wenn ich selbst hier die Erfahrungen mache und halt anderer Meinung als du bin? Sowas soll ja bekanntlich vorkommen ;)
Ich habe schon öfters gesagt, dass 40fps im SLI meist ruckelig sind, aber mit 60 hab ich überhaupt keine Probleme und die sind für mich noch besser als die 40@SGPU da geringerer Inputlag.

@ Boxleitner
wann können wir mit deinem Review rechnen ? :)

Diese Woche denke ich. Ich hab alle Benchmarks mit mehr CPU-Takt und mit dem Zauberbios nochmal gemacht, damit auch ja nichts throttlet.
 
Zuletzt bearbeitet:
ich kann tobi recht geben. ich habe erst vor wenigen tagen eben diese erfarhung gemacht.
arma3 alpha scheint probleme mit engine oder mti nv treiber zu haben, jedenfalls egal ob ich mgpu oder sgpu zocke,
ich komme über die 40 fps im ersten showcase nur selten hinweg. hier merkt man deutlich, was der unterschied ist.

die 40 fps sgpu fühlen sich so viel flüssiger an!

ab höheren und stabilen fps merke ich aber keinen unterschied mehr
 
Zuletzt bearbeitet:
Jo, ich sag ja so 45-50fps brauche ich auch mit SLI, sonst machts keinen Spass. Ab da ist es aber für mich kein Problem.
 
NVidia Inspector oder wenn man nicht auf OSD verzichten möchte mit dem EVGA precision X


(..)

mfg
tobi
 
das erzähl dann mal einem normalsterblichen, "iiihh, 50 fps, ich kotz gleich"... die fragen sich nur ober der spinnt.
die afr geschichte erklärt dieses phänomen aber
 
@Tenchi
Wozu eigentlich 2 Rechner ?
Sind ja beide gleichermaßen super spieletauglich.

Habe die Asus Titan seit ca. 1 Woche und bin begeistert. Sehr leise und keine Nebengeräusche. Da klang meine GTX680 schon etwas anders.Dirt 3 und Dirt Showdown ist nun auch mit 16x super spielbar.
Habe sie momentan nur leicht übertaktet (+110GPU). Mit dem Nvidia Inspector geht das prima.

Kann es sein, das mein 990x limitiert (läuft mit 4,13 alle Kerne/4,26 ein Kern) ?
 
also irgendwie versteh ich das OC noch nicht richtig

Ich habe bei PrecisionX 106%PT und 94°TT gewählt.
Bei voltage habe ich +38mv eingestellt und habe ihm +155mhz gegeben... Resultiert in 1100mhz und 1.137V?!? Müssten nicht eigendlich dann 1.21V anstehen? Wie bekomme ich das hin?
Weil wie will ich richtig OC'en wenn nur 1.137-1.15V anstehen?!
 
also irgendwie versteh ich das OC noch nicht richtig

Ich habe bei PrecisionX 106%PT und 94°TT gewählt.
Bei voltage habe ich +38mv eingestellt und habe ihm +155mhz gegeben... Resultiert in 1100mhz und 1.137V?!? Müssten nicht eigendlich dann 1.21V anstehen? Wie bekomme ich das hin?
Weil wie will ich richtig OC'en wenn nur 1.137-1.15V anstehen?!

Was ist dein Standardtakt und Spannung? Also max boost.
Ich schätze mal, das Teil throttlet, so war es bei mir unter Lukü auch. Die 1.2V konnte ich einstellen, aber er hat sich immer in niedrigeren Gefilden auf der Takt/Spannungskurve bewegt.
 
mach mal Fenster auf und Lüffie auf volle Pulle, ich wette da geht was :d
Wakü FTW :bigok:
ASIC ?
 
stimmt, die 1.2v habe ich eben auch kurz gesehen. aber ging dann wieder runter. Naja, bald kommt der Wasserkühler.

Wie hoch geht denn euer Memory? Bin jetzt bei +600... das sind über 1800mhz! So hoch ging meine GTX680nicht. Das finde ich schon extrem. Leider sind auf der Rückseite keine Ramkühler verbaut... Da werde ich wohl noch welche draufmachen! Die werden ordentlich warm

Edit:
Also max. Boost den ich eben sehen konnte waren 1176mhz... die Lüfter drehen aber komischerweiße nur auf 40% und auch wenn ich den Haken bei Fan Speed Auto wegnehme und auf 85% manuell hochdrehe, bleibt der lüfter trotzdem leise und auf 40%?!
ASIC sind 73% also nicht ganz so prall, aber vom ASIC Wert als Garant bin ich nicht so überzeugt...
 
Zuletzt bearbeitet:
ja, haken wegnehmen von Auto, 85% einstellen und "APPLY" drücken :d
 
Ja ging... was ein Fön:bigok:

Aber irgendwas stimmt da trotzdem nicht. Temp hing so bei 55°C, aber trotzdem standen nur 1100mhz bei 1.1V

Dann bin ich auf +175mhz gegangen, und auch hier hing er wieder auf 1100mhz bei 1.1V... kurzfristig taktete er dann ein paar Mhz hoch, Spannung blieb aber gleich und Crash...
Wieso regelt der die Spannung nicht rauf? Bei meiner GTX680 war es so, das er bei seinem Boost immer die 1.21V hatte
 
Bei mir hatte er auch nicht hochgetaktet, obwohl ich die 106% nicht erreicht hatte. Das Powertarget ist ab einem gewissen Punkt nur ein Placebo, da kannste machen was du willst, die Karte kann frieren, das Ding taktet trotzdem wie es Bock hat.
Der Lüfter hat hier auch einen Einfluss auf den Takt gehabt. Lüfter hoch -> Takt runter. Kurios.
 
@Tenchi
Wozu eigentlich 2 Rechner ?
Sind ja beide gleichermaßen super spieletauglich.

Der 3960X ist für CS6 inkl. Games die den PC fordern.

Der zweite war jetzt so eine flotte "sparsame Kiste" (über 100 Watt weniger Idle) für Games für die man nicht soviel Power braucht.
Auch ist es für PS angenehmer nicht so ein Monster laufen zu haben, da Silent was anderes ist ;)

Ausserdem wollte ich keinen max. Stromverbrauch von 750 Watt für alte Karmellen haben. Da ich halt noch eine GTX680 "übrig" hatte bastelte ich mir damit ein SLI - aber nur vorübergehend.
Macht ja jetzt nicht wirklich Sinn in jedem PC ein SLI zu haben.

Back to Topic :bigok:
 
@Horsi
Hängt von Deiner Software und Deinen Settings ab, und nicht von der Kombination aus CPU und Graka.

Beispiel:


Da kannst Du einen beliebigen Namen und einen beliebigen Takt für CPU und GPU einsetzen. Es wird immer CPU-Limitiert bleiben. Einfach weil die Software CPU-Limitiert ist.

Wenn Du jetzt auf Dirt abziehlst: Die Renngames sind in der Regel CPU-Limitiert, einfach weil sie kein Grafik-Feuerwerk darstellen. Da passiert nicht "so viel".

Die Frage dabei ist doch immer: Wo ist die Grenze wo es "Sinn" macht über ein Limit zu sprechen. Mehr als 120 FPS braucht man selbst in Rennspielen nicht. Und wenn man 60 FPS vsync fährt, dann ist die Steuerung immer noch ordentlich direkt.

Oder geht es einfach ums Prinzip (wie bei vielen im Luxx): Die Graka ist nicht 100% der Zeit 99% ausgelastet? Da kannste natürlich gleich mit 10Ghz Haswell ankommen :-)

Ab wann stört es Dich?
 
Zuletzt bearbeitet:
@ Boxleitner
wann können wir mit deinem Review rechnen ? :)

BTW, Caseking bietet schon die Wassergekühlten an, falls einer nicht basteln will. Aber auch wohl nur mit den EK Kühlern vorerst.

hab meine bei Aqua Computer bestellt. ist zwar teurer aber dafür mit logo graviertem designkühler. die Dichtungsführung des ek bei den wassereinlässen ist mir nicht geheuer.
 
die Wassereinlassblöcke finde ich iwie sexy so wie sie auf Bildern rüber kommen, konnte aber persönlich keinen genauen Blick drauf werfen. Kannst im Waküfred oder per PN mir gerne mal Bildmaterial zukommen lassen. Würde mich interessieren was dich zu dem Entschluß gebracht hat :)

hier hatte doch einer Alan Wake gespielt.
könnte ich mal bitte fps verlauf und fps times sowie die dazugehörigen Einstellungen im Game und Auflösung bekommen, Danke :)
Ich lasse das Game ruhen, denn es macht mit dem 680er SLI keinen Spaß.
 
bei ek wassereinlass sieht es so aus wie wenn die Dichtung an 2 stellen nicht angepresst werden. enn da unter dauer wasser drunter kommt könnte ich mir vorstellen, dass minimal Feuchtigkeit austreten kann....ist alles Spekulation weil ich noch keinen ek in der Hand hatte. aber alleine vom kühler layout und der Feinheit der Kühlrippen ist der ac viel besser. mal abgesehen davon dass die jungs mir für 50 euro mein battlefield 3 nickname mit laser eingravieren. pics folgen in 10 tagen.
 
Habt Ihr schonmal so ein bissel geschaut, ob sich die Theorie hoher ASIC= gutes OC beim Titan bewahrheitet?
Bei der 7950 z.B. sagt das nämlich gar nichts, da gibts einige mit ASIC<60% die sich OCen lassen wie sau.
 
bei ek wassereinlass sieht es so aus wie wenn die Dichtung an 2 stellen nicht angepresst werden. enn da unter dauer wasser drunter kommt könnte ich mir vorstellen, dass minimal Feuchtigkeit austreten kann....ist alles Spekulation weil ich noch keinen ek in der Hand hatte. aber alleine vom kühler layout und der Feinheit der Kühlrippen ist der ac viel besser. mal abgesehen davon dass die jungs mir für 50 euro mein battlefield 3 nickname mit laser eingravieren. pics folgen in 10 tagen.

50€ für ein paar Buchstaben find ich ganz schön happig. Aber was macht man nicht alles dafür das es ein wenig Persönlich ist :)
 
Höhere ASIC-Qualität äußert sich bei Titan in höherem Max-Boost bzw. niedrigerer Spannungen bei selbem Max-Boost Takt. Meine 78% Karte braucht 1.15V für 1006 MHz, die 76.5% Karten will schon 1.1625V
 
Na da habe ich ja richtig Pech mit meinen 66.3% oder wie muss ich das jetzt verstehen. Unter Wasser besser zum clocken???

 
Naja bei MusicIsMyLife sieht man ja schon ganz gut das die ASIC schon auf das OC verhalten der Karten schließen lässt. Wobei sie unter Wasser dennoch recht gut gehen sollte denk ich mal.
 
Ich verstehe auch nicht wieso eine schlechte ASIC unter Wasser dann auf einmal plötzlich besser gehen sollte.

Meine Karte hat knapp 78%.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh