[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Ich verstehe auch nicht wieso eine schlechte ASIC unter Wasser dann auf einmal plötzlich besser gehen sollte.

Meine Karte hat knapp 78%.

Von was?

Kann mal einer sagen was asic ist und mit welchem tool man am besten oc durchführt und welche einstellungen man mit diesem tool einstellt?

---------- Post added at 00:08 ---------- Previous post was at 00:01 ----------

50€ für ein paar Buchstaben find ich ganz schön happig. Aber was macht man nicht alles dafür das es ein wenig Persönlich ist :)

Naja lasern ist nichtbillig fg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich meinte die ASIC.
 
Von was?

Kann mal einer sagen was asic ist und mit welchem tool man am besten oc durchführt und welche einstellungen man mit diesem tool einstellt?

---------- Post added at 00:08 ---------- Previous post was at 00:01 ----------



Naja lasern ist nichtbillig fg

Ich weiß finde es dennoch zu teuer. Ich arbeite bei Trumpf kannst ja mal googlen was die so machen ;)
 
Ich kenne es so das niedrige ASICs schlecht gehn unter Wakkü
Wo bei es sich beim Titan wegen dem erreichen des Powertargets etwas anders Verhalten kann.

Z.b HD7970
59% ASIC 1200 MHZ @1,3V der CHIP war @AIR recht kühl Stromverbrauch weniger als höhere ASICs.
67% ASIC 1200MHZ @1,25V noch einigermassen kühl@AIR.
72% ASIC 1200MHZ @1,225V schon deutlich wärmer@AIR.
82% ASIC 1200MHZ@1,185V heiss @ AIR hatte ich auch unter Wakkü Real1,274 V 1350MHZ
84% ASIC 1200MHZ@1,165V sehr heiss @ AIR und den höhsten Stromverbrauch lief aber auch unter Wakkü 1390 MHZ @ Real 1,266V wo bei man dan mit Temperaturen um die 35°C gearbeitet hat.

Durch das Powertarget kan es sein das ASIC im Bereich um die 70-80% die besten Ergebnisse bringen unter Wakkü dafür haben wir aber noch nicht genug ergebnisse Naennon hat ja glaube ich bei 1200 MHZ eine ASIC von ca 78%.
Die ASIC wirkt sich auf jeden Fall auf die Verlustleistung des Chips aus bei den 7970ern.

Wenn sich das auch beim Titan so wieder Spiegelt und man die Begrenzung der Strom Aufnahme der Karte nicht umgehen kann und mit noch mehr V arbeiten kann muss man die Goldene Mitte finden.
Denke Naennon ist da schon sehr nah dran mit seiner ASIC.
 
Zuletzt bearbeitet:
Ich kenne es so das niedrige ASICs schlecht gehn unter Wakkü
Wo bei es sich beim Titan wegen dem erreichen des Powertargets etwas anders Verhalten kann.

.


Meine alte 690er hatte nen Asic von 68 Core1 u 69 Core2 daraus wurde schlussendlich die 5 schnellste Karte weltweit im 3D Mark:)

Also entweder stimmt das aus Wizzards Erläuterung dazu,oder der ASIC Wert ist an den Haaren herbei gezogen
 
Zuletzt bearbeitet:
Die GTX690 wird ja genauso so beinflusst vom Powertarget Scully .
Also entweder stimmt das aus Wizzards Erläuterung dazu,oder der ASIC Wert ist an den Haaren herbei gezogen

Da für war es mir viel zu ersichtlich bei den 7970ern ich konnte klar sagen gib mir ne hohe ASIC%+ V Core + Sehr gute Kühlung und das Teil rennt wie Schwein nur ist das ganze bei dem GK110 nicht so einfach wenn die GPU sagen wir mal bei 250W sagt no no das reicht mein lieber.


Wo bei wie ich schon schrieb wen mehr Leute ihre Karte unter Wakkü haben wird es sich schon noch heraus kristalisierenn welche ASICs am besten geignet sind weil wie ich schon erwähnt habe sollte die ASIC eventuell auf Leckströme hinweisen können.

Niedrigere ASIC weniger Leckströme und Sparsamer mit dem Stromhunger hohe ASIC mehr Leckströme und mehr Verlustleistung würden aber wenn die Limits nicht da wären weit aus höher zu takten gehn.
Die niedrigeren ASIC wollten immer mehr V Core als die hohen ASICs.
Das konnte ich auf jeden Fall bei 6* HD7970 Karten nach stellen mit unterschiedlichen ASICs.

Bin gespannt ob es sich beim Titan auch so wiederspiegelt .
Das ganze Turbo/ Temperatur Powertarget Zeugs macht das ganze auch schwer durchschaubar vor allem wenn Leute versuchen Ergebnisse @ Air zu präsentieren.
 
Zuletzt bearbeitet:
GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Laut neannon skaliert seine Karte nur bis 1.1875!
Geht damit aber 1202...meine karte hingegen schafft mit 1.2v nur 1176! Schaltet man nun pt aus und dazu noch 1.212v dann sind plötzlich 1280 drin...ok...valley nur 1248 manchmal...1224 gehen immer.

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
is hier auch so 1228, manchmal 1241
mit 1.21 und Power

die schenken sich nix
 
Ok hab mich informiert, weil hier kann ja keiner Auskunft geben. die asic sagt was darüber aus wieviel vcore nen chip braucht. asic im Bereich 60-70% lassen sich am besten ocen. das erklärt natürlich auch warum schon Titan Rückläufer im umlauf sind. den asic test macht man mit einem rechtsclick auf den Window namen bei geöffnetem gpu-z.
 
Welche ASIC Dancop?

Naennon seine macht ja 1,21 V 1228, manchmal 1241 glaube 78% Asic war das.
 
Zuletzt bearbeitet:
Re: eForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Ok hab mich informiert, weil hier kann ja keiner Auskunft geben. die asic sagt was darüber aus wieviel vcore nen chip braucht. asic im Bereich 60-70% lassen sich am besten ocen. das erklärt natürlich auch warum schon Titan Rückläufer im umlauf sind. den asic test macht man mit einem rechtsclick auf den Window namen bei geöffnetem gpu-z.

So ein Blödsinn!
Meine adic ist 71

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
wird wohl kaum ASIC Rückläufer geben... das macht vielleicht 13 Mhz aus
 
Hört mal auf mit den blöden ASIC Werten,
sonst heißt es im Marktplatz ständig "wie hoch ist denn der ASIC Wert?"

Noch ein Grund mehr den Preis zu drücken... *Kopfschüttel*

PS: habt ihr Mädels gestern noch fleißig Superclocked Karten bestellt? :d
(4 Karten Atelco, MF eine Karte)
Gibt jetzt nur noch die Signature..
 
Zuletzt bearbeitet:
Ich denke mal mit ner Asic knapp um die 60 erreicht man maximal 1150 so sieht es zu mindest aus nach dem was ich bis her aufgeschnappt habe.
Da für @Air Game stable etwas bessere Werte da der Chip nicht ganz so warm wird.

Hat hier schon jemand ne Asic mit um die 80% rum will ich haben bezahle gut.:)
 
Zuletzt bearbeitet:
öhm ja, ich geh dann wieder zurück auf mein 680er sli....

ne, den test sollte man in 2-3 monaten nochmal machen.

nvidia soll endlich mal nem performanten titan treiber rausrücken!
 
NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite le

Hö? Waren das Stock 680er mit 2gb?
 
@Thunderburne

Hier hab ich eine Zotac mit 81%. Gerade mir geben sie die, wo ich weniger am maximalen rausholen interessiert bin. Hab nur mal testweise +113 auf die GPU gegeben. Vielleicht mal an einem freien Tag schauen was sie so bringt - aber bis zu neuem Monitor reicht die Leistung ja erstmal dicke.

Directupload.net - msk4czn2.jpg
 
:hmm: warum gehst du wieder zurück auf dein 680erSLI ?
 
nimm das doch nicht zu ernst grinsemann :)

ich werd meine tits so schnell gegen nichts tauschen :love:

das ist einfach ein treiber ding, das war mit der 680er nicht anders.
da hat sich ja nun sehr viel getan.
 
dann schreib doch nicht sowas verwirrendes^^

---------- Post added at 12:27 ---------- Previous post was at 11:37 ----------

@webmi

haste deinen Zotacs nochmal ein bissi Kälte gegönnt und nochmal max getestet ?
ASICS bei dir waren glaube ich eine 80er und irgendwas mitte 70

wie weit kommste? stabil ohne Throttling
 
Falls noch von Interesse die Daten der EVGA HC

Specs
Core

2688 CUDA Cores
Base Clock: 928 MHz
Boost Clock: 980 MHz
Bus: PCI-E 3.01
2-way, 3-way, 4-way SLI Ready
Texture Fill Rate: 219.5 GT/s

Gruß herm
 
Hab mir letzte Nacht den 3DMark bei Steam geholt und mal den "Scharfrichter" laufen lassen. Prozzi 5,0GHz, Titan noch Standardkühler @1202-1170 bei 1,187-1,15V (drecks PL!?), Treiber 314.09 alles Default ausser Texturqualität @Performance, Win nix optimiert/geschlossen, also alles an wie im 24/7 und raus kam das:

5ghz1202bgcufc.jpg


Wenn ich mir den HWLuxx Test zur Titan anschaue, dann ist der Wert fast auf GTX690 @Stock-Niveau. Nicht schlecht Herr Specht :). Was habt ihr denn so in dem Test?
 
Wow :)
Sieht man mal was Modbios + Wakü + Ivy + Ramtakt und sicherlich angepasstes Win noch bringen^^. Wenn WC net ausm Knick kommt, dann wird's wohl der Kühler von AC bei mir. Mal schauen was dann noch so geht samt Prozzi um 5,4-5,5GHz.
 
Also bei mir spackt der neue 3DMark total rumm...

Der schmiert einfach ab... Manchmal beim laden von Systeminfo's manchmal im ersten Test und manchmal rennt er durch. Scheiss Teil ^^

Hab auch das OC rausgeholt... das selbe...

Wenns mal druchläuft hab ich mit SLI weniger als die hälfte an Punkten als mgr R.O.G. mit einer Karte :hmm:

ALLES andere (Valley, Heaven, 3DMurks 11, BF3 und Crysis 3 stundenlang) rennen einwandfrei...

Was solls sein ?
 
Zuletzt bearbeitet:
bin mir auch nicht sicher, ob es besser ist auch die spannung zu erhöhren beim oc
hab das gefühl, wenn ich im saft gebe, wir er eher instabil :stupid:

atm fahre ich 1150/1163 stabil

kurz vor der 80°C schwelle sinds 1150/1150
 
Zuletzt bearbeitet:
Fire Strike hat Probleme mit SLI-Setups. Meist ist der Combined-Test so schlecht, dass er das Gesamtergebnis runterzieht.

Ich habe das selbe Problem, dass ich mit 3-way-SLI (GTX 670) nur rund 1000 Punkte schneller bin als ohne SLI. Ohne SLI sind GT1 und GT2 langsamer, dafür aber Combined normal. Mit SLI sind die Gametests normal flott, dafür bricht Combined ein. Das Problem haben viele User mit SLI-Systemen.

Laut einem Post von Futuremark bei hwbot soll das ein reines Treiberproblem sein. Ich habe diesbezüglich bereits jede Menge rumprobiert (Treiberprofile etc.), hat aber alles nichts gebracht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh