[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Aber hoffentlich nicht das 300% File?

Da wäre ich noch äußerst zurückhaltend das zu flashen

Und heb dir dein originales auf Edge sagte das da die Seriennummern verankert sind drin!!

nee ist ein anderes.

Ja, 1.2v sind kein Problem.
Je nach Anwendung wirst du aber ins Powerlimit laufen mit dem Defaultbios.

Les ich das richtig, dass 1.2v ja ganz normal im evgatool eingestellt werden können?... dachte dafür braucht man auch schon nen gemoodetes Bios.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1.2v via precision möglich ohne jegliche änderung am bios
 
bringen die 0,0125v sov iel mehr?
Für was brauch man dann überhaupt ein gemoddetes bios (abgesehen von fest eingetragenen oc einstellungen)?
 
Zuletzt bearbeitet:
Höheres Powertarget, nicht jedesmal ne frickelei mit irgendeinem tool.
 
ich investiere die überflüssige freizeit lieber in spiele. die ganzen OC-versuche mit dieser karte hier waren eh nie auf alle meine games anwendbar und wenn ich das OSD aus habe merke ich davon sowieso nix.



(..)

mfg
tobi
 
Nö, ich habe im Dammlevel nirgends unter 40 Frames, an keiner Stelle. Und ich habe bis auf die Schatten alles auf Very High! Ich habe eigentlich durchgehend 60 Frames. Dieses Problem mit den unter 40 Frames hatte ich auch, als ich noch meine beiden 680 im SLI hatte, voll nervig, wie es SLI überhaut ist, nie mehr wieder tu ich mir diesen Mist an. Mit einer einzelnen Karte hat man das Problem mit den Drops in diesem Ausmaß nicht. Zeig mir welche Stelle du meinst im Dammlevel, ich kenne da mittlerweile jede Ecke, und ich mach dir einen Screen wo du siehst, das es keine 40 Frames sind. Ach so, zocke natürlich nur 1920x1200.

Hmm wie machst du das durchgehend 60fps? Ich spiele 1080p alles Very High (außer Schatten) mit 4xSMAA (da TX2 derzeit verbuggt ist), V-Sync wie immer an und bei mir bricht er gut und gerne ein und läuft zu 99% mit 40-50fps. Schalte ich ein kleinen AA Modus an etwa TX2, ist es wesentlich besser aber wie gesagt verursacht der Modus leider Grafikfehler.
 
Er hat nen IB, du (und ich) "nur" die Sandy. Vielleicht liegt da der Hund begraben.
 
was hat er ? :hmm:
 
ach..Ivy Bridge , sry, stand gerade aufm Schlauch^^

€dit:
aber ist doch auch nur ein 4 Kerner ..
 
Zuletzt bearbeitet:
Höheres Powertarget, nicht jedesmal ne frickelei mit irgendeinem tool.

um auf eure antworten von vorhin zurückzukommen *;D


also unter luft 1202 mhz wäre natürlich cool, aber scheint ja schwierig.

diese ganzen bios mods. bringen die mehr fps ?

es wird ja ein höheres powertarget ermöglicht, also kann die karte mehr boosten ? Kann man dadurch höhere offset (gpu clock) draufpacken, ohne dass es probleme gibt (far cry 3 hängt sich ja irgendwann auf wenn ich mehr als +103 mhz offset - wobei ich zb. +110 und so noch nit probiert habe.. nur meine +142 mhz, die sonst in allen spielen laufen gehen da halt nit - drauf packe) ??

Crysis 3 zb. ging mit +148 mhz auch flöten, selber absturz wie bei far cry 3, komisches geräusch und schwarzer bildscirm und dann wieder am desktop. naja +142 mhz ist aber auch okay, also hatte schon meistens so 1135 mhz taktung mit meiner titan.

also mod bios, kann man dadurch höhere werte einstellen? bringt mir das unter luft noch was ?
 
:wall: :heul: :grrr: :kotz::wut:

Sehr geehrte(r) Herr xxxxxx,
vielen Dank für Ihre Bestellung bei anobo.de und für das uns entgegengebrachte Vertrauen!

Ihr Auftragscode: xxxxxxxxxxx Für den Artikel (321031EE) eVGA GeForce GTX TITAN - Grafikkarten hat uns der Hersteller noch keinen voraussichtlichen Liefertermin mitgeteilt. Sobald der Artikel bei uns eingegangen ist, werden wir Ihnen diesen schnellstmöglich zusenden.
 
ach..Ivy Bridge , sry, stand gerade aufm Schlauch^^

€dit:
aber ist doch auch nur ein 4 Kerner ..

vllt. hat er mehr ghz auf den kernen ?! habe mal irgendwas gelesen bei pcgh, das hyper threatening, oder wie das heißt, frames kostet, wenn man es an hat in crysis 3. vllt. hat er es aus ?!

also framedrops unter 50 habe ich in crysis 3 auch hier und da, aber meistens nur kurz und dann hat er sich wieder gefangen, nur welcome to the jungle war heftig, da lief er dann mehr oder weniger eher um 45-50. also da in der graslandschaft, aber auch nit immer, mal so, mal so. und hier und da gabs ähnliche situationen. kein plan, aber insgesamt super performance in crysis 3.
 
interessante frage, laufen die modded bios titans stable mit ihrem oc und den ganzen empfindlichen games.
ich habe aktuell das prob @ crysis3, oced kratzt es mir ständig ab "dx error, device removed" ohne oc läufts.
der oc an sich schients stable. ist auch kein titan problem, das problem haben viele mit crysis3 und übertakteten grafikkarten.
nun flasht man sich ein modded bios und einem kratzen die games ab... ist das so? bzw ist das nicht eine gefahr?
 
Wenn dir das egal ist das deine Titan einem Föhn von der Geräuschkulise her ähnelt kann man da durchaus auch unter Luft die 1202 und höheres PT anstreben.

Ob der Chip deiner Titan das jedoch mit macht kann man nicht vorraus sagen, daher mal testen was maximal möglich ist.
 
Wenn dir das egal ist das deine Titan einem Föhn von der Geräuschkulise her ähnelt kann man da durchaus auch unter Luft die 1202 und höheres PT anstreben.

Ob der Chip deiner Titan das jedoch mit macht kann man nicht vorraus sagen, daher mal testen was maximal möglich ist.

hihi neee zu laut sollte es auch nit sein, außer ich spiele mit kopfhörern,dann ist es egal. wie meinst das mit dem ob der chip das mitmacht *;D - wegen lüfter ? oder wegen höherem powertarget (was ja bedeutet, sie zieht mehr watt).

oder ist so ein mod bios an sich nur sinnvoll, wenn wassergekühlt ? Bin so ja auch zufrieden erstmal, nur wenn ich mit so nem biso mod zb. anstatt 1135 - 1150 auf zb. 1175 kommen kann oder so... also recht konstant... dannwäre das doch ne überlegung wert

oder wenn ichdadurch höhere offset werte eintragen kann und das dann noch funktioniert in den games.

@webmi

neusten treiber installiert ? habe gelesen, der macht probleme.

crysis 3 lief bei mir absolut stabil bis +142 mhz offset, bzw. dadrüber (wollte es mal testen) gabs nen absturz mit +148mhz. bis dahin alles super, ohne abstürze *;D
 
Hmm wie machst du das durchgehend 60fps? Ich spiele 1080p alles Very High (außer Schatten) mit 4xSMAA (da TX2 derzeit verbuggt ist), V-Sync wie immer an und bei mir bricht er gut und gerne ein und läuft zu 99% mit 40-50fps. Schalte ich ein kleinen AA Modus an etwa TX2, ist es wesentlich besser aber wie gesagt verursacht der Modus leider Grafikfehler.

Also natürlich gibt es auch bei mir mal ab und zu mal stellen, wo die 60 Frames nicht gehalten werden können und es mal runter auf 50 oder so geht, aber das ist bei mir garantiert nicht zu 99% der Fall, eher 90 Prozent auf 60 und der Rest geht mal runter. Das ist aber meist nur kurz und fängt sich schnell wieder, wenn man sich weiter bewegt. Ich spiele auch nur mit TX2, Grafikfehler sind mir hier irgendwie noch nie aufgefallen, wie sollen sich diese denn äußern? Ansonsten ist im Game wie gesagt alles auf sehr hoch gestellt, bis auf die Schatten, wobei ich auch eine angepasste Autoexec habe, wo Tesselation überall noch zusätzlich an ist, selbst beim Wasser, und die Sichtweite noch auf 100 Prozent gestellt wurde. Meine CPU läuft auf 4,6GHz, die Titan 1150MHz GPU / 1652MHz RAM, alles im Grunde keine Zauberei. ;)
 
Das Glück ist mit den Dummen ^^
Schon alles eingekauft (reines IsoProp, Pinsel, Bürste etc.), mache den Rechner testweise nochmal an...

... Und keine Grafikfahler mehr :bigok:

Ne Stunde schon den FireStrike durchlaufen lassen -> alles oki ^^

Schweeeeeiiiiin jehabt!
 
Das Glück ist mit den Dummen ^^
Schon alles eingekauft (reines IsoProp, Pinsel, Bürste etc.), mache den Rechner testweise nochmal an...

... Und keine Grafikfahler mehr :bigok:
!

Ich würde das eher russisches Hardwareroulette nennen was du da gerade gemacht hast beim nächsten Versuch steckt die "Strombullet" im richtigen Lauf u es reißt dir das ganze System in den Tod wenn du "viel Glück" hast

Allein das die Karte noch Fehler produziert hat war doch eigentlich ein Indiz dafür das elektrisch noch was nicht gestimmt hat;)

---------- Post added at 18:20 ---------- Previous post was at 18:15 ----------

Schweeeeeiiiiin jehabt!

Damit hast du allerdings Recht in mehrerer Hinsicht:d

---------- Post added at 18:22 ---------- Previous post was at 18:20 ----------


Grinsi das war das letzte mal mit Vorkasse oder:shot:

Eigentlich sollte man ja meinen das wenn man in Vorkasse geht auch zuvorkommend behandelt wird die Realität sieht leider oft anderst aus
 
Zuletzt bearbeitet:
Meine Theorie bzw. Hoffnung ist ja, dass durch die vorhandene Wärme meines Zimmers (ganzen Tag Sonne + Heizung auf 5 + Fenster zu) für das letzte bisschen Verdunstung gesorgt hat.
Ich teste heut nochmal ausführlich (nach knapp ner Woche ohne Rechner auch bitter nötig).

---------- Post added at 18:29 ---------- Previous post was at 18:24 ----------

Ich würde das eher russisches Hardwareroulette nennen was du da gerade gemacht hast beim nächsten Versuch steckt die "Strombullet" im richtigen Lauf u es reißt dir das ganze System in den Tod wenn du "viel Glück" hast

Allein das die Karte noch Fehler produziert hat war doch eigentlich ein Indiz dafür das elektrisch noch was nicht gestimmt hat;)

Vernunft war noch nie meine Stärke ^^
... Sonst hät ich keine WaKü und bestimmt keine zwei Titanen :fresse2:
 
Grinsi das war das letzte mal mit Vorkasse oder:shot:

Eigentlich sollte man ja meinen das wenn man in Vorkasse geht auch zuvorkommend behandelt wird die Realität sieht leider oft anderst aus

so sieht es aus.
Nachnamezahler werden bevorzugt. Ich hatte ja bestellt als sie vorrätig war und nun schaue ich blöde aus der Wäsche^^
naja, man lernt nie aus.
Alternativ wären Zotac im Zulauf und evgas sind nirgends mehr lieferbar. Zwar gab es evgas zwischendurch, hätte aber auf Rückzahlung warten müssen. Das wäre auch nicht gut gegangen. Wegen Freifahrtschein beim Kühlertausch bleibe ich aber trotzdem bei evga jetzt. Nächsten Monat sollte ich die letzten Scheinchen zusammen haben für die 2. Karte.
Ob ich die auch da bestelle bin ich mir nicht sicher. Kommt aufs Angebot an.

---------- Post added at 18:51 ---------- Previous post was at 18:49 ----------

Vernunft war noch nie meine Stärke ^^
... Sonst hät ich keine WaKü und bestimmt keine zwei Titanen :fresse2:

das Eine hat doch nichts mit dem Anderen zu tun :hmm:
Enthusiastische Vorlieben haben nichts mit Unvernunft zu tun. Der unsachgemäße Umgang mit der HW hingegen schon
 
Asus ist doch fast genau so kulant beim kühlerwechsel wie Evga.
 
Fast so - ja - aber man hat keinen Direktsupport wie bei EVGA, muss immer über den Händler gehen. Da kann es dann doch schwierig werden, manche Händler prüfen die Siegel und spielen gern Sheriff - ohne Grund.
Dazu dauert das meist recht lange. Bei EVGA in der Regel nur eine Woche.
Bei einer 1.000 Euro Karte sollte man den besten Support erwarten dürfen, daher geht für mich nur EVGA.
 
Zuletzt bearbeitet:
also hatte bisher jeden treiber (beta/whql) drauf. generell läuft immer latest. es ist auch kein normaler treiber abstrutz, also driverreset. es kommt dx device removed. wenn man das googelt findet man viel. lief ja auch die ersten wochen.
ka warum das auf einmal nicht mehr oced will, nervt halt :heul:

ps: grad das led tool probiert, funktioniert auch mit nicht-evga karten. hab das dämliche licht ausgeschaltet. :bigok:
 
also hatte bisher jeden treiber (beta/whql) drauf. generell läuft immer latest. es ist auch kein normaler treiber abstrutz, also driverreset. es kommt dx device removed. wenn man das googelt findet man viel. lief ja auch die ersten wochen.
ka warum das auf einmal nicht mehr oced will, nervt halt :heul:

Das ist aber das typische Verhalten bei zu hohen Taktraten. Scheint nicht 100% stabil zu sein.

Ich bin auch gerade etwas am testen. 1200 bei 1,2v sind bis jetzt überall stabil, zumindest hatte ich noch keinen einzigen Reset bei dem Takt. Aber da zieht die Karte schon ordentlich Strom.
 
Probier mal 1,875v bei 1200 MHz, läuft bei mir unter Luft am besten.

---------- Post added at 20:55 ---------- Previous post was at 20:55 ----------

E: 1,1875v
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh