[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wenn du den VRAM auf stock lässt, geht dann auf der GPU mehr? Weil gerade das Powertarget ist doch so häufig der Grund warum es nicht weiter raufgeht. Oder ist 1200 generell so ein Limit, unabhängig vom PT?

Sicher, man könnte den VRAM@stock laufen lassen um so ein paar Mhz mehr für GPU zu gewinnen. Aber mit offenem Bios überhaupt nicht notwendig, einfach das Powertarget höher einstellen und die GPU läuft wieder mit Fullspeed. OCCT oder auch FurMark sind deutlich Stromhungriger als Games. Beide Programme kommen mit meinen Taktraten spielend an die mir auferlegte Powertargetgrenze von 140%. Games wie z.B. FarCry3 kommen bei voller GPU Auslastung gerade mal auf 115%, heißt also im Umkehrschluss das Games nicht gedrosselt werden.

Hast Du eine WaKü drauf und trotzdem werden die SpaWas 90°C?

Der Heatkiller von Watercool sitzt auf der Karte. Die GPU wird hervorragend gekühlt. Ob die SpaWas im Vergleich zu anderen Kühlern zu hoch sind weiß ich nicht. Vielleicht ist ja jemand so frei und schaut sich seine eigenen SpaWa-Temps mal unter OCCT genauer an.
 
Verändert ihr mit den offenen Biosen noch das Powertarget per Software? Muss man das wirklich?
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Verändert ihr mit den offenen Biosen noch das Powertarget per Software? Muss man das wirklich?

Ich kenne nur das Engineringbios mit offenem Powertarget das dann per Software hochgestellt werden muss. Der Max. Powertargetwert ist in diesem Bios auf 386%/965W gesetzt. Der Wert bei 100% Powertarget ist auch in diesem Bios immernoch bei 250W. Da mir das Engineringbios aber ein bißchen zu Hot ist habe ich die offenen Powertargetwerte mit einer vernünftigen Grenze von 140% in mein Originalbios eingepflegt.

@OC_Burner,
ich habe mal mit dem InfraRotScanner ScanTemp 380 die Rückseite der GrafKa abgescannt. Mehr als 52° C konnte ich nicht messen. Was soll OCCT messen, wenn die Karte keine Sensoren in den Spawas hat. Ich kenne zwar das Programm nicht, aber ich wüsste auch nicht, dass die Karte Messsensoren im Berecih der Spawas hätte (oder doch?!).

Die Rückseite wird bei mir auch nicht warm. Eigentlich meine ich OCCT nicht zum auslesen sondern zum einheizen der Grafikkarte. Ein externer Fühler muss dann das Messen der Temperatur erledigen.
 
Zuletzt bearbeitet:
@TurricanM3,
wenn Du die GPU nur bis 1.175 MHz taktest und vor allem das VRAM nicht so hoch ziehst (max. 1.625 MHz, jedenfalls bei mir), sollte die Karte stabil bleiben.

Ja mag sein, aber das ist mir zu knapp an der Stabilitätsgrenze. Ich hab nun 1150/3300 mit 1.200v geflasht. Mit dynamischer Spannung (1.167) ist mir FC3 auch mit 1150 abgeschmiert. Die letzten 25MHz sind mir evtl. Instabilitäten einfach nicht wert.

Ich kenne nur das Engineringbios mit offenem Powertarget das dann per Software hochgestellt werden muss. Der Max. Powertargetwert ist in diesem Bios auf 386%/965W gesetzt. Der Wert bei 100% Powertarget ist auch in diesem Bios immernoch bei 250W. Da mir das Engineringbios aber ein bißchen zu Hot ist habe ich die offenen Powertargetwerte mit einer vernünftigen Grenze von 140% in mein Originalbios eingepflegt.

Wenn die Karte aber ingame @max. Boost läuft (sehe es im OSD), dann braucht man das PT doch nicht noch erhöhen, oder bringt das sonst noch was? Woran siehst du denn, dass dein Bios bei 100% die 250W hat, im KBT? Da stehen bei meinem Mod-Bios 300W.
 
Zuletzt bearbeitet:
Der Heatkiller von Watercool sitzt auf der Karte. Die GPU wird hervorragend gekühlt. Ob die SpaWas im Vergleich zu anderen Kühlern zu hoch sind weiß ich nicht. Vielleicht ist ja jemand so frei und schaut sich seine eigenen SpaWa-Temps mal unter OCCT genauer an.

Über 60°C komme ich nicht, gemessen im Bereich der Wandler.
 
Wenn die Karte aber ingame @max. Boost läuft (sehe es im OSD), dann braucht man das PT doch nicht noch erhöhen, oder bringt das sonst noch was? Woran siehst du denn, dass dein Bios bei 100% die 250W hat, im KBT? Da stehen bei meinem Mod-Bios 300W.

Ausgehend von 250W im Bios kann dir der NVIDIA Inspector die aktuelle Power Level Auslastung anzeigen. Wird dort 100% angezeigt und deine Karte läuft nicht mit vollem Boost ist der PT-Wert zu gering eingestellt. Wird das PT erhöht (z.B. auf 120%) dann muss die Power Level Auslastung auch auf 120% steigen damit der Boost wieder geringer taktet. Ob das mit einem Mod-Bios wo die 250W durch 300W ersetzt wurden auch noch so funktioniert kann ich dir nicht sagen.

Über 60°C komme ich nicht, gemessen im Bereich der Wandler.

Nur 60°C bei voller Übertaktung im Programm OCCT? Wie hoch ist den dein PT? Hast du Wärmeleitpads oder Paste zwischen den Wandlern?
 
Zuletzt bearbeitet:
Also im allg. sind die Wandlertemperaturen bei der Titan kein Problem, das sind normal Bauteile bei denen man sich auch über 100°C keine Sorgen machen muss. Und die bleiben hier wirklich recht kühl.
 
Irgendwie bitter das eure Temps so deutlich niedriger sind.

Sorry wenn ich ein bißchen penetrant sein sollte, eure Fühler stecken an der gleichen Stelle?



Nochmals genauer (Volle GPU Auslastung bei 31°C Wasser und entsprechender PowerTarget-Auslastung:

kein OC
Games [100%PT | 100%PT-Auslastung | 250W=66°C]
OCCT [100%PT | 100%PT-Auslastung | 250W=69°C]

mit OC
Games [140%PT | ca.115%PT-Auslastung | 288W=75°C]
OCCT [140%PT | 140%PT-Auslastung | 350W=90°C]
 
Na, an der Stelle messe ich auch.
350W für die GPU ist schon ne Hausnummer, so hoch hatte ich noch nicht mit OCCT getestet.
Bei 315W GPU habe ich 62°C.
Hat dein Wandler richtig, ordentlich Kontakt mit dem Kühler?
 
Hat dein Wandler richtig, ordentlich Kontakt mit dem Kühler?

Wenn der Temp-Sensor dazwischen klemmt eher nicht. :fresse:

Die Watercool Pads sind ja mal ganz schön dick.

Hast du einen Abdrucktest gemacht, OC_Burner?
Ich könnte bei Interesse mal den AC-Kühler messen.
 
Hab drei Monitore an einer Titan (3240x1920). Jedoch wenn ich Surround aktiviere steht bei einem der drei Monitore das Bild auf dem Kopf! Nur finde ich keine Einstellung für einen Monitor im Surround Betrieb um das Bild um 180° zu drehen? Kann man das nur für alle drei gleichzeitig machen?! Weil dann stehen die anderen zwei natürlich auf dem Kopf. Kann doch nicht sein...
 
Die Watercool Pads sind ja mal ganz schön dick.

Nicht wirklich, die sind eigentlich recht dünn. In etwa halb so dick wie die originalen Nvidiapads.
Habe den Kühler vorhin abgenommen und festgestellt das die Pads zwar Abdrücke hatten, allerdings sehr schwache. Der Zwischenraum zu den Wandlern und der Kühlerfläche ist ziemlich groß, wobei die Pads diesen gerade mal so ausfüllen. Die grünen Nvidiapads sind besser geeignet, zumindest sagen das die Temperaturen.



Mit grünen Nvidia Originalpads bei voller GPU Auslastung, 31°C Wasser und entsprechender PowerTarget-Auslastung:

kein OC
Games [100%PT | 100%PT-Auslastung | 250W=58°C]
OCCT [100%PT | 100%PT-Auslastung | 250W=59°C]

mit OC
Games [140%PT | ca.115%PT-Auslastung | 288W=66°C]
OCCT [140%PT | 140%PT-Auslastung | 350W=78°C]
 
Zuletzt bearbeitet:
@mrmiagi0101
Du hast die Monitore im Pivot. Dann musste wohl oder übel den Monitor drehen. Hab ich beim Zusammenbau meiner 3 Monitore auch schon gemacht den Fehler^^
Und da meine Monitore mit Schrauben aneinander fixiert werden, hat das gleich mal 30 Minuten Arbeit bedeutet :-)
 
Wenn Du nur den "auf dem Kopf" Monitor mal alleine betreibst? Was passiert dann?

Dann ist er auch falsch, jedoch kann ich ja dann Hochtformat gedreht einstellen und es stimmt wieder. Nur leider gibt es wohl unter NVidia Surround für die einzelnen Monitore keine Einstell Möglichkeit.

---------- Post added at 16:19 ---------- Previous post was at 16:16 ----------

@mrmiagi0101
Du hast die Monitore im Pivot. Dann musste wohl oder übel den Monitor drehen. Hab ich beim Zusammenbau meiner 3 Monitore auch schon gemacht den Fehler^^
Und da meine Monitore mit Schrauben aneinander fixiert werden, hat das gleich mal 30 Minuten Arbeit bedeutet :-)

Jo, hatte es ja erst passend. Nur dachte ich mir heute bau mal um, da der obere Rand von den Monitoren schmäler ist als der untere und ich so den Abstand verkleinern wollte zwischen ihnen. Unter Windows geht es ja wunderbar, nur im Surround Mode leider wohl nicht... Dann bau ich wohl wieder zurück.
 
Dann war die erste Installation wohl doch nicht so gelungen.
Ich hatte mich schon gewundert, dass Du zwischen Pad und Spawa noch einen Termosensor klemmen kannst. Bei mir passt noch nicht einmal ein Schamhaar zwischen rein.:d:lol:

Nunja der war nicht zwischengeklemmt sondern nur an die Chipkante angelegt.
 
Nicht wirklich, die sind eigentlich recht dünn. In etwa halb so dick wie die originalen Nvidiapads.
Habe den Kühler vorhin abgenommen und festgestellt das die Pads zwar Abdrücke hatten, allerdings sehr schwache. Der Zwischenraum zu den Wandlern und der Kühlerfläche ist ziemlich groß

Verglichen mit den AC Pads ist das immer noch sehr dick. Scheinbar geht WC da auf Nummer sicher und hat sich für mehr Zwischenraum + dickeres Pad entschieden.
Das PCB bei mir ist auch leicht schief wegen dem Anpressdruck. Ob du nun aber 20-30º mehr hast spielt eh keine Rolle.
 
hätte ne frage zum pt beim offenen bios. habe eines hier ausm fred. das pt steht immer auf 100% und lässt sich auch nicht erhöhen. im bios steht für 100% schon 300W drin, bin aber trotzdem verwundert, dass man es nicht über die 100% regeln kann im precision. ist das normal?
 
Vermutlich, ist aber auch unerheblich.

Denn selbst wenn Du softwareseitig das PT auf über 300W angeben könntest, ist hardwareseitig bei 300 definitiv Schluss, da 6+8pin+PCIe X16 Slot zusammen ja höchstens 300W erlauben. ;)
 
Zumindest theoretisch, ich denke aber, dass man auch 350W nur über 6+8pin ziehen kann, vorausgesetzt das Netzteil macht das mit.
Ich kann mir also nicht vorstellen, dass da eine Hardwareschranke drin ist, die die Leistung bei 300W abriegelt.
 
Das mit dem Regler im Precision hat mich einfach etwas irritiert, da man den vor dem Flash halt noch auf 106% stellen konnte und nun bei 100% schon Schluss ist.

Da mir die zwei Titans mittlerweile zu laut sind unter Luft habe ich nun mal eine kleine Wakü Einkaufsliste erstellt. Ich würde mich über eure Ratschläge und Erfahrungen sehr freuen.
 
Vermutlich, ist aber auch unerheblich.

Denn selbst wenn Du softwareseitig das PT auf über 300W angeben könntest, ist hardwareseitig bei 300 definitiv Schluss, da 6+8pin+PCIe X16 Slot zusammen ja höchstens 300W erlauben. ;)

Zum einen kann man das Limit doch softwareseiteig aufheben, zum zweiten ist zwar in der Theorie bei 300W Schluss, aber in der Praxis kannste so viel über PCIe Slot und 6Pin + 8Pin ziehen bis irgendwas raucht. Also im Peak habe ich der Karte sicher schon 400 Watt abverlangt, wenn das reicht ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh