[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Bombenstable läuft mein RAM auch nur mit 3300, schon 3400 geben sporadisch (muss man genau gucken) im 3DMark11 Texturflackern beim Deep Sea Test. Das war da am empfindlichsten.

Meine 680 ging auch mörderisch gut am RAM (dauerhaft mit 3900 ohne Probleme). Auf der DCII waren teils bessere Chips drauf, gab noch ein zwei Leute hier die davon berichtet hatten. Es kann also schon sein.

@Wa1lock
Wozu so nah ans Stabilitätslimit ocen? Bei mir laufen auch 1175, aber keine 1200. Da mir das zu heikel ist und ich keine Lust auf Instabilitäten habe, wurde sie einfach mit 1150 / 1.20v geflasht und läuft ohne das kleinste Problem seit Release damals.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Turrican Einfach der Reiz das Maximum rauszukitzeln :d Wenn ich das nicht mache, dann denke ich immer, dass ich kostenlose Mehrleistung verschenke haha
Deep Sea in Entry, Performance oder Extreme. Lasse ich gleich mal laufen und schaue.
 
Ja ok, nur blöd wenns dann ein neues Game gibt das dir dann doch abschmiert. Ich habe lieber immer etwas Puffer. FarCry3 war da ja beispielsweise recht empfindlich. Das ist mir im Gegensatz zu BF3 nach glaube 10 Min. schon abgeschmiert @1202. 3DMark11 müsste Extreme 1080p gewesen sein. Achte mal drauf ob was flackert, glaube grün wars.
 
Hab mir nen Bios selbst gebastelt und geflashed! Werde mal versuchen mit Wenig OC den Speicher hoch zu schrauben, aber fast 800 ist heftig!
 
@Turrican Okei probier ich gleich mal. FarCry 3 läuft bei mir ohne Probs :)
@Jason Die 796 sind nur, weil ich glatt 3800 haben wollte :d
 
Nene 1200 dann macht der Treiber nen Reset. 1150 immo, 1163 lass ich erst mit Wakü laufen.
Also im Entry Modus sehe ich keine Bildfehler und der soll ja anscheinend anfälliger für RAM OC sein.
 
Zuletzt bearbeitet:
Also wie gesagt. Ich glaube dir einfach nicht. Muss ich auch nicht. Und das soll dir dein Ergebnis auch nicht madig machen. Wenn du für dich entscheidest, dass es fehlerfrei ist, dann soll es so sein.

Mir reichen meine + 250 auf dem Speicher. Die wurden ausgelotet mit dem Treiber welcher noch eher zu Fehlern im 3dm11 neigte und die bleiben auch so. Anders als zu viel GPU oc wird dir nämlich der Speicher irgendwann die grätsche machen und nicht einfach nur den Treiber resetten.
Dafür rennt meine GPU mit 1176 @ 1,189v.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ja leider leidet der Speicher unter OC, hab in Anbetracht des nur geringen Performance-Vorteils jetzt auch mal einen Rückzug auf 3600 MHz (+ 596) gemacht. Der arme Speicher soll mir ja nicht verrecken :fresse: :d
 
Ich lasse meine SLI mittlerweile ganz gemütlich bei 1100 Gpu und 3300 Speicher @ Stock V laufen. Mehr brauch ich eh nicht um meine konstanten 85 Fps zu halten in meinen Spielen (TR, FC3, Warframe usw).
 
Mal ne Verständnisfrage: wofür eigentlich OC bei einer 6GB Videospeicher Karte? Niemand braucht mehr! Wirkt sich das OC noch anders als auf die Größe aus?
 
Mal ne Verständnisfrage: wofür eigentlich OC bei einer 6GB Videospeicher Karte? Niemand braucht mehr! Wirkt sich das OC noch anders als auf die Größe aus?

Das oc wirkt sich immer nur auf die Geschwindigkeit aus, niemals auf die physikalische Größe. Die Karte könnte auch 20GByte Speicher haben und man erhält trotzdem mehr Leistung wenn man den Durchsatz erhöht.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
@NurDemeter


Selbst in meiner Mörder-Auflösung läuft das CPU-Limitiert.
Genau das gleiche mit Rome2



Da ist es völlig LATTE wie klein der Monitor ist. Genau deshalb mein "ob dass das richtige Bench für Bandbreite ist"?

Unterschied PCIe2/3 mit Titan-Sli



BF3 ist über weite Strecken CPU-Limitiert wenn man aktuelle Grakas zu Grunde legt und keinen 5Ghz-Prozessor hat, der mehr als 4 Threads beackern kann. Schau Dir mal an was mein 3930K@4.6Ghz gerade so stemmen kann.


Und wir haben doch hier den Powerplay der das bestätigen kann, die Auslastung der Grakas dauerhaft auf volle Kanne zu halten ist relativ schwer.


Edit: Oben alle Benches mit 4.6Ghz 3930K, nur falls das was mit dem CPU-Limit zu tun haben könnte^^

Ah, da sind die Bilder, ok.

Spiele mal mit den SLI Bits
Also Rome2 hat ein scheiss Sli-Profil , denn Zitat: "Im Umkehrschluss untermauern die Messwerte aber die Aussagen des Entwicklers Creative Assembly, dass bei Total War: Rome 2 die Performance wirklich von der GPU-Leistung abhängt."

Rome 2 im Test - Kernskalierung und Benchmark mit 13 Grafikkarten [Test der Woche]

Und bei dem Shogun2-Screen vom 11.2.2012 , geben Deine bei 85% laufenden GRakas, nur 15 FPS in 5810x1080 - ich seh da kein CPU-Limit.
Die BF4-Beta würd ich jetzt mal nicht als aussagekräftig heranziehen.

Interessant wird's da mit BF3-Multi screen. Im CPU-Test von Pcgh gibt eine 680er mit 3930K@3200Mhz in 1280x720 mehr FPS aus , als Dein System mit wesentlich höheren Takt , 2 Titanen und in 640er Auflösung! Gut, ist ne andere Map mit viel Bewegung und Vegetation, im Vergleich zu Deinem Ausguck von der Mauer. :d
Battlefield 3 Multiplayer im Test: 25 CPUs im Benchmark [Artikel der Woche]

Das würde heissen, je schneller die einzelnen Komponeten und je geringer die Beanspruchug (Bildauflösung), umso langsamer das ausgegebene Resultat----> Highend ad absurdum. :hmm:

Summa summarum: ich find Deine Screens nicht schlüssig.

Um nochmal auf die Leistungseinbussen von PCIe 2.0 gegenüber 3.0 zurückzukommen, so ist festzustellen, dass nur im Multimonitorbetrieb beachtliche Leistungsvorteile von 3.0 zur Geltung kommen. Mono-Monitor-User können noch gelassen ihr X58-Board bei SLI nutzen:
PCI-E 2.0 vs PCI-E 3.0 BATTLE ROYAL!!?! | EVGA Forums
 
Zuletzt bearbeitet:
@JM Das war auch nicht an dich, sondern an Jason. Hatte die Seite noch nicht aktualisiert :)
 
@NurDemeter
Würden bei der Mörder-Auflösung bei Shogun2 die Grakas nicht wundervoll 99% liefern bei nur 15 FPS wenn sie tatsächlich das Limit wären?
 
Zuletzt bearbeitet:
Kann und will ich nicht glauben.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

Mein max ist 3830...danach kann ich nimmer benchen und nix...aber mit 3800 zocken ist kein Thema!

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
ich zock seit freitag auf 2560x1440@120hz (nativ), quasi genau dafür wurde das GTX Titan SLi gemacht :banana:

hammer bq und das SLI frühstückt das lockerst ab. aber selbst in dieser reso in bf3 stellenweise keine 99% :wut:
 
ich will den auch :)
und ja diese Auflösung ios nix für Titan SLI

ich spiel nur noch F1 2013 in 4k oder Crysis 3 in 1440P^^
 
Hab einen kleinen bericht zum X270OC im monitor unterforum. Evtl interessant fuer dich.
 
Sagt mal kann man ein Titan UEFI GOP Bios ebenso einfach editieren?

Ich würde gerne Win8.1 Fastboot ohne CSM nutzen. Das geht ja mit dem normalen Bios nicht? Zumindest wird das Bios bei mir noch angezeigt.
 
alle Titan BIOS sind UEFI GOP Bios und entweder machste Fastboot im Bios oder nicht
was willst da editieren

und Fastboot ist totaler Dreck, weil du dann ohne ins Windows zu booten nicht mehr ins Bios kommst, was aber wenns wegen irgendwas nicht mehr hochfährt?
zumal man maximal 1 mal am Tag den Rechner hochfährt, wegen 5 Sekunden sone Kacke?
 
alle Titan BIOS sind UEFI GOP Bios und entweder machste Fastboot im Bios oder nicht
was willst da editieren

und Fastboot ist totaler Dreck, weil du dann ohne ins Windows zu booten nicht mehr ins Bios kommst, was aber wenns wegen irgendwas nicht mehr hochfährt?
zumal man maximal 1 mal am Tag den Rechner hochfährt, wegen 5 Sekunden sone Kacke?

Genau darum gings mir ja, aber wenn alle UEFI GOP haben ist doch alles ok. Ich hab noch eines der ersten Release Mod-Biose, daher die Frage.

Für mich ist es ein klarer Vorteil, da ich öfter neu starte als ins Bios möchte.

Am Rande bemerkt kann man natürlich immernoch ins Bios, so viel umständlicher ist das auch nicht. :)
Was für dich "Kacke" ist, kann für andere einen Mehrwert bedeuten. ;)
 
der Mehrwert des häufigen schnellen bootens beträfe nur Overclocker die ihre Settings testen, aber sehr oft ins Bios müssen, der Mehrwert ist als wieder dahin
 
Nice to have. Warum deaktivieren wenn mans hat? Außerdem wenn man die Taste mit etwas mehr als 5 Anschlägen pro Minute drücken kann kommt man auch mit dem schnellen Booten noch ins UEFI.
 
Selbst mit Taste hämmern schaffe ich es nicht ins uefi zu kommen.

Gesendet von meinem HTC One mit der Hardwareluxx App
 
weil diese Funktion einfach mal totaler Käse ist ^^
die hat nur Sinn wenn ich 50 mal am Tag meinen Rechner hochfahre, wer macht das?
mal abgesehen eben von Overclockern denen ständig irgendwas mit Bluescreen abreihert und eben genau diese wollen alle Furz lang ins Bios

versteh den Sinn nicht, und 1 mal am Tag 40 Sekunden statt 20 Sekunden hochfahren, ahja... :)
 
Wie geschrieben, muss jeder für sich entscheiden ob das Quatsch oder "Kacke" ist. :)
Es gibt Dinge die finde ich an deinem Sys auch unnötig, in denen ich sogar gar keinen Nutzen sehe, dir diese Meinung aufzwingen muss ich aber nicht. ;)

Mein MB hat übrigens einen DirectKey, so kann ich einfach direkt ins Bios booten oder neu starten lassen.
Übrigens overclocke ich in Win oder lote Spannungen in Echtzeit aus, das ist viel komfortabler als übers Bios. Die letztendlichen Werte stelle ich nur noch händisch im Bios ein. Das als Tipp.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh