[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Ein 6 Kerner hilft nur in Spielen/Anwendungen die auch 6 Kerne supporten. Ansonsten ist man auch mit einem Taktstarken i5/i7 Sandy Ivy Hw gut aufgestellt. Ein Größerer Monitor würde den Flaschenhals nur etwas mehr in richtung GPU verschieben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm ok dank dir. Muss ma überlegen was ich da dann mach.
 
Ein SLI muss auch ordentlich gefüttert werden, auf Full HD brauchst du da mindestens ne 5Ghz Ivy um die Karten Ordentlich mit daten zu füttern.

Och bitte, nicht schon wieder diese Leier.
Ich weiß ja, es gibt Leute die stehen auf Pauschalitäten, aber so einfach isses nun mal nicht.

Mit einem 5Ghz 4-Kerner ohne HT bist Du z.b. bei der BF4-Beta auch in Arsch gekniffen. Da brichts Dir auf 2 FPS ein, weil nicht genug Threads abgearbeitet werden können.
Und es ist ein Unterschied ob man einfach stur ein CPU-Limit ausschließen möchte, oder ob man jemand ist der einfach nur "vernünftige" FPS haben möchte. Wobei "vernünftig" wieder ein Wert ist dem man definieren müsste. Da versteht jeder was anderes drunter. Im ersten Fall würde bestimmt auch keine 5Ghz reichen, wenn ich ein 3DMark06-Spieler bin.

Und das beste ist:
a) jedes Game ist da völlig verschieden in Bezug auf die geforderte CPU-Leistung
b) jedes Game hat unglaublich viele Einsteller mit denen man es an die vorhandene CPU-Leistung anpassen kann

Ich würde ja meine BF3-Bildchen von der letzten Seite wieder rausholen, aber dann schlachtet mich Naennon
 
Zuletzt bearbeitet:
Ich habe BF3 mal von 12 auf 4 Threads abgerüstet, nur zum Test. Min. Frames lagen aber noch bei knapp über 20. Diese extremen SlowDowns sind irgendwelche Bugs, treten auch nicht bei jedem auf.

Wie ist das eigentlich, falls man auf AMD umsteigen möchte, dann braucht man für PhysX noch eine NVidia im Rechner oder klappt das gar nicht zusammen dann?
 
Ja. Zumindest wenn man PhysX wirklich braucht. So viele Spiele unterstützen das ja nicht und die Effekte sind nett, aber eigentlich nicht essentiell.
 
Wenn das zur Not ginge, müsste ich mal schauen dann. Wer weiß ob die AMD überhaupt schneller sind. Mir hat PhysX bislang sehr gut gefallen und missen wollt ichs auch nicht.

BTW: Was ist schon wirklich essentiell? Das könnte man auch zu AA & Co. sagen. :)
 
naja, es gibt viele Möglichkeiten einer Unlust gegenüber der bei sich verbauten HW entgegen zu steuern. Umrüsten auf die neue AMD wegen ner Hand voll fps in Bereichen wo sich 5-10 fps nicht bemerkbar machen ist für mich sinnlos. Ebenso die 880 die dann direkter Konkurrent zur neuen AMD wird. Für meinen Teil werde ich noch länger mit dem SLI zufrieden sein und denke das ich die nächste Gen auslassen werde.
 
Ich würde ja meine BF3-Bildchen von der letzten Seite wieder rausholen, aber dann schlachtet mich Naennon

Nein ;)
Aber du stellst damit Extreme dar und nicht die Realität.
Tatsächlich haste aber Recht, kein Mensch braucht ne 5GHz Ivy bei nem Titan SLI, einfach 4k und Grakalimit ;)
 
Na ich stelle die Extreme da, damit man sieht dass die Wahrheit irgendwo in er Mitte liegt^^
 
Hab schon gesehen das teilweise die Auslastung nur noch bei 80% lag.

ein titan sli ist zunächst auch incht umbedingt dafür gedacht, 1080p zu fahren... wenn du ein titan sli richtig ausfahren willst, benutzt du in der regel ds und div. aa filter. sonst kannste auch mit 2x 770gtx zocken...

4,4k valley sind mit 1000mhz gpu takt auch garnicht sooo schlimm, wie ich finde. hab ca. 5.5k mit 1.2ghz gpu und 4.9ghz cpu. sieht mir ganz normal aus. ka wo das problem liegt, abgesehen davon, dass du mit 1080 einfach schwer 99% gpu last auf einem titan sli erzeugst :teufel:
 
Zuletzt bearbeitet:
Bei MaxPayne3 liegt die Auslastung des SLI sogar bei kleinerer Auflösung als 1080p immernoch bei 99-98% :fresse: 5870x1080 ist dafür anscheinend zu heftig. Ich glaube da benötigt es doppelter Rechenpower. Der will über 9GB Ram bei der Einstellung. Weiß jetzt nicht ob ich den Wert ebenso teilen müsste wie die angezeigten verfügbaren 12GB+. Wenn nicht, ists Ramlimit überschritten. Die CPU spielt hier wohl eine eher untergeordnete Rolle.
 
Bei MaxPayne3 liegt die Auslastung des SLI sogar bei kleinerer Auflösung als 1080p immernoch bei 99-98% :fresse: 5870x1080 ist dafür anscheinend zu heftig. Ich glaube da benötigt es doppelter Rechenpower. Der will über 9GB Ram bei der Einstellung. Weiß jetzt nicht ob ich den Wert ebenso teilen müsste wie die angezeigten verfügbaren 12GB+. Wenn nicht, ists Ramlimit überschritten. Die CPU spielt hier wohl eine eher untergeordnete Rolle.

Teilen musst Du nur wenn Du AMD-Grakas hast. Bei Nvidia wird es ganz normal angezeigt. Und die "Low-FPS" gibts glaube ich nur an den Zwischensequenzen. Falls sich jetzt jemand über meine Graka-Auslastung wundert^^
 
Zuletzt bearbeitet:
Die Chips sind ja sehr nah am Rand. Müsstest du ja eigentlich erkennen können wenn du in die Spalte guckst.

So Freunde, der Herculez Kühler ist grad eingetrudelt. Ich mach mich dann mal an den Umbau.

----------

Der Kühler ist DER HAMMER!

1) Leise und das wichtigste ich kann keine Nebengeräusche feststellen
2) Kühlt astrein

Habe Skyrim mit HD Texturen + downsampling auf 2560x1440 und dann an eine Stelle gestellt im Außenbereich wo man viel sehen kann und die Karte das Powertarget beinahe ausreizt. GPU Load zwischen 90 und 100. Die Karte erreichte maximal 59 Grad mit Autolüfter welcher laut Precision in dem Fall mit etwa 37% läuft. Lautstärketechnisch quasi wie im Idle.

Braucht nur wie bereits erwähnt wurde einen Slot mehr. Wenn ihr diesen entbehren könnt kann ich den Kühler Wärms.... ehm Kühlstens :d empfehlen.

Dickes Ding aber ich finde ihn sehr ansehnlich.
 
Zuletzt bearbeitet:
Frage in die Runde der SLI Nutzer. In Crysis 3 hab ich an der Stelle mit dem Raketenturm und der Wiese nur eine Auslastung beider GPUs von 60-70%. FPS liegt in der Gegend bei 42-60. Zur Gegenprobe mal Far Cry 3 gespielt und da ist die Auslastung wieder bei 95-103%. Ist Crysis kaputt? Alle Settings auf Sehr hoch mit 8x MSAA.

Treiber ist 331.40 ohne Inspector Modifikationen.
 
würde evtl 0.5er Pads besorgen, oder wlp drauf machen
 
Macht nicht viel Sinn. Auf der Rückseite der Backplate, also die Seite die auf das PCB zeigt, ist eine sehr Stark klebende Folie aufgebracht. Ich hab versucht sie abzuziehen aber die klebt so fest darauf und in der Anleitung wird auch nichts erwähnt davon das man sie abziehen soll, dass ich davon ausgehe das die da bleiben soll.
 
aus welchem Material ist die BP? Metalle leiten, vielleicht als "Schutzschicht" um eventuelle Risiken auszuschließen.
 
Laut Produktbeschreibung dürfte es Aluminium sein. Daher wird das wohl der Grund sein. Die EVGA Backplate hatte ja auch an einigen Stellen einen Folienstreifen angebracht mit ähnlich aggressivem Klebeverhalten.
 
Frage in die Runde der SLI Nutzer. In Crysis 3 hab ich an der Stelle mit dem Raketenturm und der Wiese nur eine Auslastung beider GPUs von 60-70%. FPS liegt in der Gegend bei 42-60. Zur Gegenprobe mal Far Cry 3 gespielt und da ist die Auslastung wieder bei 95-103%. Ist Crysis kaputt? Alle Settings auf Sehr hoch mit 8x MSAA.

Du erinnerst Dich dass die Wiese praktisch vollständig von der CPU gewuppt wird und dort auch mehr als 4 Kerne eingespannt werden können. Nicht dass sie da einfach zu "schwach" für Deine Settings ist.
Kurz mit dem Takt spielen (egal ob hoch oder runter) und schon weißt Du ob es die CPU ist, wenn sich die FPS analog dazu ändern.

Das ist wahrscheinlich einer der Gründe warum hier immer gepredigt wird "SLI-braucht halt 5Ghz". Und wieder eins der Beispiele wo Takt nicht alles ist :-)
 
Zuletzt bearbeitet:
Jop, ich teste heute Abend nochmal. Das geilste war als der PC einfach ausging. Und das ohne Titan OC. Das shice Netzteil ist grad mal 3 Monate alt.... vielleicht sollte man die Doppel PCIE Kabel doch net benutzen :fresse:
 
welches Netzteil? meiner ging vor Zeiten auch mal aus
 
Corsair AX860

Bekomme morgen leider erst ein Verbrauchsmesser. Deswegen geh ich jetzt mal von aus dass es das NT ist.
 
hab jetzt nen 1000er Multirail

und jede GTX an ner eigenen, glaub ich ^^
 
Ja, das änder ich heute auch mal das jede Karte seine eigene Zufuhr bekommt. Ich hab das Gefühl dass es daran lag. Und wenn nicht dann kommt halt ein stärkeres NT rein.
Fällt grad ein das wir hier ja ein Corsair Forum haben. Ich frag da mal nach
 
Frage in die Runde der SLI Nutzer. In Crysis 3 hab ich an der Stelle mit dem Raketenturm und der Wiese nur eine Auslastung beider GPUs von 60-70%. FPS liegt in der Gegend bei 42-60. Zur Gegenprobe mal Far Cry 3 gespielt und da ist die Auslastung wieder bei 95-103%. Ist Crysis kaputt? Alle Settings auf Sehr hoch mit 8x MSAA.

Treiber ist 331.40 ohne Inspector Modifikationen.

Damit in den Wiesen-Level die CPU bei Crysis 3 nicht limitiert, muss ich meinen Haswell (4770k) auf mindestens 4,3GHz laufen lassen, beim 3770K zuvor waren es 4,7GHz.

Trill
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh