[User-Review] GTX480 - OC, Tests, Benches, Verbrauch, Bios, Wakü Umbau - User Review (2)

Ah da wärs ja schon gewesen danke, ganz übersehen.
Naja nur für etwas mehr Speichertakt die angenehmen 0.95V opfern mag ich dann doch nicht, mal guggen ob und was die 750/1500 in Games bringen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@holdrio: Im Teil 1 wurde das auch schon mehrfach diskutiert. Nicht der Speicher selbst, sondern der Speichercontroller limitiert hier und der ist integraler Teil der GPU (auf dem Die). Mehr Spannung auf GPU->höherer Takt. Der RAM selbst könnte noch wesentlich mehr..
 
msi gtx 480

so habe mal etwas getestet


komme nicht höher ----core clock 850
----shader clock 1700
----memory 2000


volt 1.150


luftkü im moment noch


Mfg

Blueface
 
Zuletzt bearbeitet:
So das Werk ist vollbracht...... jetzt ist endlich ruhe und die Karte ist schön kühl.....
 
@blueface

Das ist doch schon recht ordentlich unter Luft.
Mit was hast du auf Stabilität getestet?

1.150v unter Luft sollten schon recht schwer zu kühlen sein?!


Sent from my iPhone using Hardwareluxx
 
Ich würde OCCT GPU Test für die 24/7 Einstellungen zum testen nehmen.
 
Mir ist aufgefallen das man seit der neuen Treiberversion in der NVIDA Systemsteuerung einstellen kann ob PhysX von der GPU oder der CPU berechnet werden soll, mir kommts so vor als hätte ich wenn ich auf CPU stelle mehr Frames...

Hat vielleicht mal jemand Zeit/Lust nen Frameverlauf zu machen, vom selben Game, einmal mit PhysX auf GPU und einmal auf CPU ?
 
Mir ist aufgefallen das man seit der neuen Treiberversion in der NVIDA Systemsteuerung einstellen kann ob PhysX von der GPU oder der CPU berechnet werden soll, mir kommts so vor als hätte ich wenn ich auf CPU stelle mehr Frames...

Hat vielleicht mal jemand Zeit/Lust nen Frameverlauf zu machen, vom selben Game, einmal mit PhysX auf GPU und einmal auf CPU ?

Die Option gibt es seit Jahren, nur war sie nicht so offensichtlich benannt
Vorher hieß es schlicht GPU-Physx aus, das bedeutet ja zwangsläufig CPU-Physx
(Es sei denn man hat noch ne Ageia-Karte, dann wird die aktiviert).

Mehr Frames bei CPU-Physx? Bei was? Beim Anzeigen des Desktops?
Bei einem Spiel (welchem?)? Beim benchen (von was?)? Beim fernsehschauen?
Musst schon etwas konkreter werden.

Bei manchen Spielen kann das durchaus sein. Weniger weil die GPU eh schon am
Limit ist und Physx zusätzlich rechnen muß, ne 480er sollte momentan schnell genug für alles sein. Es sei denn du testest mit VSync off auf maximale FPS, dann zwackt Physx natürlich was ab von der Power.
Viel eher aber weil die Games, die tatsächlich GPU-Physx benutzen und nicht nur
die Physx Physik-Bibliothek, dann zusätzliche Effekte und Berechnungen machen.
Die werden bei CPU-Physx einfach abgeschaltet, daher kannst du da schon
mehr Frames, aber mit weniger Eye-Candy haben.
 
Zuletzt bearbeitet:
hmm wenn ich den Ablauf jetzt richtig verstanden habe...
- also als erstes teste ich die 4 Taktstufen die ich haben will auf Stabilität (ich bevorzuge da auch das OCCT).
- anschliessend mit dem Fermi Bios Editor die Werte abändern.
- dann zuletzt das nvidia flash tool laden und das per Fermi Editor erstellte BIOS dann flashen?

weil verstehe das mit dem anschliessendem freischalten noch nicht, was ich hier immer lese!? Sorry hab davon noch echt noch keinen richtigen Plan. Wäre echt nett wenn mir das noch mal einer genau erklären könnte! Bevor ich das mache...:fresse:
 
So in etwa sieht das anhand eines Beispiels mit dem Fermi Editor bei der 470er aus (war damals aber lange vor v1.4 - nun geht es noch komfortabler):

http://www.hardwareluxx.de/community/14531981-post153.html

Freischalten = Sonst max. 1.138V bei der 480er -> dann bis zu 1.213V möglich per Software wie NVIDIA Inspector oder Afterburner.


Das komplette Paket inkl. HP USB Tool, NVFlash 5.93 usw. gibt es btw. im Guide Thread (siehe meine Signatur). ;)


mfg
Edge
 
Zuletzt bearbeitet:
Mir ist aufgefallen das man seit der neuen Treiberversion in der NVIDA Systemsteuerung einstellen kann ob PhysX von der GPU oder der CPU berechnet werden soll, mir kommts so vor als hätte ich wenn ich auf CPU stelle mehr Frames...

Hat vielleicht mal jemand Zeit/Lust nen Frameverlauf zu machen, vom selben Game, einmal mit PhysX auf GPU und einmal auf CPU ?

Welches Game willste denn da getestet haben?
 
So in etwa sieht das anhand eines Beispiels mit dem Fermi Editor bei der 470er aus (war damals aber lange vor v1.4 - nun geht es noch komfortabler):

http://www.hardwareluxx.de/community/14531981-post153.html

Freischalten = Sonst max. 1.138V bei der 480er -> dann bis zu 1.213V möglich per Software wie NVIDIA Inspector oder Afterburner.


Das komplette Paket inkl. HP USB Tool, NVFlash 5.93 usw. gibt es btw. im Guide Thread (siehe meine Signatur). ;)


mfg
Edge

Besten Dank :bigok:
ok verstehe...das freischalten bezieht sich also nur auf die erweiterte Spannungserhöhung bis max. 1.213V!
 
so habe mal etwas getestet


komme nicht höher ----core clock 850
----shader clock 1700
----memory 2000


volt 1.150


luftkü im moment noch


Mfg

Blueface

Mit dem Ergebnis kannst du doch recht zufrieden sein ;)

Unter Luft macht meine 480er auch nicht mehr als 880 mit 1,213V
Mich würde mal interessieren, ob du mit etwas mehr VGPU mehr Takt erzielst? Oder ist da bei dir das Limit erreicht?
 
Ja, gibts seit den 25x.xx Treiber.
Aber testen kann mans ja mal trotzdem!!

btw ... geiler Sieg :bigok:

Ähem, dass es so heißt gibt es seit den 25x Treibern.
Die Funktion selbst existiert seitdem NVidia Ageia gekauft hat und GPU-Physx
anbietet.

@Rabauke: Würde mich schon interessieren, bei was dir der Frameverlust
aufgefallen ist.
 
Zuletzt bearbeitet:
Ähem, dass es so heißt gibt es seit den 25x Treibern.
Die Funktion selbst existiert seitdem NVidia Ageia gekauft hat und GPU-Physx
anbietet.

.

Aber nicht als Cpu Physik;)

Vielleicht gibt es seitens Nvidia ja nun doch Bestrebungen PhysX für die breite Masse zu ebnen.

Wobei ich diese Option im Treiber imo noch skeptisch sehe ob sie das wahre Potential aus der CPU überhaupt schöpft oder doch eine "Künstliche" Bremse eingebaut ist um die Vorteile von GPU PhysX hervorzuheben


Off Topic: :banana::banana:Man ich komm heim und dann so ein geiles WM Spiel!!:banana::banana:
 
Zuletzt bearbeitet:
Aber nicht als Cpu Physik;)

Vielleicht gibt es seitens Nvidia ja nun doch Bestrebungen PhysX für die breite Masse zu ebnen.

Wobei ich diese Option im Treiber imo noch skeptisch sehe ob sie das wahre Potential aus der CPU überhaupt schöpft oder doch eine "Künstliche" Bremse eingebaut ist um die Vorteile von GPU PhysX hervorzuheben

Ähem, nein.
Der neue Schalter "CPU-Physx" ist nur der umbenannte alte Schalter
"GPU-Physx off", nichts weiter.

Um das vorliegende Missverständnis aufzuklären:
Physx besteht in erster Linie mal aus einer Software-Bibliothek, die Routinen
zur Berechnung physikalischer Vorgänge enthält.
Diese Routinen können von einer CPU, einer Ageia-Karte oder dank NVidias
Übersetzungsbibliothek CUDA auch von einer GPU abgearbeitet werden.
Z.b. gibts es DAS SELBE Physx auch bei Konsolenspielen, ohne spezielle Hardware.
Vorteil der GPU ist die deutlich höhere Parallelisierung, mehr Routinen können
gleichzeitig berechnet werden, das nutzen manche Spielentwickler für
ZUSÄTZLICHE Effekte bei GPU-Physx.
Gibt auch viele Spiele die Physx-Routinen nutzen ohne eine GPU zu brauchen.

Bei dem alten Schalter GPU-Physx off wurde also GENAU SO wie beim neuen
CPU-Physx die Physx-Berechnung von der CPU durchgeführt, da ist jetzt
nichts hinzugekommen. Nur die Bezeichnung ist jetzt etwas eindeutiger.

Schaltet man also im Spiel die (für die GPU) erweiterten zusätzlichen Effekte
ein und leitet die Berechnung auf die CPU, was bisher auch schon genauso möglich war, bricht die Leistung beim neuen Schalter auch genau so ein
wie beim alten.

Fakt ist, die CPU kann heutzutage bei parallelen Berechnungen der GPU absolut
nicht das Wasser reichen. Die hartnäckigen Gerüchte, Physx könnte in vollem
Umfang ebenso gut auf der CPU gerechnet werden sind Käse.

Und ob NVidia jetzt künstliche Bremsen für die CPU eingebaut hat oder nicht,
ist letztendlich egal, die CPU kann einfach hier nicht mithalten.

Physx gab und gibt es also schon von Anfang an für die breite Masse.
Nur die zusätzlichen Möglichkeiten, die eine GPU eröffnet, wurden irgendwann
von NVidia für Nicht-NVidia-User gesperrt.
Finde ich persönlich nicht gut, aber NVidia hat nun mal viel Geld dafür ausgegeben und glaubt, so mehr Gewinn einfahren zu können.
 
Zuletzt bearbeitet:
Ähem, nein.
Der neue Schalter "CPU-Physx" ist nur der umbenannte alte Schalter
"GPU-Physx off", nichts weiter.

Wenn dem so ist wäre CPU PhysX eine Mogelpackung da der CPU die entsprechenden Biblioteken von PhysX bisher nie im vollem Umfang zur Verfügung standen so wie das bei Havok der Fall ist.

PhysX mit einer modernen Mehrkern CPU wäre sicherlich ebenso leistungsfähig wie es die Havok Engine(Bibliotek) von Intel ist nur hat das Nvidia bisher immer ausgebremst.

In wie weit der Button CPU PhysX jetzt dem alten PhysX Off im Treiber entspricht ist glaube ich noch nicht vollends geklärt


Aber das ist hier irgendwie schwer OT;)
 
Zuletzt bearbeitet:
Wenn dem so ist wäre CPU PhysX eine Mogelpackung da der CPU die entsprechenden Biblioteken von PhysX bisher nie im vollem Umfang zur Verfügung standen so wie das bei Havok der Fall ist.

PhysX mit einer modernen Mehrkern CPU wäre sicherlich ebenso leistungsfähig wie es die Havok Engine(Bibliotek) von Intel ist nur hat das Nvidia bisher immer ausgebremst.

In wie weit der Button CPU PhysX jetzt dem alten PhysX Off im Treiber entspricht ist glaube ich noch nicht vollends geklärt


Aber das ist hier irgendwie schwer OT;)

Äh, jetzt wirds wirklich off topic, aber so kann ich das nicht stehen lassen.

Zu 1: Meine Aussage ist genau das Gegenteil.
-Der CPU steht schon immer die komplette Physx-Bibliothek zur Verfügung.
-Die CPU kann alles an Physx berechnen was auch die GPU kann, nur nicht soviel davon auf einmal.
-Da moderne GPUs WESENTLICH MEHR, dafür aber weniger komplexe Aufgaben
GLEICHZEITIG abarbeiten können als JEDE Mehrkern-CPU, und Physik genau
das braucht, sind sie leistungsfähiger dafür und deshalb aktivieren manche
Spiele zusätzliche Effekte. Nicht weil die CPU die Aufgabe an sich nicht könnte, sondern weil die CPU die Fülle der Aufgaben nicht gleichzeitig schafft.
Beispiel: Rauch, Flüssigkeiten, Explosionstrümmer.
Jedes Teilchen hat einen Vektor, die Vektoren beeinflussen sich gegenseitig.
Nutzt also nix, die Vektoren nacheinander zu errechnen, die Ergebnisse müssen
halbwegs gleichzeitig vorliegen, um die gegenseitige Abhängigkeit zu berechnen.

"Die moderne CPU kann Physik genauso gut berechnen wie eine GPU" ist also
hanebücherner Quatsch. 4 oder von mir aus 6 oder von mir aus mit HT 12 Kerne
gegen vereinfacht 480 bei der GTX 480...

Physx lässt sich genauso wie Havok komplett auf der CPU ausführen. Siehe
Konsolen. Havok ist primär Effekt-Physik. Damit ne Explosion gut aussieht, muß
man nicht jedes Teilchen einzeln berechnen. Das kann und will Havok nicht.
Physx bietet es an, wenn die Rechenleistung da ist.

Zu 2:
Wer behauptet, daß Physx mit einer modernen MehrkernCPU NICHT ebenso leistungsfähig wie Havok ist? Wer hat schon gebencht, wieviel Teilchen Havok
pro Sekunde auf der CPU schafft und wieviel Teilchen Physx schafft? Ich kenne
keine Aussage dazu. Ist irgendwie wie Äpfel mit Birnen zu vergleichen, weil ja
beides Obst ist. Siehe oben.
Ich kann es natürlich nicht beweisen, aber ich halte es für Blödsinn, daß NVidia die CPU bei Physx bremsen soll. Ist gar nicht nötig, weil die CPU selbst Physx bremst, auch ohne Eingriff von NVidia. Nochmal: 4 Kerne gegen 480...

Zu 3:
Was soll es denn sonst sein?
Die Physx-Bibliotheken sind in vielen Spielen OHNE GPU-Unterstützung voll
integriert, spart den Entwicklern den Aufwand ne eigene Bibliothek zu erstellen.
Vergleichbar EAX oder Miles Sound System oder Bink Video und so weiter.
Diese Spiele wurden und werden komplett durch die CPU gerechnet.
Der Schalter "zusätzliche Effekte aktivieren" oder "Physx high" oder so befindet sich immer im jeweiligen Spiel, nicht in der NVidia-Systemsteuerung.
"GPU-Physx off" leitet diese Berechnungen genauso wie "CPU-Physx" auf die
CPU um.
Okay, der einzige Unterschied könnte sein, daß evtl ein Spiel ne Hardwareabfrage hat, ohne Hardware die zusätzlichen Effekte nicht anbietet,
und der neue Schalter dann entsprechende Hardware vorgaukelt.
Keine Ahnung, wäre denkbar.
Kann mich jedenfalls an ein Interview mit nem NVidia-Typen auf PCGamesHardware erinnern, in dem der gesagt hat, daß es eine reine kosmetische Umbenennung ist. Um die Funktion des Schalters klarer verständlich zu machen.
Und wie wir alle wissen, sagen alle NVidia-Mitarbeiter immer die Wahrheit,
die ganze Wahrheit und nichts als die Wahrheit, so wahr ihnen Jen-Hsun Huang
helfe...


Sorry für das ganze Off Topic Geseier, aber so ganz OT ist es ja auch wieder nicht. Schließlich ist ja (leider) GPU-Physx ein Alleinstellungsmerkmal von NVidia
und die 480 ist die bisher leistungsfähigste Physx-Hardware.
 
Zuletzt bearbeitet:
Zu 1: Meine Aussage ist genau das Gegenteil.
-Der CPU steht schon immer die komplette Physx-Bibliothek zur Verfügung.
-Die CPU kann alles an Physx berechnen was auch die GPU kann, nur nicht soviel davon auf einmal.
-Da moderne GPUs WESENTLICH MEHR, dafür aber weniger komplexe Aufgaben
GLEICHZEITIG abarbeiten können als JEDE Mehrkern-CPU, und Physik genau
das braucht, sind sie leistungsfähiger dafür und deshalb aktivieren manche
Spiele zusätzliche Effekte

Erstens bestreitet das doch niemand das GPUs durch ihre vielen Shader wesentlich mehr Threads zur selben Zeit berechnen kann.

Aber ob es für die z.Zt erhältlichen PhysX Titel und deren Effekte eine Grafikkarte überhaupt zwingend erforderlich ist bei einer potenten CPU darf ensthaft angezweifelt werden.

Sicherlich kann ich jede heute erhältliche Mehrkern CPU mit der Berechnung von Millionen von Partikeln in die Knie zwingen,nur ist so eine physikalische Berechnung in Games überhaupt nötig?Mit Sicherheit nicht und hier zeigt auch wiederum Havok auf den CPUs bzw die Konsolen das ansprechende Physik ob nun PhysX/Havok/Ode/Bullet oder oder nicht zwingend eine potente Grafikkarte zur Befeuerung braucht.

Auch wenn Nvidia nicht müde wird die Vorzüge von GPU Physik immer wieder gebetsmühlenartig zu wiederholen,die du eben auch ins Spiel gebracht hast.

Und wie gesagt ob die alte Funktion "PhysX Off" nun wirklich im neuen Treiber "CPU PhysX" entspricht ist denke ich noch nicht geklärt
 
Aber ob es für die z.Zt erhältlichen PhysX Titel und deren Effekte eine Grafikkarte überhaupt zwingend erforderlich ist bei einer potenten CPU darf ensthaft angezweifelt werden.

Sicherlich kann ich jede heute erhältliche Mehrkern CPU mit der Berechnung von Millionen von Partikeln in die Knie zwingen,nur ist so eine physikalische Berechnung in Games überhaupt nötig?Mit Sicherheit nicht und hier zeigt auch wiederum Havok auf den CPUs bzw die Konsolen das ansprechende Physik ob nun PhysX/Havok/Ode/Bullet oder oder nicht zwingend eine potente Grafikkarte zur Befeuerung braucht.

Und wie gesagt ob die alte Funktion "PhysX Off" nun wirklich im neuen Treiber "CPU PhysX" entspricht ist denke ich noch nicht geklärt

Zu 1: Volle Zustimmung
Zu 2: Volle Zustimmung
Zu 3: Eigentlich eh ne akademische Frage, wir haben ja alle ne GPU für Physx

Aber um zum Auslöser der Diskussion zurückzukommen:

@Rabauke: Mich interessiert es immer noch, wobei du den Frameverlust bemerkt
hast...

---------- Beitrag hinzugefügt um 21:37 ---------- Vorheriger Beitrag war um 21:23 ----------

Wie lange sollte ich occt zum testen von der GPU laufen lassen ?

Hängt davon ab, wie sicher du dir sein willst...

In Games brauchen meine Karten 0,938 und 0,988 (okay, die zweite braucht
an warmen Tagen 1,0) damit ich absolut problemlos stundenlang Metro, AVP, Dirt 2 usw zocken zu kann. Stock speed.
OCCT braucht 0,95 und 1,025, sonst bringt es innerhalb Sekunden Fehler.
Und für einen Dauertest brauch ich noch mehr Spannung.


Du musst dich also entscheiden, ob du OCCT-stable als Ziel hast, dann
würd ich es mind. ne halbe Stunde bis Stunde laufen lassen.

Oder ob es dir genügt, dass du zocken kannst. Dann reichen 5 Minuten,
und ein paar Fehler sind auch noch verschmerzbar.
Reelle Ergebnisse kriegst du eh nur beim Zocken.
 
Was heißt denn ein paar Fehler ?
Und bei welchen Takt betreibst du deine Karten?


Zu 1: Volle Zustimmung
Zu 2: Volle Zustimmung
Zu 3: Eigentlich eh ne akademische Frage, wir haben ja alle ne GPU für Physx

Aber um zum Auslöser der Diskussion zurückzukommen:

@Rabauke: Mich interessiert es immer noch, wobei du den Frameverlust bemerkt
hast...

---------- Beitrag hinzugefügt um 21:37 ---------- Vorheriger Beitrag war um 21:23 ----------



Hängt davon ab, wie sicher du dir sein willst...

In Games brauchen meine Karten 0,938 und 0,988 (okay, die zweite braucht
an warmen Tagen 1,0) damit ich absolut problemlos stundenlang Metro, AVP, Dirt 2 usw zocken zu kann. Stock speed.
OCCT braucht 0,95 und 1,025, sonst bringt es innerhalb Sekunden Fehler.
Und für einen Dauertest brauch ich noch mehr Spannung.


Du musst dich also entscheiden, ob du OCCT-stable als Ziel hast, dann
würd ich es mind. ne halbe Stunde bis Stunde laufen lassen.

Oder ob es dir genügt, dass du zocken kannst. Dann reichen 5 Minuten,
und ein paar Fehler sind auch noch verschmerzbar.
Reelle Ergebnisse kriegst du eh nur beim Zocken.
 
Zuletzt bearbeitet:
Was heißt denn ein paar Fehler ?
Und bei welchen Takt betreibst du deine Karten?

Hier und da mal ein kleines Artefakt im Bild

Bei Grafikkarten für die Bilddarstellung nicht so tragisch aber bei Cuda basierenden Programmen sollte sich der Chip nach Möglichkeit nicht verrechnen bzw mit anderen Worten Fehler produzieren;)

Es kommt halt immer darauf an wo die Prioritäten liegen
 
Zuletzt bearbeitet:
Was heißt denn ein paar Fehler ?
Und bei welchen Takt betreibst du deine Karten?

Stock-speed, also werksmässig eingestellte Geschwindigkeit. Geht mir mehr
ums Strom- und Krachsparen als ums Übertakten.
Aber was ich geschrieben habe gilt fürs Übertakten genauso.

Ein paar Fehler heißt ein paar Fehler, so 5 bis 5000 in 5 Minuten. Die OCCT anzeigt. Deshalb laufen Spiele trotzdem problemlos, absturzfrei und ohne
dass ich Bildfehler bemerke.

Wie Scully sagt, kommt drauf an wo deine Prioritäten liegen.

OCCT (und andere Test-Tools), Cuda-Berechnungen und Spiele sind 3 völlig
unterschiedliche Dinge, die völlig unterschiedliche Anforderungen haben.

An deiner Stelle würde ich OCCT und GPU-Tool mal eine Stunde mit sagen wir mal max. 5 erlaubten Fehlern laufen lassen, damit du weisst, wann deine Graka absolut stabil ist. Mehr aus akademischem Interesse.

Und dann würde ich mit weniger Spannung und/oder mehr Takt zocken, um rauszufinden, was wirklich geht.
 
Super. Jetzt ha ich mal ein Anhaltspunkt. Die AMP ist ja so schon schnell genug. Wollt halt mal mit ein bisschen weniger Spannung probieren. Erstmal Danke:hail:

Stock-speed, also werksmässig eingestellte Geschwindigkeit. Geht mir mehr
ums Strom- und Krachsparen als ums Übertakten.
Aber was ich geschrieben habe gilt fürs Übertakten genauso.

Ein paar Fehler heißt ein paar Fehler, so 5 bis 5000 in 5 Minuten. Die OCCT anzeigt. Deshalb laufen Spiele trotzdem problemlos, absturzfrei und ohne
dass ich Bildfehler bemerke.

Wie Scully sagt, kommt drauf an wo deine Prioritäten liegen.

OCCT (und andere Test-Tools), Cuda-Berechnungen und Spiele sind 3 völlig
unterschiedliche Dinge, die völlig unterschiedliche Anforderungen haben.

An deiner Stelle würde ich OCCT und GPU-Tool mal eine Stunde mit sagen wir mal max. 5 erlaubten Fehlern laufen lassen, damit du weisst, wann deine Graka absolut stabil ist. Mehr aus akademischem Interesse.

Und dann würde ich mit weniger Spannung und/oder mehr Takt zocken, um rauszufinden, was wirklich geht.
 
Super. Jetzt ha ich mal ein Anhaltspunkt. Die AMP ist ja so schon schnell genug. Wollt halt mal mit ein bisschen weniger Spannung probieren. Erstmal Danke:hail:

Bitte. Du musst letztendlich selbst ein Gefühl dafür kriegen was bei deiner Karte
geht.
Da ist jede völlig unterschiedlich. Meine erste hat Standard 1,013, läuft mit
0,950 völlig und 0,938 so gut wie OCCT-stabil, zum Zocken würde noch weniger reichen.
Die zweite hat Standard 1,5, braucht mind. 1,25 für OCCT und mind. 0,988
zum Zocken.

Ach ja, und VORSICHT:
OCCT und ähnliche Tools fordern Graka und Netzteil ziemlich brutal, gerade
bei Übertaktung. Immer ein Auge auf die Temperatur haben.

Und bei Overvolting (und vielleicht auch Overclocking?) besteht im Gegensatz
zum Undervolting immer ein Restrisiko, Graka oder Netzteil zu zerstören...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh