8800 GTS / GTX OC Thread (Part 6)

Status
Für weitere Antworten geschlossen.
wie sind deine tempunterschiede zum stockkühler in idle und last?

danke für deine hilfe
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
temps:

ilde stock: 52°C load stock: 82°C
ilde hr-03 plus: 40°C load hr-03 plus: 55°C

:wink:
 
achaja di ilde temps sind mit oc und untertaktet auf 306/648/432 hab ich 38°C :coolblue:
 
naja nur 2° weniger^^. Aber die temps sind schon göttlich..kann ich bei meienr gtx jeweils ca 5° draufrechnen, das sind hammer temps!

danke für deine hilfe
 
naja sind auch nur 2° weniger..kann ich bei meienr gtx auf deine temps jeweils 5° draufrechnen...das sind hammer temps!

danke für deine hilfe
 
Jo hab auch so 38° Idle und 57° oder so unter Last (20min ATI tool Artefact Scan!)...in Games meist nich viel über 50°!
 
Sooo, Bestellung ist raus, freue mich schon aufs Basteln :fresse: Hoffe ich habe die richtigen Potis bestellt....
 
Bin mir noch nicht ganz schlüssig welchen Aufbau ich durchführe..... deswegen hab ich den 500Ohm und den 1k Ohm Poti bestellt für die Vcore.
Die eine Anleitung verwendet 2x 1k Ohm parallel, die andere einen 500Ohm und wieder ne andere verwendet 400Ohm Spindeltrimmer. :mad:

Ich glaub ich mach es so wie auf der österreichischen Seite beschrieben ->2x 1k Ohm parallel. Allerdings baue ich noch Kippschalter ein, dann kann ich ganz bequem vom Schreibtisch aus zusätzliche Spannung hinzuschalten ohne das Gehäuse öffnen zu müssen und da mit Jumpern rumzuwurschteln.


123ai5.jpg

39500941rd7.jpg

finfs8.jpg
 
jogi add mich ma im icq oder nimm meine anfrage an^^ will den quark auch machen
 
Hab den Pen Mod für die G92 GTS heute mal getestet, hat aber überhaupt nicht funktioniert. Hatte bei Crysis schon im Menü Bildfehler, habs wieder wegradiert und jetzt gehts Gott sei Dank wieder.
 
Ein dicker Kabelbinder iner Mitte, fertig. Zwischen Lüfter und Kühler in die Mitte da wo der Motor sitzt n rundes Stück Schaumstoff oder so...bischen Erfindergeist tut gut :)
Ich würde den Xilence Redwing als Lüffi empfehlen, der fördert mehr und ist auch sehr leise und kost nur 4€ oder so!
Alten Kühler runter, indem man alle Schrauben löst^^ GPU sauber machen, dünn die Thermalright WLP auftragen die dabei ist und rauf mit dem Kühler. Schrauben über kreuz festziehen aber alle auf Anschlag (haben Federn). Vorher natürlich die RAM Freezer etc aufkleben/anbringen. Das Teil hat auch ne Anleitung, einfach mal reinschauen ;)

so sieht das bei mir aus:



(scheiß Handycam..)


passt dadrunter noch die soundkarte?? pci steckkarte
 
Jop, im letzten PCI Slot ist ne x-FI ;)
 
hr.jpg



hübsch oder ;)
 
das sind aber nicht die standart-ram kühler die beim hr-03 plus dabei sind oder?
 
Die großen BGA Kühlerblöcke links und rechts inder Reihe nicht, der Rest ja!
Btw musste heut erschreckt feststellen, dass ich beim Crysis GPU Bench auf einma 64° maximal Temp hatte und meien damals ausgeloteten 58° max waren nach 20min ATI Tool Artefact Scan. ob das jetzt am neuen Case liegt, welches nach unten hin weniger Raum bietet? Aber sollte trotzdem Locker für den Lüfter reichen....komische Sache. Wer Lust hat kann ja mal vergleichen was wärmer wird: 4 Loops Crysis GPU Bench oder 5min AIT Tool Artefact Scan (mit RT Hardwaremonitor im Hintergrund die Temps aufzeichenn lassen bei Crysis).
 
der rotierende fellwürfel ist bei atitool auch "wärmer" als der artefact scan^^
 
Nein, das hatte ich mal getestet, Artefact Scan wird nach ner weile auch richtig doll warm!
 
hier waren ja schon 2 Leute mit 8800 GTX Voltmod..

Frage, welche der 2 Versionen funktioniert? Sollten eig beide gehen. Ich habe 2 Voltmeter um die gemoddete Spannung auszulesen, bzw direkt zu verfolgen wieviele Spannung anliegt beim ändern der Potis. Ist das alles so richtig oder gibt es so Probleme?

Voltmod 1 mit Voltmeter

Voltmod 2 mit Voltmeter

über Hilfe und Hinweise auf grobe Fehler bin ich danke ;)

Edit: sehe ich beim 1. an den Voltmetern die tatsächliche Spannung oder nur die "Zugabe" durch den Mod?
beim 2. müsste ich ja die tatsächlich anliegende sehen.
 
Zuletzt bearbeitet:
wieso antwortet niemand :d
 
Hab jetzt auch meine GTS gegen eine GTX getauscht...
Ich versuch sie jetzt zu Ocen aber ich komme max auf:612/1458/972Mhz...
Also beim Speicher geht wahrscheinlich mehr...
ABER, was sehr eigenartig ist, wenn ich jetzt den Core etwas höher takte dann fängt sie an Grafikfehler zu machen (Quadratische Felder) auch wenn ich den Speicher Takt runter nehme.
Ist das normal?
Denn ich war immer der Annahme das Grafikfehler nur kommen wenn der RAM zu hoch ist und das wenn man den Core zu hoch macht, das sie dann einfach einfriert.
Besonders warm wird sie auch nicht...max.80C°.

Max.11500Punkte bei 3DMark06 (AMD 6000+ @ 2x3300Mhz u.2GB DDR2 800er)

EDIT:
 

Anhänge

  • tset.jpg
    tset.jpg
    126,7 KB · Aufrufe: 52
Zuletzt bearbeitet:
hier waren ja schon 2 Leute mit 8800 GTX Voltmod..

Frage, welche der 2 Versionen funktioniert? Sollten eig beide gehen. Ich habe 2 Voltmeter um die gemoddete Spannung auszulesen, bzw direkt zu verfolgen wieviele Spannung anliegt beim ändern der Potis. Ist das alles so richtig oder gibt es so Probleme?

Voltmod 1 mit Voltmeter

Voltmod 2 mit Voltmeter

über Hilfe und Hinweise auf grobe Fehler bin ich danke ;)

Edit: sehe ich beim 1. an den Voltmetern die tatsächliche Spannung oder nur die "Zugabe" durch den Mod?
beim 2. müsste ich ja die tatsächlich anliegende sehen.

verdammt, sowas gibts auch? Hätte ich doch nich diese Platinenvoltmeter dazubestellen sollen :shot:

Also der 2te Link ist ja völlig unlogisch, da ist doch garkein Stromkreis geschlossen :shot:

Genau so habe ich es vor!
Voltmod 1 mit Voltmeter
 
Sagtma, ATi Tool suckt doch hoch 10 oder? Mal bringts Fehler mal nicht...heute brachte es mal wieder einfach so nach 2 Min Fehler...das is doch reudig. Das Tool GPU Caps Viewer ist geil und hat auch enn Mordsgeilen Stresstest!
 
und wieviel haste nun VCore und welche Taktraten und Benches? meld dich ma im icq ;)
Hinzugefügter Post:
und an die ATI Tool User.. mal im Ernst ^^

wie kann man als NVIDIA User mit nem ATI rumspielen.... wenn dann testet man mit 3DMark 3 runs und Crysis 3-4 runs auf Artefakte und Stabilität, aber niemals mit etwas von den roten :d
 
Zuletzt bearbeitet:
Quacken, nur weils so heißt. Es hat eben nen Artefact Scan und er is nix grakaspezifisches... aber naja, es funzt iwie nichtmehr richtig...grad eben nochma getestet -> keine Fehler mehr... omg
 
Sagtma, ATi Tool suckt doch hoch 10 oder? Mal bringts Fehler mal nicht...heute brachte es mal wieder einfach so nach 2 Min Fehler...das is doch reudig. Das Tool GPU Caps Viewer ist geil und hat auch enn Mordsgeilen Stresstest!

Fekl, hat recht, das "GPU Caps Viewer" ist viel geiler!!
Ich hab das gerade mal getestet und, es scheint mir als wenn das Tool meine GraKA viel mehr auslastet.
Wenn ich das Tool mit MSAA x32 starte dann wird die Karte ca.5-7C° wärmer als mit dem ATI-Tool und sie wird auch schneller warm!!
UND, das Tool muss nicht im Vordergrund sein um die Karte auszulasten, man kann auch neben bei im I-net surfen während man den GPU burnen lässt^^


P.S. meine Frage von von #1852 ist noch offen...
 
lass den Core halt unten, Shader is eh mehr Power

ich teste immer wie folgt: alles auf Low und core hoch bis Crash, merken, eine Stufe tiefer nehmen
dann shader hoch bis Crash, merken, Stufe niedriger,
dann Ram hoch bis Crash, merken, Stufe niedriger

dann alle 3 Stufe einstellen, benchen benchen benchen benchen, is safe > Bios Flash, aus die Maus
 
Habe gerade fest stellen müssen das die Grafikfehler von dem Shader-Takt kommen, der ja Anstieg als ich den core hoch Takttee...
Also, wenn ich den Shader auf ca.1400Mhz lasse dann kann ich auch den Core hoch machen und es kommen keine Grafikfehler.
Aber ist max. 1458Mhz nicht ganz schön wenig Shader Takt??
Und, ist es normal das bei zu hohem Shader-Takt Grafikfehler kommen aber kein "Crash"
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh