Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Mich würde mal ein Foto interessieren z.B ATITOOL wo man die Temps sieht einmal im idle Zustand und einmal unter Vollast!
Die Lüfter ziehen die Luft bei euch raus oder?
Nabend !
So meine werte liegen nun auch vor
Ich habe zwar noch keine direkten 3dmark06 werte , weil mein c2d momentan auf 2,4ghz läuft aber kartendaten habe ich heute den ganzen Tag getestet.
Karte
Sparkle 8800GTS 640MB (A3 Stepping)
Max Core (Auto Lüfter) 700Mhz (getestet mit 3Dmark06)
Max Core (100% Lüfter) 710Mhz (getestet mit 3Dmark06)
Max Core (ATI Tool) 695Mhz (Dann Bildschirm aus)
Nun eingestellter Wert: 680Mhz (5x 3dmark06 stable und artefaktenfrei)
Max Mem (ATI Tool) 1100Mhz (40min Test problemlos ohne repeats)
Nun eingestellter Wert: 1100Mhz (5x 3dmark06 stable und artefaktenfrei)
Im core bereich wäre mehr gegangen, selbst bei 715 sah ich beim 3DMark keine bildfehler , leider hing er aber nachdem vierten Test. Ich vermute die GPU wird zu heiss.
Jetzt aber nochmal eine allgemein Frage , ist es denn ok wenn ich den Ram auf 1100Mhz laufen lasse? oder nimmt der Ram mit Standard Kühlung dann schaden? Selbiges für GPU ?
Raumtemp. war hier bei ca. 24°C. Die 3 Loonys liefen 12V. Insgesamt liefe das Sys. 1h - also der Kreis war gut eingelaufen. Ist jetzt sogar weniger, als ich vor 2 Wochen getestet hab. Da war es ja noch wärmer (Raumtemp).
@ load
@ idle (gleiches Bild wie oben, aber mit beendetem Artefact-Test)
Getaktet wurde mit RT. Bei Loonys @ 5V ist die Core-Temp ca. 2-3k höher. Die hier angezeigte Temp. ist die der Thermal-Diode - also höher als die GPU-Gehäuse-Temp. (NVThermalDiode.dll:0 - NICHT ADT7473.dll:0). Die GPU-Gehäuse-Temp wäre nochmal 2-3k niedriger. Die Differenz zw. idle und load ist beim GPU-X² wahnsinnig gering, wenn es richtig sitzt.
Hinzugefügter Post:
Es kann übrigens doch jeder hier auch @ 1920x1200 und höher benchen.
Mit dem kleinen Unterschied, dass der Monitor kein Signal anzeigt - also schwarz bleibt. Aber am Ende des Benches hat man das Ergebnis der eingestellten Auflösung. Der karte ist es ja egal, was für ein Moni dranhängt oder ob überhaupt einer dranhängt.
Also fröhliches Benchen @ Full-HD und höher
Es kann übrigens doch jeder hier auch @ 1920x1200 und höher benchen.
Mit dem kleinen Unterschied, dass der Monitor kein Signal anzeigt - also schwarz bleibt. Aber am Ende des Benches hat man das Ergebnis der eingestellten Auflösung. Der karte ist es ja egal, was für ein Moni dranhängt oder ob überhaupt einer dranhängt.
Also fröhliches Benchen @ Full-HD und höher
hallo,
werd mir warscheinlich die tage ne 8800 gtx kaufen, wenn die die taktraten der ultra mitmacht (612/1512/1080) und ich die dann auf ne ultra flashen will, welches bios würdet ihr mir von welchen hersteller empfehlen, und wie heiß darf denn die graka unter vollast (ati tool) werden???
Der Shadertakt muß auf 1620 MHz stehen dann ist es Ultra Niveau!
hallo,
ich verwende die neuste rivatuner version 2.05 und den betatreiber 163.71.
im übertaktungsmenü kann ich nur core und memory clock einstellen. mit der neusten version sollte jedoch zusätzlich noch die option dazu kommen den shader clock einstellen zu können.
wie aktiviere ich diese option?
desweiteren habe ich einen komischen bug. wenn ich den haken bei " enable hardware overclocking" wird einem geraten die standardwerte der graka durch einen reboot des pcs fehlerfrei zu ermitteln. wenn ich das mache passiert jedoch nichts. im rivatuner bleibt die overclocking funktion deaktiviert und ich soll wieder den pc neustarten. da stimmt doch was nicht.
Wieso läßt du die Temperaturanzeige vom ATITOOL nicht mit laufen und weshalb zeigt RT einen ganz ander GPU Takt an wie das ATITOOL und dazu noch so einen niedrigen Shadertakt?
das hast du pott mir noch net einmal gesagt also mach mich net so dumm an, verstanden?
Trotzdem danke
mfg
Vincent
hmm auf geizhals steht 1512, im test von cb ebenfalls und auf nvidia gar nur 1500