Geforce 8800 GT OC-Thread + Liste Part 1

Status
Für weitere Antworten geschlossen.
Werde noch etwas mit den Taktraten rumspielen und berichten!

Gibt es denn bestimmte Einstellungen, welche ich beim AtiTool 0.27 vornehmen muss? Gibt es noch andere gute Grafikkarten-Tools zum Überprüfen der Graka-Stabilität? Hab hier nur noch den "FurMark" (OpenGL Benchmark), weiß aber selber nicht wie vertrauenwürdig der ist.

Die Temperaturen von mir sind schon richtig, hab ne sehr gute Gehäuselüftung. Ist zwar laut wie ne Turbine, aber bin ja kein Silent-Freak ;)

Probleme fingen eigentlich bei CoD4 an, dass sich nach einer gewissen Spielzeit immer der der PC aufgehängt hat (Bild-Freeze)...es half dann nur noch der Reset!

*update*

Traurig aber war, viel mehr geht da wirklich nicht mehr. Wenn ich z.B. den Ram-Takt um 50 Mhz runter stell komm ich mit dem CPU-Takt gerade um 10 Mhz höher, gleiches gilt auch für den Shader-Takt. Im Endeffekt hab ich da ein richtiges Schrott-Modell erwischt. Auch andere Konstellationen vom Takt her waren totaler Murks! Versuch das Ding jetzt noch irgendwie los zu werden, weil da kann ich ja gleich meine alte GTS behalten und auf fast gleiche Niveau OCen :(
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe jeute meine 8800GT Colorful 600/1500/900 Mhz bekommen.

Im 3DMark06 bekam ich mit orig Takt:
600 GPU, 1500 Shader, und 900 Mhz Ram
etwa 10500 Punkte

Jetz übertaktet auf 740 Mhz. GPU, 1850 Mhz. Shader und 1000 Mhz. Ram bekomme ich:

11573 Punkte

Ich habe mit:
a:\nvflash.exe -b origbios.rom
das Bios der Karte kopiert, wenn ich das in NoBiTor lade, bekomme ich nur die Werte in EXTRA angezeigt.
Wie muss ich jetzt in NiBiTor 3.8 die Werte editieren mit den Werten die ich mit Riva Tuner ermittelt habe?
Extra und 3D die selben Werte?
Kann ich bei Trhtl und 2D niedrigere Werte eingeben?
...oder auch bei 3D....
und nur bei EXTRA die OC Werte eintragen?

So, bin schon sehr gespannt....

Ach ja, mal ne Anregung:
Kann man, zum Vergleich der Grakas, nicht die Tests mit 3DMark06 ohne CPU Tests durchführen und Posten?
Ein C2Q bringt doch von Hause aus schon höhere werte als ein z.B. C2D oder X2.
wir wollen doch wissen was die Grafikkarte macht und nicht die Prozis, oder?
 
Zuletzt bearbeitet:
Tja, Huston, ich habe ein Problem:

Ich habe meine Colorful Zahlman Red ED. auf;
740 Mhz. GPU
1850 Mhz.Shader
1050 / 2100 Mhz. DDR3Ram
getaktet.

Ergebnis 11600 Punkte. 3DMark06 auf 1280x1024, also alles Standard, Treiber alles auf Standard.
Meine SPU siehe unten:

Kann es sein, dass der PCIEx16 Bus Traffic der Karte limitiert?
Ist ja kein PCIE 2.0 x16 Port.

Müssten bei dem Takt doch mehr Punkte kommen, oder nicht?
Treiber habe ich den aktuellsten von nVidia HP.
Hinzugefügter Post:
Tja, Huston, ich habe ein Problem:

Ich habe meine Colorful Zahlman Red ED. auf;
740 Mhz. GPU
1850 Mhz.Shader
1050 / 2100 Mhz. DDR3Ram
getaktet.

Ergebnis 11600 Punkte. 3DMark06 auf 1280x1024, also alles Standard, Treiber alles auf Standard.
Meine SPU siehe unten:

Kann es sein, dass der PCIEx16 Bus Traffic der Karte limitiert?
Ist ja kein PCIE 2.0 x16 Port.

Müssten bei dem Takt doch mehr Punkte kommen, oder nicht?
Treiber habe ich den aktuellsten von nVidia HP.
 
Zuletzt bearbeitet:
also mit mein System und ähnlcihe Taktraten bekomme ich 13000 Punkte.


Ja, aber woran mag es liegen?
Kann es sein, dass nach der Deinst. von dem alten 8600 Treiber noch Reste vorhanden waren?
Gibts da so was wie ein nVidia Treiber Reste Entferner wie von ATI auch?

Ich schätze mal, daran kanns liegen.
Om Board steht der PCI Bus fix auf 100 Mhz.
Wie hast Du das stehen?
PCIE Boost steht auf Auto.
PCIE V-Core steht auf normal.

Irgendwarum ist das so, aber warumsens?
 
google mal nach driver sweeper...ist ein proggi zum entfernen von treibern, löscht zuverlässig alte trieber..
sollte man haben wenn man mit verschiedenen treiber benchen will...
 
Ja, aber woran mag es liegen?
Kann es sein, dass nach der Deinst. von dem alten 8600 Treiber noch Reste vorhanden waren?
Gibts da so was wie ein nVidia Treiber Reste Entferner wie von ATI auch?

Ich schätze mal, daran kanns liegen.
Om Board steht der PCI Bus fix auf 100 Mhz.
Wie hast Du das stehen?
PCIE Boost steht auf Auto.
PCIE V-Core steht auf normal.

Irgendwarum ist das so, aber warumsens?

Veränder am PCIe Takt und vcore nichts, das bringt nichts, kann sogar zum Gegenteil führen.
 
Ja, aber woran mag es liegen?
Kann es sein, dass nach der Deinst. von dem alten 8600 Treiber noch Reste vorhanden waren?
Gibts da so was wie ein nVidia Treiber Reste Entferner wie von ATI auch?

Ich schätze mal, daran kanns liegen.
Om Board steht der PCI Bus fix auf 100 Mhz.
Wie hast Du das stehen?
PCIE Boost steht auf Auto.
PCIE V-Core steht auf normal.

Irgendwarum ist das so, aber warumsens?

hast du zufällig vista drauf? dadurch erhälts du beim 3dmark deutlich weniger punkte gegenüber xp. mit meinem system aus der sig sinds auch nur knapp 12300 unter vista x64.
 
@wackermann

was für ein OS hast du?????Wenn du vista drauf hast und t.lancer XP drauf hat iss das klar........also ich hatte mir mein alten E6300@3350mhz 2gbram 88gt@740/1750/900 zirka 12500 Punkte mit vista
 
Also ich denke es liegt an der fehlenden PCI-E 2.0 Unterstützung.
Laut Angaben des Herstellers verliert die Karte an einem 1.0, 1.1 PCI-E gegenüber einem PCI-E 2.0 Anschluss ca. 15-20 Prozent.

Habe gerade Treiber entfernt und mit Driver Sweeper im abgesicherten Modus alle Reste entfernt. Die Treiber einstellungen sahen nach Neuinst auch ganz anders aus, aber das selbe Ergebnis.

Hier mal ein Screenshot:
attachment.php


Habe die Karte auf 740 Mhz. GPU, Shader auf 1850 Mhz. und den DDR3Ram auf 1100/2200 Mhz.
Da muss doch mehr als "nur" 11314 Punkte kommen oder bin ich irre?

Also mal sch... auf die Punkte, aber selbst beim Gamen kann ich nur minimal über die Einstellungen zu meiner 8600 GTS mit OC gehen.

Sollte ich mal ein neues Board kaufen?
 

Anhänge

  • 3DMark06.jpg
    3DMark06.jpg
    146,9 KB · Aufrufe: 220
Ich würde GPU und Shader gleich anheben, also bei Rivatuner den Haken bei dem "Link clocks" rein.

Könnte dir ein bisschen was bringen.

Bei mir fehlen 100-200 Punkte bei 740/1800 im Vergleich zu 720/1800 (mit Link clocks).
 
Ich würde GPU und Shader gleich anheben, also bei Rivatuner den Haken bei dem "Link clocks" rein.

Könnte dir ein bisschen was bringen.

Bei mir fehlen 100-200 Punkte bei 740/1800 im Vergleich zu 720/1800 (mit Link clocks).

Der Haken ist gesetzt.

BS ist Windows Vista 32 Bit.
Gegenüber XP kann ich mir ev. fehlende 2-300 Punkte vorstellen, aber nicht 1000.
 
Moin

Ich würde wenn es dir nichts ausmacht einfach windows neuinstallieren.........oder einfach mal ein beta treiber raufmachen......und testen
 
hi,

hab mal eine generelle frage. schadet es den grakas eigentlich wenn man sie übertaktet?
also kann man sie ruhig schon vom windowsstart her übertaktet lassen oder sollte man sie erst übertakten wenn man spielen will und die leistung auch braucht? ist es vielleicht nur schädlich für die grakas wenn sie dann zu heiß werden?
 
hi,

hab mal eine generelle frage. schadet es den grakas eigentlich wenn man sie übertaktet?
also kann man sie ruhig schon vom windowsstart her übertaktet lassen oder sollte man sie erst übertakten wenn man spielen will und die leistung auch braucht? ist es vielleicht nur schädlich für die grakas wenn sie dann zu heiß werden?

wenn die kühlung stimmt und man es nicht übertreibt, dann ist das kein problem
 
ok...also wie du in meiner signatur siehst, neige ich nicht dazu zu übertreiben. also unter last (Crysis) wie warm meint ihr darf die 8800gt werden. sind da 70 grad noch in ordnung?
 
Hi,

ich überlege grade, mir die Gigabyte 8800GT mit Zalman Lüfter zu holen.
http://geizhals.at/deutschland/a298338.html

Die hat ja ein custom PCB, sogar mit eignem "Spannungschip", so dass man mit einem Tool ganz bequem im Windows die Spannung erhöhen kann und höher Takten kann.

Super Sache eigentlich. Nur hat sie standardmäßig schon 700Mhz.

Ich würde gerne per BIOS Änderung VCore und Takt absenken und dann nur bei Bedarf per Software wieder hochsetzten.

Ist das Möglich? Kann man die Spannung überhaupt verringern? Und geht das auch bei der Gigabyte, weil es ja kein Standard Platinenlayout ist?

Danke und lg
Lion
 
Moin

Ich würde wenn es dir nichts ausmacht einfach windows neuinstallieren.........oder einfach mal ein beta treiber raufmachen......und testen

Naja, macht mir schon was aus.
Viel Arbeit, viel instaliert, viele Games.
Und dann noch nichtmal mit Sicherheit dass das den Fehler beheben würde.
Ich lade gerade den Beta Treiber 174.44 für Vista runter und teste dann nochmal wenn ich den inst. habe.

@StuffedLion
Habe mir die Karte gerade angesehen, scheint ja nicht schlecht zu sein, aber die hat ja einen richtigen TrümmerLüfter drauf, riesen Teil.
Meine Karte hat einen direkten HDMI Ausgang, frage mich gerade, wie ich da ein normales TV dran anklemmen soll.
Ob man mit Deiner Karte wirklich im BS die Spannung anheben kann, wage ich zu bezeifeln.

EDIT:
Habe nach dem Download des Beta Treiber 174.74 mit dem alten Treiber von 12.07 noch mal gebencht.
Im Treiber alles auf aus was auf aus zu stellen war. Den Rest auf hohe Leitung oder Leistung:
Ergebnis Screen:
attachment.php


Dann über Systemsteuerung Programme und Funktionen Treiber deinstaliert, den Nvidia Ordner unter C: gelöscht, PC runtergefahren und im angesicherten Modus wieder hoch.
Driver Sweeper die Reste von Nvidia Display entfernen lassen und per Log überprüft.
Alles OK.
Rechner Neustart.
Neue Beta Treiber 174.74 instaliert und PC Neustart.
Windows Dreamscene beendet.
Treiber alles auf aus oder hohe Leistung bezogen.
Erneut gebencht. Ergebnis Screen:
attachment.php


Schon komisch, fast die selbe Punkzahl, aber meine CPU rennt wohl besser.

Ich mache jetzt noch zwei Tests mir F.E.A.R alles auf Highest.
Test 1: Im Treiber alles auf aus und hohe Leistung
Hier die Ergebnisse:
Fear Leitungsergebnis:
FPS:
Minimum: 83
Durchschnitt: 205
Maximal: 542

FPS Verteilung:
0% unter 25 FPS
0% zwischen 25 und 40 FPS
100% über 40 FPS

Jetzt wiederhole ich den Test mit Treiber alles auf die Standardwerte:
Fear Leistungsergebnis:
Minimum: 67
Durchschnitt: 139
Maximum: 297

FPS Verteilung:
0% unter 25 FPS
0% zwischen 25 und 40 FPS
100% über 40 FPS

Die Ergebnisse hier sind um mehr als das Doppelte besser als bei meiner 8600GTS OC.
Warum bleiben aber die Werte von 3DMark06 soweit unten?
Sollte ich 3DMark mal neu instalieren?

Euer Wackaman
 

Anhänge

  • 3DMark06 333FSB 892 DDR und 730 GPU 1825 Shader und 1100 DDR mit 44er Treiber.jpg
    3DMark06 333FSB 892 DDR und 730 GPU 1825 Shader und 1100 DDR mit 44er Treiber.jpg
    125,8 KB · Aufrufe: 210
  • 3DMark06 333FSB 892 DDR und 730 GPU 1825 Shader und 1100 DDR mit 75er Treiber.jpg
    3DMark06 333FSB 892 DDR und 730 GPU 1825 Shader und 1100 DDR mit 75er Treiber.jpg
    127,2 KB · Aufrufe: 206
Zuletzt bearbeitet:
ok...also wie du in meiner signatur siehst, neige ich nicht dazu zu übertreiben. also unter last (Crysis) wie warm meint ihr darf die 8800gt werden. sind da 70 grad noch in ordnung?

70 grad ist voll ok, da musst du dir keine sorgen machen
 
@wackamann:

mehr is unter vista einfach nicht drin, solang deine spiele vernünftig laufen würd ich mir da nicht allzuviele gedanken machen.

meine graka und meine cpu taktet etwas höher, zudem hab ich mehr arbeitspeicher und einen neueren mainboardchipsatz und erreich auch nur 500-600 punkte mehr.

vielleicht is vista bei dir einfach zugemüllt. ich hab bei mir von anfang an soviele dinge mit vlite entfern, wie nur ging bzw. worauf ich verzichten konnte. wenn du neuinstallieren solltest, kannst das ja auch nochmal probieren
 
Zuletzt bearbeitet:
@ basti:

Ja, dahinter bin ich ähnlich auch gerade gekommen.
Schätze es liegt am Board (CPU klammer ich mal ein bischen aus.
Für mich ist unter Nvidia mit dem GA-965P Ds-4 auch Schluss.
Mein Board ist ja wegen dem Intel Chipsatz eh nur auf ATI Crossfire ausgelegt.
Jetzt unterstützt mein Board zwar die neuen n45 CPU´s aber was solls.

of Topic on
Welches Board sollte ich nehmen (SLI) und C2Q und 1333 FSB Support?
of Topic off
 
@Wackaman: Ich denke auch dass deine 11600 Punkte ok sind. Habe ich mit einem X2@ 3240MHz und einem PCIE 2.0 Board auch.

Mehr Punkte wirst du bekommen wenn du deine CPU weiter hochtaktest, viele hier haben ihren C2D mit 3,6-2,8 laufen und bekommen deshalb um die 13000 Punkte.

Mal was anderes, welchen Ram hast du drin? Sind die Timings optimal? Wobei ich glaube dass Timings und Ram beim Core2 ne kleinere Rolle spielen als bei nem AMD Prozi, aber überprüf das mal.
 
Meien Rams stehen unten,
aber hier nochmal auf besonderen Wunsch.
OCZ-XTC-Gold Edition PC 6400 (@892 Mhz.) 2x1024MB
Timings sind 5-5-5-12

Habe vorhin nochmal gebencht und den PCI-Bus um 10 Mhz. angehoben und das Gigabyte PCI-E Boost Feature auf Fast gestellt.
Ergebnis 11790 Punkte.
Naja, ich schaue mich mal nach nem QuadCore und nem neuen Board um mit SLI statt Crossfire
 
ne frage kriegt man mehr Punkte im schwanzmarkt wenn man Pcie latency erhöht????von standart 100mhz auf zb. 110mhz bringt das was?
 
ne frage kriegt man mehr Punkte im schwanzmarkt wenn man Pcie latency erhöht????von standart 100mhz auf zb. 110mhz bringt das was?

Bei mir ja.
Liegt aber wohl daran, da ich einen Intel 965er Chipsatz habe, der von der Auslegung PCI-Express 1.1 @x16x entspricht. (Hersteller Angabe)
Meine Colorful 8800GT ist aber im PCI-E 2.0 Format.
Der Hersteller selber gibt an, gegenüber einem PCI-E 2.0 Port hat man mit Verlust von 15-20 zu rechnen.
Ich schätze mal, durch das Anheben des FSB (und nicht der Latence) habe ich dem, minimal entgegen gewirgt.
Bei neueren Chipsätzen bringts wohl nichts.
Du hast doch 14.000 Punkte im 3DMark06, ich nur 11.790.
Aber warum fragst Du, teste es doch einfach.
 
Zuletzt bearbeitet:
hab mal ne Frage bezuglich BIOS flaschen.

kann ich in nibitor 2D Taktraten einfügen und dann auch die Karte mit 2D takt und weniger spannung flaschen?

1.05V ist doch default oder?

Habe folgendes eingetragen:


wäre das so richtig?
 

Anhänge

  • Untitled - 1.jpg
    Untitled - 1.jpg
    51,3 KB · Aufrufe: 45
  • Untitled - 2.jpg
    Untitled - 2.jpg
    45,3 KB · Aufrufe: 45
Das habe ich weiter zurück auch schon mal gefragt,
Blieb aber unbeantwortet.
Ich fragte mich nämlich auch, warum in NiBiTor nur der EXTRA Takt angegeben wird.
Alle anderen Felder sind bei mir leer.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh