Gtx-295

Sloop

Neuling
Thread Starter
Mitglied seit
14.06.2009
Beiträge
912
Hi Leute,

ich würde gerne meine GTX-295 mit EVGA Precision übertakten, und mit ATI-Tool dann auf Artefakte stresstesten. Allerdings habe ich nicht die geringste Ahnung, inwieweit ich die Taktraten verändern könnte/sollte. Was sind denn Anhaltspunkte hierfür?

Laut Tool hat meine Karte folgende Werte:

Core Clock = 576MHz
Shader Clock = 1.242MHz
Memory Clock = 999MHz

Den Shader Clock kann ich vom Core Clock unabhängig auch verändern, oder zusammen proportional (wahlweise). Ich würde halt gerne paar FPS mehr rausholen wollen, aber nix extremes, damit ich Gefahr laufe, meine Karte zu zerstören. Was wären denn empfehlenswerte Werte in meinem Fall? Sollte ich einfach hergehen und überall 20% draufschlagen, also bsp.:

Core Clock = 691MHz
Shader Clock = 1.490MHz
Memory Clock = 1.199MHz

??? Bin für jeden Tip sehr dankbar.

Viele Grüsse,
Sloop.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schau dich dch mal hier im Forum um was die User so eingestellt haben,und versuch diese Werte,sollten sie nicht laufen wirst du es schon merken,am besten den Far Cry 2 benchmark mal laufen lassen,der zeigt wie stabil es ist,oder ebend nicht.

Verush mal 702/1566/1225,und geh ne runde zocken,wenn bunter Bild kommt,oder es freezt war es zu viel^^:d
 
Gib es ein SLI-Profil für das Artefakt-Tool? Oder willst Du die beiden Grakas einzeln testen?

Und wie weit Deine Karte geht wirste eigentlich fix merken, ich würde da nicht mit der Brechstange rangehen, Dein System macht Dir frühzeitig klar wann Schluss ist. Nebenbei gibts http://www.computerbase.de/forum/showthread.php?t=441483 da nen lustige Howto für den Rivatuner mit Anleitung wie man schnell rausbekommen kann wo Schluss ist.
 
Zuletzt bearbeitet:
Der Link ist TOP! Auch wenn ich mit RivaTuner nicht arbeiten kann kann ich ja die Taktgeschichte entweder mit meinem Gainward-Tool machen, oder eben mit EVGA Precision. Und das mit dem FurMark wusste ich nicht, scheint ein gutes Tool zu sein. Auch wird in dem Tut erklärt, wie man genau nach Fehlern sucht und welche FEhler von welchem Takt verursacht wurden. Das ist super!

Was mich halt noch interessieren würde, ob alle 3 Takte einen FPS-Gewinn bringen, oder kann es sein, dass man den RAM-Takt gar nicht übertakten muss, weils dann eh nichts oder nicht viel bringt? Und sollte man den Core gelinkt verändern, oder getrennt Core und getrennt Shader? Welcher Takt bringt am Meisten was?
 
Core am meisten, dann der Shader, dann das RAM. Zu beachten das Shader immer das doppelte vom Coretakt (oder mehr) sein muss.

Diesen Artikel sollte man dazu gelesen haben: http://www.hardware-infos.com/tests.php?test=58

Das EVGA-Tool ist ein abgespeckter Rivatuner.


Aber auch bei Furmark gilt: Du musst Dir ein SLI-Profil dafür anlegen oder per nhancer einen SLI-Modi dafür erzwingen. Dafür gibt es keinen Eintrag im Treiber (wird halt nicht viel gebencht mit dem Tool aus Nvidia-Sicht) und ohne läuft nur eine Graka. SLI halt.
 
Zuletzt bearbeitet:
Danke für den Link! Steht wirklich alles drin! Vor allem am Ende nochmal beschrieben, welcher Takt wieviel Performance bringt. Tausend Dank nochmals!!! Aber was genau meinst du nun mit dem SLI-Profil? Was muss ich denn beachten? Ich hab ja nur EINE GTX-295, das ist halt eine Karte mit 2 GPUs, habe daher kein SLI im Einsatz.
 
Zuletzt bearbeitet:
Leider falsch, die 295 ist ein SLI-System, würdest Du sehen wenn Du mal in den Treiber schaust. Da ist nämlich ein Schalter um das SLI abzustellen^^. Die Graka-Hersteller haben noch keine vernünftige Lösung für Multi-GPU gefunden ausser CF/SLI.

Vielleicht solltest Du Dich dann langsam mal damit auseinandersetzen.
Kein Profil im Treiber: Es läuft nur eine Graka
Bedeutet für Dich: Du musst nacharbeiten
a) Entweder Du erstellst Profile von Hand
b) Oder Du betreibst Exe-Renaming (SeriousSam.exe funktioniert für Furmark ganz gut)
c) oder Du forcierst SLI-Modi über den nhancer (das wäre für mich die 1. Wahl).

Altes Bildchen, sieht bei Dir wahrscheinlich ein bisschen anders aus, aber meine SLI-Zeiten sind schon ne Weile her



Und mit dem nhancer geht man
nasehv0.jpg
so um. Allerdings darfste noch kurz die nhancer config-Datei mit der Hand bearbeiten, der nhancer erkennt die 295 nicht als SLI-System. ForceSLI=True :-)

Ich lege Dir den nhancer ans Herz weil Du damit die volle Kontrolle über Dein SLI hast. Um Profile zu optimieren muss man z.b. immer die Anwendung schließen. Den nhancer kann man rausgetabbt aus einer Anwendung umstellen und die Änderungen sind sofort aktiv. Du kannst also auf die schnelle die SLI-Rendermodi durchprobieren und den besten für Deine Anwendung rausfinden. Die Treiber-Profile bei "nicht oft gebenchten" Softwarepaketen sind nicht immer optimal, und öfter auch mal wie im Beispiel von Furmark gar nicht vorhanden.
 
Zuletzt bearbeitet:
Hi HisN und nochmals danke, dass du mir da aushilfst. Also ich hab ja den aktuellsten nVidia-Treiber 186.18 und wenn ich in der nVidia-Systemsteuerung nachschaue, dann habe ich ja auch beide GPUs aktiviert, siehe hier:



Wie darf ich das jetzt verstehen? Obwohl der Schalter hier auf BEIDE GPUS verwenden gesetzt ist, wird nur eine GPU verwendet? Und wieso werden dann beim 3DMarkVantage beide GPUs aufgeheizt? Erstmal würde ich gerne das verstehen wollen.

Ich habe mir die aktuellste nhancer Version downgeloadet für mein Windows7 64-bit System und in der Beschreibung stand dass alle GTX-2XX Karten unterstützt werden, auch Windows7. Ich denke also, dass ich nix mehr in der Config anpassen muss?

Wenn ich das Tool starte, und z.B. für 3dMarkVantage ein Profil erstellt habe, dann habe ich dort gewählt "Anzeige der SLI-Lastverteilung" (damit ich sehen kann, ob SLI genutzt wird), SLI-Modus auf "Auto" weil ich keine Ahnung habe was die unterschiede zwischen SFR, AFR, AFR2, AFR-SFR, AFR 3-ay und AFR 4-way sind, und SLI DX10 habe ich auch auf Auto gesetzt. Ist das ok so?
 
Wie darf ich das jetzt verstehen? Obwohl der Schalter hier auf BEIDE GPUS verwenden gesetzt ist, wird nur eine GPU verwendet? Und wieso werden dann beim 3DMarkVantage beide GPUs aufgeheizt? Erstmal würde ich gerne das verstehen wollen.

Beide GPUs verwenden bedeutet erst mal nur das der Treiber Deine Graka als SLI erkannt hat und SLI aktiviert ist.
Für 3DMark gibt es ein SLI-Profil im Treiber (wird ja viel damit gebencht und die Leute kaufen sich Grakas mit vielen Punkte, da musste nicht nachbessern), deshalb werden beide Grakas verwendet. Es gibt für viele Anwendungen SLI-Profile, aber nicht für alle. Die die kein Profil haben, bei denen läuft nur eine Graka. So einfach ist das. Furmark gehört zu den Anwendungen für die es kein Profil gibt. Anno1404 ist eine Anwendung für die es (noch) kein Profil gibt. Nur so als Beispiel.

Und SFR, AFR .. ich sag ja.. mach Dich kundig. Ist doch ein kleines mal bei nhancer.com oder in der Wiki nachzuschauen. Im Endeffekt läuft es aber auf eins hinaus: Probieren. Jede Anwendung ist da unterschiedlich gestrickt. Einige funktionieren mit SFR gut, andere mit AFR, die nächsten mit AFR2 und die letzten gar nicht. AFR 3/4-way ist für die Leute die 3 oder 4 Grakas im Rechner haben.

Der Lastenausgleich-Anzeiger ist übrigens ein nützliches Tool um zu sehen wie Dein SLI funktioniert (und ob überhaupt^^).
 
Zuletzt bearbeitet:
Super! DANKE DIR!!! Werd mich schlau machen. Nur eins noch, dann nerv ich dich nicht länger: ich hab den Lastenausgleich-Anzeiger aktiviert, aber wo finde ich den? Wo sehe ich, ob beide GPUs von der Anwendung verwendet werden?
 
Das grüne da Links ist der Lastenausgleich. Wenn er aussieht wie auf meinem Bild arbeiten beide Grakas volle Pulle. Der Balken beginnt in der Mitte und schlägt zu den Seiten aus.




Solltest Du ihn gar nicht sehen fehlt vielleicht doch der Eintrag in der nhancer-Config im nhancer-Verzeichnis.
 
Zuletzt bearbeitet:
Ok danke! Mann ich bin blind... auf der nhancer-Seite HIER steht doch alles :)

Tausend Dank nochmal! Werd mir das in Ruhe mal alles reinziehen und rumtweaken...
 
Hab da noch 'ne Frage: ich hab mir Furmark aktuellste Version downgeloadet, und ich hab noch GAR NICHT übertaktet, also alles bei den Standardtakten belassen. Wenn ich einen Stabilitätstest laufen lasse in Furmark mit Vollbild auf 1920x1200 Pixel (meine Desktopauflösung) dann erreicht GPU1 max. 105°C und GPU2 max. 103°C !!!! Und ich hab sogar die Lüfter manuell auf 100% gestellt. Ist das nicht etwas viel???? Oder ist das wirklich nur ein synthetischer Stresstest, den man in real bei einem Game nie erreichen würde? Ist alles normal oder muss ich mir Sorgen machen, dass was nicht stimmt?
 
Über die Temps kann ich dir nix sagen, da ich keine Ahnung von der GTX295 habe, aber dass der Furmark ein Stresstest ist, der die Belastung beim Zocken um Längen übertrifft, hast du richtig erkannt. :)
 
Wenn die Grakas anfangen zu throtteln oder der Rechner ausgeht ist es zu viel. Bei 105° ist Throttel-Temp erreicht. Schlechte Gehäuselüftung? Rechner auf und Venti davorstellen.
 
Furmark ist ziemlich unrealistisch bzw. solch eine Last wirst du in Spielen nie erreichen.
 
Dann bin ich ja beruhigt. Danke!

Also ich hab jetzt mal die Taktfrequenzen über das Gainward Expertool verändert (hab die Gainward GTX-295 und mir von gainward.com dieses Expertool gezogen). Daraufhin hab ich mit dem ATI-Tool getestet, dass keine gelben Artifakte mehr zu sehen sind, und manchmal ist der nvidia-Grafikkartentreiber einfach abgestürzt und wurde neu gestartet (wenn ich die Clocks zu hoch hatte, meist resultiert das aus zu hoher Core-Clock oder Shader-Clock). Wie auch immer,hab mich an die Grenzen rangetastet und derzeit hab ich folgende Werte für meine Karte gefunden:

Core Clock: 683 MHz (+18,58 % Steigerung zur Standard-Clock von 576 MHz)
RAM-Clock: 1.200 MHz (+20,12 % Steigerung zur Standard-Clock von 999 MHz)
Shader-Clock: 1483 MHz (+19,40 % Steigerung zur Standard-Clock von 1242 MHz)

Wenn ich den Durchschnitt der Steigerungen dieser 3 Werte nehme, dann ergibt das +19,37 % Steigerung.
In dem genannten Test der hier gepostet wurde, wurde besagt, dass die GTX-295 wirklich fast 1:1 die Steigerung auch rüberbringt. Ich hab das ausprobiert, wie folgt:

Also, ich klicke im ATI-Tool "Show 3D View" klicken, dann dreht sich der Würfel und es wird die FPS-Zahl angezeigt und der Durschnitt (AVG). Ich lass das ganz genau 3 Minuten laufen, damit sich ein guter Durschnitt (AVG-Wert) bildet und dann eben zwei mal die Werte abgeschaut nach 3min.

Ohne Übertaktung, also Standardclocks, krieg ich 1509 FPS AVG (CPU Intel i7@3.9GHz muss hinzugefügt werden!). Mit Übertaktung der oben genannte Werte, krieg ich 1821 FPS AVG. Das sind +20,68% AVG FPS :)))) Sogar ein klein wenig mehr, wie vom oben ermittelten theroetischen Performancegewinn. Das nenne ich doch SUPER *freu* Wie gesagt, bezieht sich das jetzt lediglich auf diesen Würfel im ATI-Tool im kleinen Fenster. Aber trotzdem ein zufriedenstellender Performance-Gewinn würde ich sagen, oder nicht?
 
Zuletzt bearbeitet:
Sei froh wenn deine GTX das überlebt hat, denn bei ihr gehen nicht die GPUs über den Jordan sondern die SpaWas, und die dürften bei der Aktion irgendwo im roten Bereich unterwegs gewesen sein...

Alles auch nachzulesen im GTX Sammelthread, da haben mit dem "tollen" Tool schon einige ihre Grakas geschrotet, also am besten schmeißt du das Ding sofort wieder vom Rechner...

MfG
 
Wie jetzt? Du meinst das "Gainward Expertool" ??? Oder auf was beziehst du deine Aussage? Oha! Wieso das denn? Über das Tool hab ich doch lediglich die 3 Taktfrequenzen verändert, nix anderes.
 
Okay, ich habe mich blöd ausgedrückt, ich spreche von Furmark.
 
*puuuh* dann bin ich ja beruhigt. Das scheiss Teil habe ich wieder de-installiert gehabt, so sehr wie es die GraKa ausgelastet hat und sowieso nix mit der Realität zu tun hat.... trotzdem danke für deinen Hinweis!

PS: Was sind SpaWas? :p

Leute, ich hab jetzt grad 'n andres Problem. In Crysis ist mir aufgefallen, dass ganz weit entfernte Palmen, die am Horizont vor der grellen Sonne und dem Himmel zu sehen sind, flackern. Und in GTAIV hab ich gesehen, dass Schatten flackern. Hat jemand eine Ahnung was das sein könnte?
 
z-Fighting
Stell im Treiber die Filter-Qualität auf den höchsten Wert, das verhindert das ein bisschen. Schatten-Fehler sind übrigens ein "übliches" SLI-Übel. Sorry wenn ich da voreingenommen bin. Bei GTA sind die Schatten sowieso nicht so "das gelbe vom Ei", allerdings tragen sie viel zur Stimmung bei. Da Dein SLI bei GTA NULL Punkte bringt könntest Du es ja mal abschalten und schauen ob es dann besser wird, bevor Du allzulange rumsuchst und fummelst (wäre immer das 1. was ich machen würde^^).

Spawas: Spannungswandler, das heisseste Bauteil auf Deiner Graka.
 
Zuletzt bearbeitet:
Also im nVidia-Treiber gibts ja ein GTAIV.exe Profil für das Game und standardmässig ist dort Multi-GPU gewählt. Wenn ich Einzel-GPU auswähle, hab ich auch die Hälfte der FPS, also das ist es wohl definitiv nicht. Und die Texturfilter-Qualität auf SEHR HOCH hat auch keine Hilfe gebracht. Komisch .... hmmm....
 
Hallo nochmal. Boah, das ist echt nervig! Ich habs jetzt in 3 verschiedenen Games. Ich denke mal es liegt an der GraKa, daher poste ich es in diesem Thread. Ich werd gleich versuchen ein Ingame-Video zu machen und zu posten.

1.) Crysis: Texture ganz weit weg flimmern auf

2.) GTA4: Schatten flimmern auf und das Problem mit dem Kamera-Schütteleffekt

3.) FSX: Bodentexturen flimmern, und auch Strassenmarkierungen.

Hab auch mit nHancer rumgespielt und diverse Einstellungen durchprobiert (Mips erzwingen, AA aus/ein, AF aus/ein, SLI aus/ein, usw...) nix hilft! Wieso? Was ist das für 'ne Einstellung? Hoffe jemand kann weiterhelfen, bin schon echt am Verzweifeln.

Hier ein Video davon, damit ihr euch es mal selbst anschauen könnt:
 
Zuletzt bearbeitet:
Das was Du siehst ist z-fighting.
Da liegen zwei Texturen praktisch ineinander und die Karte kann sich nicht entscheiden welche oben und welche unten liegt, deshalb flackern die sich einen ab.

Den Cam-Shake bei GTA bekommen doch eigentlich nur die Leute die einen Crack verwenden. Das Spiel ist aktuell gepatched? Die Schatten in GTA sehen wie schon erwähnt bescheiden aus^^ Bei allen.
 
Zuletzt bearbeitet:
@ Sloop

Hatte auch schon sowas wie in deinem Video!
Bei mir lag es an der Einstellung:
nVidia Systemsteuerung -> 3D-Einstellungen verwalten -> Antialiasing - Transparent -> war auf "Ein", das muß auf "Aus" damit es weg geht.
N-hancer auch resetten, sofern möglich.

Gruß
 
Danke für eure Tips. Aber "Antialiasing --> Transparenz" ist bei den globalen Einstellungen, sowie im FSX-Profil standardmässig auf [Aus]. Was soll ich denn noch versuchen um dieses beschissene Z-Fighting ausm Weg zu räumen?
 
Danke für eure Tips. Aber "Antialiasing --> Transparenz" ist bei den globalen Einstellungen, sowie im FSX-Profil standardmässig auf [Aus]. Was soll ich denn noch versuchen um dieses beschissene Z-Fighting ausm Weg zu räumen?

Ich will dir ja keien Angst machen, aber ich hatte das selbe Problem bei meiner ersten GTX 295 und hab es nicht in den Griff bekommen.
Wobei diese Probleme auch erst nach dem beschiessenen Furmark aufgetreten sind.
Meine Karte wurde auch zu heiß.
Haben sich schon einige die Karte mit geschrottet.
Hab schließlich die Karte zurück geschickt und ne neue bekommen. :(
Seit dem habe ich keine Probleme mehr.
Hast du das flackern auch noch wenn du Sli ausmachst?
Weil dann müste es ja weg sein?
Hast du das flackern auch auf default?
Hast du mal den Treiber neu geladen?
Hast du NHancer mal runtergeschmissen und dann probiert?
Das wären so meine Ansätze die ich probieren würde.
 
Also beim Furmark hatte ich ja glaub bei 104° abgebrochen. Im Bereich zwischen 100 und 104 Grad war sie vielleicht höchstens 1min. Ich glaube kaum, dass die Karte dadurch einen Schaden genommen hat, vor allem sollte sich das ja auch anders dann bemerkbar machen. Ich schließe das definitiv aus. Mir ist grad was andres aufgefallen: wenn ich "dxdiag" ausführe und dort auf Anzeige klicke, dann wird meine Grafikkarte wie folgt angezeigt:

Name: NVIDIA GeFroce GTX 295
Hersteller: NVIDIA
Chiptyp: GeForce GTX 295
DAC-Typ: Integrated RAMDAC
Gesamtspeicher ca.: 364MB
Anzeigemodus: 1920 x 1200 (32bit) (59Hz)
Monitor: Dell 2408WFP(Digital)

Haupttreiber: nvd3dumx.dll, nvwgf2umx.dll, nvwgf...
Version: 8.15.11.8618
Datum: 10.06.2009 18:33:00
Mit WHQL-Logo: Ja
DDI-Version: 10
Treibermodell: WDDM 1.1

Wieso werden nur 364MB angezeigt??? Da stimmt doch was nicht? Liegt das daran, dass ich 12GB RAM habe? Und wie kann ich das korrigieren? Wenn ich in der Systemsteuerung auf "Darstellung und Anpassung" --> "Anzeige" --> "Bildschirmauflösung" gehe und dort "Erweitere Einstellungen" klicke, dann steht für meine Grafikkarte folgendes:

...
Insgesamt verfügbarer Grafikspeicher: 4476 MB
Dedizierter Videospeicher: 896MB
Systemvideospeicher: 0MB
Gemeinsam genutzer Systemspeicher: 3580MB

Also hier wird mein GraKa-RAM richtig angezeigt.


Wenn ich 3 Riegel rausnehme, also mit 6GB arbeite, dann steht im DXDIAG drin:

Name: NVIDIA GeFroce GTX 295
Hersteller: NVIDIA
Chiptyp: GeForce GTX 295
DAC-Typ: Integrated RAMDAC
Gesamtspeicher ca.: 3691MB
Anzeigemodus: 1920 x 1200 (32bit) (59Hz)
Monitor: Dell 2408WFP(Digital)

Haupttreiber: nvd3dumx.dll, nvwgf2umx.dll, nvwgf...
Version: 8.15.11.8618
Datum: 10.06.2009 18:33:00
Mit WHQL-Logo: Ja
DDI-Version: 10
Treibermodell: WDDM 1.1

und in den erweiteren Einstellungen der Bildschirmauflösung steht:

...
Insgesamt verfügbarer Grafikspeicher: 3707 MB
Dedizierter Videospeicher: 896MB
Systemvideospeicher: 0MB
Gemeinsam genutzer Systemspeicher: 2811MB

Wie entstehen die Werte bitteschön, warum so verschieden und vor allem falsch? Was ist nun richtig? Bin total verwirrt!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh