Microruckler bei neuen Treibern?

Punsher

Neuling
Thread Starter
Mitglied seit
25.12.2008
Beiträge
161
Hallo

Wollt mal fragen ob mit den neuen Treibern immer noch Microruckler entstehen können bei einer GTX295!?

Mfg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Unter 30FPS oder wie bei einer Single-Gpu auch
 
Dachte das wär bei den neuen treibern behoben.
 
Naja, bei 60fps vielleicht höchstens im Ausnahmefall - etwa in Shootern ein kurzer Input Lag beim sehr schnellen Drehen um die eigene Achse.
IdR nur unter 30fps, also da wo es auch mit ner Single GPU unrund läuft.

Seit Anfang 2009 und mit dem 181.20 ist diese Besserung im Bereich MR aktiv.
Ich kann mich echt nicht wegen Mikroruckler beschweren und ich hab schon verdammt viele Games seit Januar gespielt. ;)
 
Zuletzt bearbeitet:
Die Mikroruckler Hysterie ist noch behinderter als die mit der Schweinegrippe (welche sich zunehmend verbreitet).

Ich habe selber ne HD 4870 X2 und bin doch nicht grad blind.
Mir sind die Mikroruckler nicht aufgefallen.

Und mein Kollege der gar noch immer mit seinen 2 7800 GTX Karten im SLI rumdümpelt hat die auch noch nie so recht bemerkt.

Denn die Treten sowieso quasi nie bemerkbar auf, solange man über 40 FPS hat.
Und wo ne GTX 295 bzw. ne HD 4870 X2 noch 40 FPS haben, schaffen die meisten Single-GPU Karten nicht mal mehr spielbare 30 FPS.

Da sind dann die Mikroruckler wurst.
Weils dann so oder so mit der HW nicht zu zocken ist.

Klar, ne HD 5870 ist ne ganz feine Konkurrenz und schon alleine wegen des nicht ganze so frechen Stromverbrauchst / Hitzenentwicklung der HD 4870 X2 vorzuziehen.

Nur weil man die mit so lustigen Tools messen kann, und sichtbar machen, heisst das noch nicht, das Zocken grad zur Qual wird. ^^

Ich frage mich, ob die bei Schachbrett Rendering oder geteiltem Bild auch bemerkbar machen?
Denn selbst auf den 2 7800 GTXen des Kumpels sieht man kaum was verziehen.
 
Zuletzt bearbeitet:
<-- hat Microruckler gehabt. Wer sie nicht sieht hat sich seine Graka zu fett gekauft bzw einen zu kleinen Monitor :-)

BTW Fred-Ersteller eine 295 ist zur Zeit wohl nicht gerade .... geschickt wenn es single-GPUs gibt die in einer änlichen Leistungsklasse angesiedelt sind aber deutlich billiger daherkommen und die ganze SLI-Problematik (MR ist ja nur ein winziger Teil davon) nicht mit sich bringen. Warum so nen Quark?
 
Zuletzt bearbeitet:
Also ich habe auch ne GTX295 von Zotac und nen 24zöller. Und ich Zock meine Games mit AA usw alles voll oben bei 1920x1200 und habe auch meine Microruckler.
 
<-- hat Microruckler gehabt. Wer sie nicht sieht hat sich seine Graka zu fett gekauft bzw einen zu kleinen Monitor :-)

BTW Fred-Ersteller eine 295 ist zur Zeit wohl nicht gerade .... geschickt wenn es single-GPUs gibt die in einer änlichen Leistungsklasse angesiedelt sind aber deutlich billiger daherkommen und die ganze SLI-Problematik (MR ist ja nur ein winziger Teil davon) nicht mit sich bringen. Warum so nen Quark?

Was sind den die anderen Nachteile von SLI?
 
Ich hab das mal zusammengefasst, auch ein bisschen ausführlicher..

Wann funktioniert SLI nicht?

- Bei CPU Limit

Kleiner Exkurs. Der Prozessor geht durch den Main-Game-Loop bis zur Grafik-Berechnung. Bereitet dort alle Daten für die Graka vor und schickt sie dann an die GPU zum rendern. Dann beginnt er wieder mit dem Main-Game-Loop, kommt ein 2. mal bei der Grafik an, berechnet die Daten und ..... wartet bis die Graka fertig ist wenn man nur eine hat. Solle eine 2. im System vorhanden sein kann die CPU ihre Daten zur 2. Graka schicken und sich wieder dem Main-Game-Loop zuwenden. Bei DX9 gehjt das bis zur 3. Graka (oder dem 3. vorgerechneten Bild), unter Vista wenn DX10 benutzt wird sogar 4 Grakas. Das man sich die Leistung dann mit Mauslag (ich bewege die Maus nicht mehr, aber es sind ja schon 3 Bilder vorausberechnet worden, die auch angezeigt werden) erkauft lasse ich hier mal nur am Rande erwähnt. Wohl denen die noch einen TFT-Monitor besitzen der zusätzlich ein paar Bilder Overdrive-Lag produziert.

Ist die CPU zu lahm, also schafft sie es nicht die Graka-Daten vorzubereiten bevor die 1. Graka mit rendern fertig ist, schickt sie ihre Daten dann wieder an die 1. Graka die ja auf die nächsten Daten wartet.
Das passiert häufig bei winzigen Auflösungen, ist aber in der Regel auch von der verwendeten Game-Engine abhängig. Source-Games z.b. sind alle so Prozessor-Lastig das sie kaum auf SLI reagieren.

Daher auch der Satz "um dieses SLI-System auszulasten braucht man eine CPU mit XXX Mhz".
Die Grenze ist natürlich völlig fließend, für jede Anwendung, Auflösung, jedes Detail-Setting.

- Wenn die Anwendung kein SLI unterstützt
Wurde oben schon angerissen, aber meiner Meinung nach viel zu knapp. Eine Anwendung unterstützt nicht automatisch SLI, dazu gehören schon einige Anpassungen, und wenn diese auf Grund der verwendeten Game-Engine nicht vorgenommen worden, oder wenn die Zeit und der Manpower fehlen, dann ist es Essig mit Mehrleistung. Ich glaub als gutes Beispiel kann man immer noch Gothic3 nennen.

- Wenn der Treiber die Anwendung nicht unterstützt
Mit ein Grund warum Nvidia ständig die SLI-Profile nachbessert. Aber es gab auch schon wundervolle Momente in denen Nvidia SLI-Profile vergessen hat (die 64-Bit-Exe von Crysis z.b.) oder einfach falsche Profile (NFS2 glaube ich mich zu erinnern) in ihre Treiber einbaut. Für viele kleine Anwendungen sind gar keine Profile vorhanden. Warum auch? Kostet Geld und Zeit und wenn die Anwendung nicht gebencht wird ist es sowieso egal^^. Selbst im Falle von Blockbustern die mit Millionen von Nvidia gesponsort wurden (ich nenne noch mal Crysis) hat es gut ein halbes Jahr gedauert bis die SLI-Fähigkeiten von Software und Treiber einigermaßen vernünftig hinbekommen wurden. Nach 6 Monaten steht bei mir die Software schon durchgespielt im Schrank und schimmelt.

- wenn der User nicht ständig die Leistung seiner Grakas/Anwendungen überprüft und mit nhancer oder exe-Renaming nachhilft.
Einfach weil SLI-Profile in den Treibern nicht immer optimal voreingestellt sind oder ganz fehlen.

- bei VRAM limit
Wie wir alle wissen gehen Nvidia-Grakas nicht so gewissenhaft mit ihrem Speicher um wie die ATI-Grakas. Deshalb kann es in höheren Auflösungen durchaus vorkommen das die brutale Leistung die man mit dem SLI hat durch Texturswaps eingebremst wird. Ich hab das immer gut bei Company of Heroes sehen können. Durchgehend 60 FPS ... sehr schön, selbst an meinem 30" Moni. Aber wehe ich scrolle über die Map oder mache einen Jump über die Minimap. Ruckeln, warten ... die Min-FPS kommen in diesem Szenario nämlich sehr viel deutlicher rüber wenn man von 60 auf 0 abstürzt, als wenn man sowieso nur 20 FPS hat^^

Der Speicher der Grakas wird übrigens nicht addiert, jede Graka muss ganze Bilder rendern, braucht also alle Daten lokal in ihrem VRAM und die Grakas haben untereinander natürlich keinen Zugriff auf das VRAM der anderen Karten

Nebenbei schafft man sich damit ganz schöne Radaumacher und Platzvernichter für den PC an. Es soll ja tatsächlich Leute geben die noch andere Steckkarten als die Grakas im Rechner haben. Von den Installations-Schwierigkeiten der dann ab und zu doch sehr wackeligen Geschichte mal ganz abgesehen, die Hardware-Foren sind voll von "mein SLI geht gar nicht oder bringt keine Leistung".

Ganz abgesehen von den Grafikfehlern die man durch das SLI zusätzlich vermacht bekommt, sehr häufig bei der Darstellung von Schatten.

Deshalb von mir: Dicker Daumen unten. Ich will zocken und nicht popeln (liegt vielleicht an meinem Alter, da wird die Zeit langsam kostbarer als die FPS) oder auf neue Treiber warten. Und für die Leute mit großen Monitoren ist auch SLI nicht DIE Wunderlösung, denn auch da stürzen die FPS gerne so weit in den Keller das Microruckler auftreten. Es ist frustrierend wenn einem der FPS-Counter 30 FPS anzeigt, aber das Bild aussieht als würden nur 10 gerechnet. Mag ja für die Leute mit 17"-Monitoren nicht wirklich zutreffen, aber 22" und 24"-Monis sollen tatsächlich in den Absatzzahlen steigen :-)
 
denn schau dir mal nen quad SLI an was mehr als 60FPS hat und sag mir da sind microruckler zu vernachlässigen..

Ich habe selber SLI gehabt und muss gestehn meine Warnehmung ist nich anfällig dafür
 
Zuletzt bearbeitet:
ich frag mich immer was Quad-SLI bringt solange noch 99% aller Games DX9 sind .... für die 4. Graka im Bunde auf jeden Fall einen urlaubsreichen Arbeitsalltag :-)
Nur um das zu ergänzen shaqiiii^^

Und BQ kann man mit der 295 auch nicht anziehen, weil für hohe AA-Level fehlt denen einfach mal das VRAM.
 
Zuletzt bearbeitet:
Mhm also doch bei meiner jetzigen XFX GTX260 bleiben?
 
ich frag mich immer was Quad-SLI bringt solange noch 99% aller Games DX9 sind .... für die 4. Graka im Bunde auf jeden Fall einen urlaubsreichen Arbeitsalltag :-)Nur um das zu ergänzen shaqiiii^^

Falsch. 4Way-AFR funktioniert auch mit DX9 Applicationen (Vista/Win7 only)
 
Das hat niemand bestritten, ich habe gesagt das DX9 nur 3 Frames prerender hat und das bei 4-way-AFR die 4. Graka keine Daten bekommt.

Haben die das Limit aufgeweicht? Oder warum gab es Quad-SLI-Treiber nur unter Vista-DX10 (OGL)
 
Zuletzt bearbeitet:
ich bin echt froh das mir diese MR nicht auffallen, und ich glaube vielen Leuten fallen die auch erst auf nach dem sie davon gelesen haben....:d
ich würde und werde auch in Zukunft wieder zu Dualkarten und /oder CF/SLI greifen:hail:
 
HAbe folgendes System

Intel Core i7 920
Asus Rampage II Extreme
Noctua CPU Kühler
6gb Corsair DHX DDR31600 RAm
Enermax Modu+ 620 Watt NT

Und dann halt eventuell die GTX295

Würd sich das lohnen?ODer gibts af dem System Probleme?
 
Was bedeutet denn für Dich "lohnen"?
Warum die teure Karte wenn es von ATI die gleiche Leistung für weniger Geld ohne CF/SLI-Problematik aber mit mehr VRAM gibt? Mach Dich kundig ob und wie Deine Software mit SLI skaliert, dann kannste schauen ob es sich für Dich "lohnt". Im Ernstfall läuft halt nur eine GTX260 wenn Du das SLI nicht auf die Reihe bekommst, und das war dann eine teure 260GTX^^.

Und warum sollte es auf dem System Probleme geben? Nenn mir ein System wo es Probleme gibt. Die unsäglichen GX2/x2 sind doch extra dafür gemacht auf allen System zu laufen.
 
Zuletzt bearbeitet:
Wie siehts eig. mit 3way-SLI aus? mit 3 GTX260

Tja was willst Du denn genau wissen? Funktionieren tut es jedenfalls auf dem Mainboard. Dir sollte aber klar sein, dass es nichts mehr mit "lohnen" zu tun hat, sondern nur noch mit Spielerei und Experimentierfreudigkeit.

Bei 3 Karten und OC auf der CPU ist dann allerdings schon so langsam das Limit des Netzteils erreicht. Da würde ich nicht mehr mit 620 Watt antanzen. Von den Stromanschlüssen ganz zu schweigen, Du brauchst dann 6 x PCIe-Stromstecker und das über Adapter ist eine elende Fummelei und sieht zudem noch bescheiden aus. Durch die vielen Steckübergänge leidet auch die gesamte Stromversorgung.
 
Okay

Überlege viell auch 2 GTX260 zu nehmen bzw 1ne da ich ja schon eine hier hab!

Sind 2 GTX260 besser oder eine GTX295?
 
Okay

Überlege viell auch 2 GTX260 zu nehmen bzw 1ne da ich ja schon eine hier hab!

Sind 2 GTX260 besser oder eine GTX295?

Eine 295er. Sie hat mehr Streamprozessoren, je nachdem welche 260er Du hast haben die 192 oder 216, die 295er hat immer 2 x 240 SPs.

Der Rest wäre vergleichbar.
 
Hab halt nur schiss bei nem SLI System das ich dann gelagge hab ohne ende!

HAb die 216er Version!
Aber so viel langsamer dürfte die dann auch net sein oder?
 
Hab halt nur schiss bei nem SLI System das ich dann gelagge hab ohne ende!

HAb die 216er Version!
Aber so viel langsamer dürfte die dann auch net sein oder?

Viel langsamer werden die wohl nicht sein. Aber wenn Du SLI eher nicht möchtest, fällt das doch sowieso alles weg. :)
 
Also ich hab mich viel über MSN mit leuten unterhalten die SLi haben,und die haben mir alle gesagt das diese besagten MR (Microruckler) kaum bis garnicht vorhanden sind.

Für was willst du dir eigentlich Sli kaufen,welches Spiel läuft den mit 1. Karte nicht zufrieden stellend?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh