Microruckler bei neuen Treibern?

Ich habe bisher keine Probleme mit meinem System. Meine Spiele haben entweder funktionierende SLI Profile oder arbeiten auch notfalls mit nur einer Karte sehr gut (hier speziell Valve Sourcegames).

Das ist natürlich nicht der Maßstab.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber dann ist die 2. Karte doch völlig umsonst, wenn die Games mit einer Karte sehr gut laufen. Darauf will ich doch hinaus. ^^
 
Aber dann ist die 2. Karte doch völlig umsonst, wenn die Games mit einer Karte sehr gut laufen. Darauf will ich doch hinaus. ^^

Nicht ganz richtig verstanden. Ich habe fast nur Spiele, die gut mit SLI funktionieren und auch davon profitieren. Ausnahme sind die CPU-lastigen Sourcespiele von Valve, die aber auch mit einer Karte sehr gut laufen. Du kennst das ja selbst, die sind hauptsächlich von der CPU abhängig und laufen ansonsten mit "allen" Karten irgendwie gut.
 
MR werden meiner Meinung nach auch viel zu viel gehypt, ich hab damals mit einer HD4870X2 auch bei ~30FPS keine MR wirklich gespürt, jeder nimmt das ganze aber anders war...

Fakt ist aber (und das ist das viel größere Problem) bei mehr als einer GPU entsteht im AFR Modus ein Input Lag, was nicht per Treiber wegzubekommen ist...
Um so niedriger die FPS, desto mehr merkt man das ganze...

Um das ganze Bildlich zu verdeutilchen, bei 30FPS werden jeweils 15 Bilder pro Sekunde von der einen und 15 von der anderen GPU berechnet.
Aber die Usereingabe über Maus/Tasta/Gamepad ist nur alle zwei Bilder auf dem Schirm sichtbar. Sprich alle 15tel Sekunde wirkt die Eingabe.
Bei 4 GPUs werden jeweils 7,5 Bilder von den GPUs berechnet, aber die Usereinbage ist nur noch alle 4 Bilder sichtbar... sprich alle 7,5tel Sekunde.

Wohlgemerkt im AFR Modus, welcher bei 2 GPUs (eins im Vorraus) und bei 4 GPUs (3 im Vorraus) berechnen lässt...
Sobald diese Berechnung einmal angestoßen ist, wirkt die Usereingabe erst beim nächsten Durchlauf...

Als Extrembeispiel bei 1 FPS und 4 GPUs erfolgt die Sichtbarkeit der Usereingabe nur noch alle 4 Sekunden ;)

Die ungleichmäßigkeit der Bildausgabe verschiebt die Sichbarkeit der Eingaben natürlich noch ein wenig, mal sieht man die Änderung schneller, mal langsamer, je nach Frametime ;)

Das würde mir in Summe viel mehr Gedanken machen...
 
Zuletzt bearbeitet:
Meint ihr meine XFX GTX260 621M läuft mit dem Intel Core i7 920 besser als mit dem AMD Athlon 64 X2 6400+ bzw. dem Phenom II 940?
 
Natürlich laufen sie auf nem i7er besser. ;)

Mit Phenom II wär es auch nicht so schlecht - mit Q9xxx vergleichbar, aber der Athlon 64 X2 wär nur ne Handbremse für SLI mit zwei schnellen DX10 GPUs.
 
Zuletzt bearbeitet:
Weil die CPU einfach zu langsam ist ;)

Das hat viele Gründe, in einigen Games wirst du wenig Unterschied merken, in anderen hingegen deutlich...
 
Wenn ich mir jetzt ne GTX260 Black Edition kauf! Läuft die mit meiner jetzigen GTX260 mit 621 MHZ?
 
Ja, aber auch nur mit 621 MHz im SLI - also brauchste dir eigentlich keine teurere BE zu holen.

Dann musste wieder beide Karten im SLI zusammen oc'en, damit beide mit BE Takt laufen.
 
Zuletzt bearbeitet:
sollten nicht beide Karten mit ihrem vollen Takt auch im SLI laufen?
Bei AMD ist das zumindest so, würde mich wundern, wenn NV da nen anderen Weg geht...

Dafür ist die schnellere Karte etwas weniger ausgelastet wie die langsamere (welche idR am Limit im SLI äuft) wenn kein CPU limit vorliegt...
 
Also bei NV taktet die schnellere Karte auf den Takt der langsameren herunter - konnt ich persöhnlich noch nicht testen
(hatte noch nie ein SLI ready Board sowie 2 identische Single GPU Karten), aber habe es schon oft gelesen, dass es so ist.
 
Zuletzt bearbeitet:
nVidia schaltet die Karten gleich und orientiert sich an der kleinsten Karte. Aus rein technischer Sicht (Kompatibilität, Gewährleistung, etc) meines Erachtens der richtige Weg, denn ein automatisches Übertakten kann auch in die Hose gehen und schließlich muß das mit SLI Siegel dann auch entsprechend laufen, wie versprochen. Damit gilt der Takt der langsamsten Karte und je nach Modell auch der VRAM der kleinsten Karte, z.B. bei 285er GTX 1 GB und 2 GB.
 
nVidia schaltet die Karten gleich und orientiert sich an der kleinsten Karte. Aus rein technischer Sicht (Kompatibilität, Gewährleistung, etc) meines Erachtens der richtige Weg, denn ein automatisches Übertakten kann auch in die Hose gehen und schließlich muß das mit SLI Siegel dann auch entsprechend laufen, wie versprochen. Damit gilt der Takt der langsamsten Karte und je nach Modell auch der VRAM der kleinsten Karte, z.B. bei 285er GTX 1 GB und 2 GB.

Das mit dem VRam ist klar... Aber bei AMD takten die Karten so wie sie sollen, sprich mit vollem Takt, die schnellere Karte (also die mit mehr Takt hingegen bekommt aber weniger Last ab)

Lässt sich schön bei OC Benches vergleichen, hab das damals mit der X2 getestet, wenn man nur eine GPU OC'ed, dann bekommt diese OCed GPU wengier GPU Auslastung ab als die andere, welche im CF Modus idR bei ~99% fährt...
 
Interessant, ist mir bei meinen alten CF-Systemem nie aufgefallen. Allerdings waren die Karten nie übertaktet.
 
Ob sich 2 GTX260 für mich lohnen weiß ich halt nicht!
Spiele WoW und meistens neue Spiele wo rauskommen wie jetzt Operation Flashpoint 2, Resident Evil5, Call Of Duty MF2 usw.

WoW unterstützt auch kein SLI oder?
 
Was bedeutet "unterstützt", WOW läuft in der Regel CPU-Limitiert :-)
Kauf Dir halt eine, probier es aus und schick sie zurück wenn es nicht so funktioniert wie Du es willst. Das die Meinungen da auseinandergehen merkt man doch.

Hast Du tatsächlich FPS-Probleme bei einem so alten Game wie WOW? Die Grafik-Engine ist da doch nicht wirklich "up-to-date", oder? Wie Du rausbekommst ob WOW CPU oder GPU-Limitiert läuft hab ich schon erklärt glaube ich .... lässt sich in 2 Minuten rausfinden ohne das Forum zu fragen, das keine Ahnung von Deinen Settings hat.

BQ anziehen: FPS bleiben gleich=CPU-Limit, FPS brechen ein= Graka-Limit.
 
Zuletzt bearbeitet:
WoW also bitte für das braucht man doch kein SLI das Spiel ich mit meiner HD3870 mit 30FPS !
Würde das machen was HisN sagte, kauf dir eine Single GPU ala. HD5870/50m die hat genug Power und keine Mikroruckler..
 
Läuft ne GTx295 besser weil die Chips auf einer Platine sind oder gleich mit 2 GTX260`?
 
Läuft ne GTx295 besser weil die Chips auf einer Platine sind oder gleich mit 2 GTX260`?

Die Frage hatten wir doch schon. Die 295er ist etwas schneller, weil sie mehr Streamprozessoren als 2 x 260 GTXer hat.
 
Lasst ihn doch zwei GTX295 kaufen, er hat sich ja auch andere dicke Hardware gekauft, wo ich sicher bin, dass er die überhaupt nicht brauch, weil er schon jetzt mit dem Board überfordert ist und nur seine 4GHz+ sieht.
Anfangs sollte es auch ein schickes AMD X4 955 System werden...
 
Ich sehs gerade, der Gute erstellt ja zig Threads, die sich im Prinzip in einem einzigen Kaufberatungsthread hätten vereinen lassen.
 
Genau :)

Typischer unbelehrbarer User.
Am Ende lauft er sich eh was anderes...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh