[Sammelthread] Mikroruckler - Entstehung, Benches, Einfluss von GPU-Anzahl und CPU, Lösungsansatz

1. Einleitung

Da hier im Forum das Thema Mikroruckler immer mal wieder vorkommt, die wenigsten aber genau wissen, was das ist, woher es kommt und wie man damit umgeht, eröffne ich diesen Thread.

Das soll nun aber kein Monolog werden, sondern auch euer Wissen und eure Erfahrungen sind gefragt. Vieles ist auch mir noch unklar, und wenn ich irgendwo Quatsch schreibe, wäre ich für eine Richtigstellung (aber bitte mit Erklärung und evtl. Beleg) sehr dankbar. Wer gar ein paar Benchmarks beisteuern möchte, ist herzlich willkommen, dies zu tun.

Abkürzungen

MR: Mikroruckler
SGPU: Single-GPU, Rendering auf einer GPU
MGPU: Multi-GPU, Rendering auf mehreren GPUs (Crossfire/SLI)
SFR: Split Frame Rendering, mehrere GPUs rechnen immer an einem Bild
AFR: Alternate Frame Rendering, mehrere GPUs rechnen allein an aufeinanderfolgenden Bildern


2. Mikroruckler und ihre Entstehung

Normale Ruckler (oder auch Makroruckler) enstehen, weil man zu wenig fps hat. Für einen flüssigen Bildaufbau fehlen dann Einzelbilder. Diese Ruckler können sowohl bei Single-GPU als auch bei CF/SLI auftreten.

Mikroruckler treten auf, wenn man genügend Bilder in einer Sekunde hat, diese aber nicht gleichmäßig über dieses Zeitintervall verteilt sind. Das folgende Diagramm stellt dies anschaulich dar.
Von oben nach unten: SGPU, MPUG (AFR), MGPU (SFR) - Bild von Spasstiger aus dem 3DC



MR sind ein inhärentes Problem der AFR-Rendermethode. Wird gleichzeitig immer nur ein Bild bearbeitet, wie es bei SGPU und SFR der Fall ist, werden die Bilder einfach ausgegeben, wenn sie fertig sind (ohne VSync oder Triple Buffering). Bei AFR hingegen ist Synchronisationsarbeit nötig, wie das folgende Diagramme zeigen sollen:

50fps


40fps, 33fps:


Annahmen:

  • Es dauert 10 ms, bis die Daten für ein Bild bereit sind
  • Eine GPU rechnet deutlich länger an einem Bild (GPU-Limit)
  • Die Bildaufträge werden sequentiell abgearbeitet und herausgegeben, nicht auf einmal
  • Wir betrachten nur ein kleines Zeitintervall (< 1 Sekunde)

Alle zwei Bilder (bei zwei GPUs) tritt eine größere Verzögerung ein, weil die GPUs zu schnell hintereinander angefangen haben zu rendern. Dem Rendering voran geht die Datenverwaltung der Spieleengine, Berechnungen auf der CPU, Transfers zum RAM und per PCIe zur Hauptgrafikkarte.

Die Engine weiß nicht, wie lange dies alles dauert und wie lange die GPU(s) rendern werden. Sie kann also in der Regel die Geschwindigkeit, mit der sie die Daten rausgibt, nicht passend timen.
Hierzu auch Lars Weinand von Nvidia:

‪Nvidia - Mikro Ruckler - Die Erklärung - Patrick fragt!‬‏ - YouTube

Einen wichtigen Einfluss hat die CPU, die wohl maßgeblich die Vorbereitungszeit für ein Bild bestimmt.

Allerdings muss irgendeine Synchronisation stattfinden, denn wenn man das Diagramm weiterführen würde, würde der zeitliche Abstand zwischen vorausberechneten Daten und zugehörigem Bild immer größer werden (solange man im GPU-Limit bleibt).

Man misst MR mit Frametimeabständen, also der Zeit, die zwischen der Ausgabe der einzelnen Bilder liegt. In einem Graphen sieht das dann so aus:


Quelle: PCGH

3. Einfluss der CPU

Wie schon erwähnt, liegt die Ursache der MR wohl daran, dass die Bildaufträge an die Grafikkarten zu schnell herausgegeben werden. Als Lösungsansatz sei vorweggenommen, dass man nun entweder die Aufträge vor dem Rendering oder die Bildausgabe nach dem Rendering besser timen kann.

Im Optimalfall wartet keine Komponente auf die andere:



Braucht die CPU noch länger, befinden wir uns im "CPU-Limit":



Das Rechenzeitverhältnis CPU/GPU an einem Bild ist hier wichtig, weil es darauf ankommt wie stark die o.g. Bremsung ist, was die Wartezeit und damit die Mikroruckler beeinflusst. An obigem Beispiel (selbe Framerate, immer noch 33fps) sehen wir also:


  • Braucht die CPU/Engine nur 10 ms, mikroruckelt es
  • Braucht die CPU/Engine 30 ms, mikroruckelt es nicht

Die These ist also:
Eine langsamere CPU vermindert je nach Engine/Spiel Mikroruckeln (im GPU-Limit!!!)

fdsonne und ich haben hierzu ein paar vorläufige Benchmarks gemacht. Erst möchte ich seine Werte präsentieren, da bei meinen Messungen wohl irgendwas schiefgelaufen ist und die Ergebnisse keinen Sinn ergeben (obwohl wir dasselbe gemessen haben).

Unigine Heaven, VSync aus. Linksk 4,5 GHz, rechts 2,2 GHz


Man sieht zumindest in diesem Beispiel:
Mit sinkender CPU-Leistung (Annäherung das optimale Lastverhältnis) nehmen die Mikroruckler ab!

Hier eine eigene Messung mit GTA 4. System ist ein 2600K und zwei GTX580 3GB im SLI.
Das Ergebnis ist überdeutlich. Nicht vergessen: Wir befinden uns hier trotz nur 1600 MHz aufgrund der hohen Bildqualitätseinstellungen (Auflösung!) im GPU-Limit! Die fps ändern sich nicht/kaum.



Und hier Mafia 2:


3. Einfluss der GPU-Anzahl

Bei gleichen fps sollte ein Gespann mit mehr GPUs auch stärkere Mikroruckler produzieren:



Hier ein Benchmark aus Unigine Heaven, immer mit denselben fps und anderselben Stelle:



Es ist schwierig, hier einen Trend herauszulesen. Ich schau mal, ob mein Kumpel das noch mit Mafia 2 testen kann, da sieht man es glaub deutlicher.

4. Lösungsansatz

Dass bei höheren fps die Frametimes gleichmäßiger werden, ist kein Geheimnis. Zwar hat man je nach Spiel manchmal auch noch bei 60+ fps ein unrundes Spielerlebnis, aber in der Regel ist man ab ca. 50 fps gut dabei.

Jetzt gibt es aber auch solche Leute wie mich, die sich ein Multi-GPU-System anschaffen, um möglichst maximale Einstellungen zu fahren. Also SGSSAA, Downsampling, 3DVision, Eyefinity und was es noch alles gibt. Selbst mit den stärksten Systemen kann es vorkommen, dass man deutlich unter 60 fps fällt. Dann trüben Mikroruckler massivst das Spielerlebnis. Ein halbwegs aktuelles Worst-Case Beispiel ist Mafia 2, das unter 50 fps praktisch unspielbar ist mit mehr als einer GPU.

Aber es gibt Abhilfe, und zwar in Form eines Framelimiters. Die genaue Funktionsweise kenne ich leider nicht, jedoch vermute ich stark, dass neben der Begrenzung der Framerate die x Bilder pro Sekunde gepuffert und gleichmäßig ausgegeben werden. Sehr anschaulich sieht man das auch wieder bei Mafia 2:



Ohne Limiter bewegen wir uns bei 33fps und es ist alles andere als flüssig. Mit auf 30 fps gesetztem Limiter werden sämtliche Mikroruckler eliminiert - das Spiel ist komplett flüssig. Frametimes sagen nicht die ganze Wahrheit. Manchmal kann die Verteilung derselbigen sehr gleichmäßig aussehen und doch ist es "unrund". In ausnahmslos allen Spielen, die ich getestet habe, sorgt ein fps-Limiter für ein absolut flüssiges Spielerlebnis (in meinem Rahmen von 30-40 fps, in dem ich mich auch mit einer GPU bewegen würde). Es gab sehr positives Feedback auch von anderen Leuten, die mit einem Limiter experimentiert haben.

Welche Software ist also hier zu empfehlen?
Ich kenne mehrere Programme, aber nur eines funktioniert (soweit ich es bisher ausprobiert habe) in allen APIs, in 32 und 64bit und ist in der Testversion kostenlos: Dxtory 2.0

Dxtory.com | Home

Dxtory ist eigentlich ein Captureprogramm für Video/Audio/Screenshots in Spielen, doch es hat auch einen Limiter integriert, der einwandfrei funktioniert:



Zwei sehr angenehme Eigenschaften dieser Software sind, dass man
  • das Limit völlig frei einstellen kann und nicht an 30 oder 60 fps gebunden ist
  • das Limit nur einmal pro Spiel einstellen muss, weil es eine Profilverwaltung gibt

Die Testversion hat nur eine (meiner Ansicht nach verschmerzbare) Einschränkung:
A license purchase site is displayed, when a program is terminated.
 
Zuletzt bearbeitet:
Problem ist halt das man auch eine gewissen leistung braucht um eine gewissen FPS zu erreichen!
Bei AMD kann man ja drei karten verbauen und schon hat man kaum noch microruckler!!

Ich glaube am besten wäre es aber mit nem 120HZ TFT und V-Sync
 
Zuletzt bearbeitet:
1.) Klasse Sache, danke.

2.) Deine letzten zwei Bilder sind falsch beschriftet, eins ist mit 2200Mhz gemessen.

3.) Das mit dem CPU drosseln funktioniert nur synthetisch in kurzen Benchmarks. Die CPU Anforderung über die Zeit ist sicherlich zu schwankend, als das man sie genau eindrosseln könnte.

4.) Baut man sich ein SLI braucht man halt erstmal stabile 60fps, weil der Vsync limiter funzt immer, im Gegensatz zu einigen anderen.

Das ist doch aber auch nicht schlimm, visuell ist es dann glatt wie bei 40 fps auf single GPU, aber man hat noch den Vorteil des dann flüssigeren gameplays.

Ergo: Beim SLI macht kleckern keinen Sinn, nur klotzen bringt es wirklich. Das soll jetzt nicht überheblich sein, das ist einfach so. Entweder richtig oder eine GTX 580 @1,1 Ghz ;)
 
1.) Klasse Sache, danke.

2.) Deine letzten zwei Bilder sind falsch beschriftet, eins ist mit 2200Mhz gemessen.

3.) Das mit dem CPU drosseln funktioniert nur synthetisch in kurzen Benchmarks. Die CPU Anforderung über die Zeit ist sicherlich zu schwankend, als das man sie genau eindrosseln könnte.

4.) Baut man sich ein SLI braucht man halt erstmal stabile 60fps, weil der Vsync limiter funzt immer, im Gegensatz zu einigen anderen.

Das ist doch aber auch nicht schlimm, visuell ist es dann glatt wie bei 40 fps auf single GPU, aber man hat noch den Vorteil des dann flüssigeren gameplays.

Ergo: Beim SLI macht kleckern keinen Sinn, nur klotzen bringt es wirklich. Das soll jetzt nicht überheblich sein, das ist einfach so. Entweder richtig oder eine GTX 580 @1,1 Ghz ;)

1. No problem :)

2. Fixed

3. Deshalb hab ich nur 3 Sekunden aufgenommen und da auch nur die ersten 30 Frames aufgetragen. Ich schrieb explizit dazu, dass ein kleiner Zeitintervall betrachtet wird. Sonst ist die Reproduzierbarkeit natürlich im Eimer.

4. Selbst bei 60fps sind je nach Engine und Lastverteilung Mikroruckler nicht völlig ausgeschlossen. VSync hilft soweit ich weiß nicht gegen Mikroruckler. Ein richtiger fps-Limiter wie nthusim oder Dxtory dagegen hilft sehr wohl (kommt später noch).

Ganz wichtig!

Das Problem der zu schnellen CPU tritt sicherlich nicht in jedem Spiel auf. Es kommt auf die Engine an und man muss (tief) im GPU-Limit stecken.

Problem ist halt das man auch eine gewissen leistung braucht um eine gewissen FPS zu erreichen!
Bei AMD kann man ja drei karten verbauen und schon hat man kaum noch microruckler!!

Ich glaube am besten wäre es aber mit nem 120HZ TFT und V-Sync

Das musst du differenzierter sehen. Willst du/hast du sowieso immer mehr als sagen wir 50-60fps, ist das Problem nicht so gravierend. Wenn du aber im GPU-Limit steckst, ist die CPU für die fps egal, und genau in diesem Bereich trifft man auf die beschriebene Problematik.

Dass man auch mit hohen fps nicht vor Mikroruckler gefeit ist, zeigt laryllan aus dem Forum von Computerbase:
http://www.computerbase.de/forum/showpost.php?p=10196155&postcount=213

D.h. je nach Spiel bringt dir da ein 120Hz TFT mit VSync auch nix.
Außerdem: Woher weißt du, dass du keine Mikroruckler hast? Hast du die Frametimes auch wirklich gemessen? In laryllans erstem Beispiel hast du trotz 120fps Mikroruckler, nur nimmst du sie nicht als klassisch spürbare Ruckler (unterhalb deines Flüssigkeitsempfindens) wahr. Was aber passiert: Die 120fps fühlen sich nicht so flüssig an, wie sie es auf einer einzelnen Karte wären. Er sagt ja, 60fps mit Limiter fühlen sich in etwa gleichwertig wenn nicht besser wie die 120fps ohne Limiter an.
 
Zuletzt bearbeitet:
VSync hilft soweit ich weiß nicht gegen Mikroruckler

Da scheiden sich wohl klar die Geister.

Ich hab auch schon das ein oder andere Zitat vernommen das glauben machen möchte das Vsync nichts im Kampf gegen die MR ausrichtet.

Nur Fakt ist doch auch mal das es zig Leute gibt die mit Vsync @ 60fps von allen Ruckelproblemen befreit sind, zumindest nehmen sie diese nicht mehr war.

Genauso bei mir, Unigine Heaven ist mit Average 60 fps ohne Vsync absolut ungenießbar. Mit vsync ist es trotz Drops auf 30fps runter immerhin schonmal erträglich. Mit 60fps im Vsync ohne Drops runter läuft es dann Butterweich. Mit der Beobachtung bin ich sicher nicht alleine.

Letzteres Setting kostet natürlich richtig Leistung, nur das muß es einem Wert sein.

Wenn die großen Konsolen und ihre Software am Start sind wird man vermutlich zwei Grafikkarten brauchen nur um Games bei 60 Fps im klaren Vsync zu halten und nur eine dritte Karte könnte die BQ verbessern und das @ FullHD.

Eine Umfrage zum Thema "Hilft Vsync gegen MR" und das unterteilt in "Vsync : Hauptsache an" und "Vsync @ immer 60fps" wäre genau das richtige zur Unterstützung dieses Threads :bigok:
 
Vsync bringt was! Allerdings sollte man dann auch die Vsync FPS als min haben!
bei vsync wird doch die bildausgabe zeitlich beschränkt!
FPS limiter kann auch was bringen!
 
Zuletzt bearbeitet:
Dann ist doch die Frage, woher die Verbesserung maßgeblich kommt:

Durch die höhere Framerate an sich oder durch VSync? Wenn schon, sollte man Äpfel mit Äpfeln vergleichen und die Framerate für solche Tests gleich lassen. Dazu werde ich heute noch einen Test nachreichen.
 
Zuletzt bearbeitet:
Ich frage mich, warum es bei mehr GPUs bei denen weniger MR gibt. Laut der Theorie werden die Sprünge größer (33fps, 10ms CPU):

10-30-10-30... bei 2 GPUs
10-10-10-90... bei 4 GPUs

Vllt solltet ihr auch mal eine Messung mit 3 oder 4 GPU-s machen um die Theorie mit der auf GPU warten zu belegen, denn bei 2 GPU-s ist es nicht überraschend dass die Frames abwechselnd in langen und kurzen Abständen kommen, das ist ja genau die Ursache von MR.
 
Ja ich kenne jemanden, der 4 GTX480 hat, vielleicht hat der das Wochenende mal Zeit, ein oder zwei Benchmarks zu fahren.

Oder hat hier noch jemand 4 GPUs? :)
 
Ich habe nur noch 3.

Das ist doch mal ein Anfang. Hast du ein Spiel, das leicht mikroruckelt, z.B. GTA4, Metro 2033, Call of Juarez oder sowas? Kannst mir gern auch ne PN schreiben, damit wir den Thread eher mit Ergebnissen, nicht mit sowas füllen.
 
also wenn LD wirklich 3amd gpus hat kann man wirklich mal testen ob da wirklich keine oder kaum MR auftreten
 
Ja ich kenne jemanden, der 4 GTX480 hat, vielleicht hat der das Wochenende mal Zeit, ein oder zwei Benchmarks zu fahren.

Oder hat hier noch jemand 4 GPUs? :)

hatte ich mal.
absolut hirnrissig in sachen stromaufnahme und hitzeentwicklung. nicht wirklich besser in sachen spielbarkeit. einzig der vpenis wird laenger :lol:
eventuell find ich noch meine frametimes aufnamen mit fraps von damals :)
 
hatte ich mal.
absolut hirnrissig in sachen stromaufnahme und hitzeentwicklung. nicht wirklich besser in sachen spielbarkeit. einzig der vpenis wird laenger :lol:
eventuell find ich noch meine frametimes aufnamen mit fraps von damals :)

4gpus lohnt wohl nur bei 3 monitore mit jeweil 2560x1440er auflösung das vermute ich aber nur
 
ja nur geht das bei amd nur per tool und bei nv wirds unscharf weil man keinen negativen lod bekommt!
Aber ds ist schon echt geil! würde mich interessieren wie deine drei gpus scallieren...
 
Ich werde bald auch ein paar Frametimes posten.
 
ein weiterer nachteil wurde hier im uebrigen noch garnicht gelistet. SLI und CF setzen auf AFR. sprich abwechselt rendert eine gpu ein frame. damit da aber auch ein geschwindigkeitsvorteil rauskommt, muss man mindestens 1 frame vorrausrendern. sprich wenn man z.b. einen gegner sieht und reagiert, ist man immer 1 frame hintennach. ebenso "zieht" die maus leicht nach/bzw reagiert nicht so flott wie komplett ohne prerendering.
der inputlag ist bei 30fps und 0 vorgerenderten frames gleich hoch wie bei sli mit 60fps. irgendwie idiotisch ;)
 
ein weiterer nachteil wurde hier im uebrigen noch garnicht gelistet. SLI und CF setzen auf AFR. sprich abwechselt rendert eine gpu ein frame. damit da aber auch ein geschwindigkeitsvorteil rauskommt, muss man mindestens 1 frame vorrausrendern. sprich wenn man z.b. einen gegner sieht und reagiert, ist man immer 1 frame hintennach. ebenso "zieht" die maus leicht nach/bzw reagiert nicht so flott wie komplett ohne prerendering.
der inputlag ist bei 30fps und 0 vorgerenderten frames gleich hoch wie bei sli mit 60fps. irgendwie idiotisch ;)

Grundsätzlich richtig... Aber man sollte bei allen Nachteilen von MGPU Systemen nicht vergessen, das es sowieso Verzögerungen zwischen Eingabe und Ergebnis am Schirm gibt. Oft ist da auch ein schlechtes Eingabegerät viel mehr auffällig wie ein MGPU System.
Das es grundsätzlich ein gesteigertes InputLag bei MGPU Systemen gibt, ist aber erstmal richtig ;) Und um so mehr GPUs im AFR mitrendern, desto schlimmer wird der Spaß.
 
ja nur geht das bei amd nur per tool und bei nv wirds unscharf weil man keinen negativen lod bekommt!

Laber keinen Quatsch da ist garnichts unscharf und LOD wird bei OGSSAA aka DS automatisch erzeugt. ;) War nicht böse gemeint, sondern nur als Aufklärung dienen.
 
Zuletzt bearbeitet:
Interessante These aber um daraus für den "Otto Normalo" einen Vorteil zu gewinnen bräuchte man für jedes Spiel mit jeglicher Art von GPU/CPU Setup eine Berechnung des Lastzustandes CPU/GPU Limit und ein daraus resultierendes Lastprofil im Treiber oder extern was daraufhin das System austariert im Takt

Edit: was ich aber auch noch annehme ist das die Anbindung des Vram und die aufkommende Datenflut mit zunehmenden CPU Takt ebenso einen negativen Einfluss auf die MR haben könnte. Wenn es die ersten PCIe 3.0x16 Boards gibt müsste man mit selber Hardware bei hoher CPU Taktrate das ganze nochmal laufen lassen

Vielleicht verhilft der veringerte Takt der CPU nur dem Bus dazu nicht für Bruchteile von Sekunden an seine Grenzen zu stoßen
 
Zuletzt bearbeitet:
Interessante These aber um daraus für den "Otto Normalo" einen Vorteil zu gewinnen bräuchte man für jedes Spiel mit jeglicher Art von GPU/CPU Setup eine Berechnung des Lastzustandes CPU/GPU Limit und ein daraus resultierendes Lastprofil im Treiber oder extern was daraufhin das System austariert im Takt

Es ging eigentlich ursprünglich darum, herrauszufinden, woher die MR stammen... Mittlerweile scheint sich herauszukristalisieren, das eben die CPU selbst für den Spaß verantwortlich ist. Und sich auch die Timings mit verschiedenem CPU Takt verändern...

Ich denke aber nicht, das es hier ratsam wäre das Problem durch Taktänderungen zu beseitigen. Es macht in meinen Augen mehr Sinn einfach hinten nen Framebuffer dran zu klemmen, der sagen wir bei zwei GPUs eben drei Frames, bei drei GPUs vier Frames usw. fasst.
Dann wird anhand der durchschnittlichen Frametime der im Buffer liegenden Frames einfach das Frame, was rausgehauen wird leicht verzögert. Theoretisch müsste man auch nur jedes zweite Frame (bei zwei GPUs) verzögern... Der Leistungsverlust selbst dürfte sich nahe Null bewegen, denn man schiebt eigentlich damit nur das nach hinten, was die CPU selbst zu zeitig begonnen hat.

Die Frage wäre, wie wirkt sich so ein Buffer auf das InputLag aus? Wenn der Buffer nicht zu viele Frames fassen würde, dürfte man davon nichtmal viel merken...
 
Ja den Input Lag wirst du dadurch wohl nochmehr negativ beeinflussen,was das eine Übel nur zum anderen Übel hin verschieben würde

Aber im Edit stand noch was das eventuell das Bussystem zum Teil besagte MR auslößt weil es mit hohen CPU Takt wenn auch nur kurzfristig zum Engpass kommt
 
Edit: was ich aber auch noch annehme ist das die Anbindung des Vram und die aufkommende Datenflut mit zunehmenden CPU Takt ebenso einen negativen Einfluss auf die MR haben könnte. Wenn es die ersten PCIe 3.0x16 Boards gibt müsste man mit selber Hardware bei hoher CPU Taktrate das ganze nochmal laufen lassen

Vielleicht verhilft der veringerte Takt der CPU nur dem Bus dazu nicht für Bruchteile von Sekunden an seine Grenzen zu stoßen

Das ist eine sehr interessante Sache, die du da ansprichst. Die Verlangsamung kann ja überall auftreten zwischen dem Punkt, wo die Gameengine ihre ersten Berechnungen für ein Frame anstellen lässt bis zu dem Punkt wo auch tatsächlich angefangen wird, zu rendern. Inwiefern hier Busse limitieren, hab ich noch gar nicht bedacht.

---------- Beitrag hinzugefügt um 21:41 ---------- Vorheriger Beitrag war um 21:38 ----------

Es ging eigentlich ursprünglich darum, herrauszufinden, woher die MR stammen... Mittlerweile scheint sich herauszukristalisieren, das eben die CPU selbst für den Spaß verantwortlich ist. Und sich auch die Timings mit verschiedenem CPU Takt verändern...

Ich denke aber nicht, das es hier ratsam wäre das Problem durch Taktänderungen zu beseitigen. Es macht in meinen Augen mehr Sinn einfach hinten nen Framebuffer dran zu klemmen, der sagen wir bei zwei GPUs eben drei Frames, bei drei GPUs vier Frames usw. fasst.
Dann wird anhand der durchschnittlichen Frametime der im Buffer liegenden Frames einfach das Frame, was rausgehauen wird leicht verzögert. Theoretisch müsste man auch nur jedes zweite Frame (bei zwei GPUs) verzögern... Der Leistungsverlust selbst dürfte sich nahe Null bewegen, denn man schiebt eigentlich damit nur das nach hinten, was die CPU selbst zu zeitig begonnen hat.

Die Frage wäre, wie wirkt sich so ein Buffer auf das InputLag aus? Wenn der Buffer nicht zu viele Frames fassen würde, dürfte man davon nichtmal viel merken...

Das stimmt, Runtertakten würde ich nicht als Lösung ansehen.

Macht Nvidia nicht genau das, was du beschreibst? Fragt sich nur, warum es nichts bringt. So muss man das wohl nennen, wenn man sich ein paar Frametimeabstände anschaut.
 
Takt der CPU beibehalten und den PCIe mal anheben und schauen ob sich die MR geringfügig glätten:)

Gestaltet sich aber idR schwer, weil man den PCIe Takt nicht signifikannt verändern kann...
Besser wäre hier mal mit PCIe 8x vs. 16x zu testen. Das sind 100% mehr Bandbreite... Würde die Bandbreite ne Rolle spielen, würde man es hier sehen...

PS: meine Tests sind übrigens mit 8x/8x gemacht... Weil das Board bzw. die Sandy nicht mehr liefert.

Macht Nvidia nicht genau das, was du beschreibst? Fragt sich nur, warum es nichts bringt. So muss man das wohl nennen, wenn man sich ein paar Frametimeabstände anschaut.

Angeblich ja... Wobei ich nicht genau weis, wo der Zwischenspeicher sitzt...
Laut NV aus dem letzten Interview dazu scheint das aber nur sehr mäßig zu funktionieren.
Denn bei Crysis zum Beispiel scheibt es NV auf die enorme Datenflut des Games... Und das halte ich persönlich für schwachsinn, wenn der Puffer ganz am Ende vor der Ausgabe steht. Da sind die Frames nur noch Frames und genau an dem Punkt ists eigentlich total Banane ob da nun Crysis extrem viel Datenflut hat oder nicht ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh