Jetzt mal Butter bei die Fische: Input-Lag bei Nvidia's Multi-GPU Lösungen

eLw00d

Enthusiast
Thread Starter
Mitglied seit
23.10.2005
Beiträge
6.086
Ort
Aachen
Ich habe gelesen, dass bei Nvidia zur Mikrorucklerbekämpfung nicht etwa die Berechnung des jeweils zweiten Bildes verzögert wird, sondern nur die Ausgabe.
Das heißt ein bereits fertig berechnetes Bild wird in der Ausgabe verzögert, so dass ein input-lag entsteht.

Im Grunde ist es ja dann so, dass sich dadurch gar keine Mikrorucklerverbesserung einstellen müsste, da das Auge ja exakt das gleiche sieht wie ohne die Gegenmaßnahmen.

Ist das wirklich so?


Ich brauche mehr Leistung für mein tripleheadsetup und um eine Multi-GPU Lösung kommt man da nicht herum. Leider erscheinen mir alle bisherigen Angebote am Markt zur Zeit relativ sinnlos zu sein, bzw. es wird zu viel sichtbare Leistung verschenkt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die einzeln kaum mehr Leistung bietet als meine GTX 680 und im SLI die gleichen Nachteile mit sich bringt.

(Ich spiele nur battlefield 3 und da sind's grad mal 40% mehr Leistung in meinen Einstellungen. die Leistung reicht nicht aus und über den 2,5 fachen Preis will ich gar nicht erst reden.)
 
Zuletzt bearbeitet:
Hast du dir mal die werte, der titan in Relation zur GTX 690 angeguckt? Das wäre nämlich grob dein SLI-Ergebnis mit zwei GTX 680er. ;)
 
Ich liebäugel mit einer GTX 690. Die bietet mir 90% mehr Leistung als meine bisherige GTX 680.
Die 40% der Titan sind lächerlich dagegen.

Aber darum soll es hier nicht gehen. Ich möchte wissen was es mit dem Input-Lag auf sich hat.
 
Die biete dir bis zu 90% der bisherigen Leistung, das ist nichts anderes als zwei 680er im SLI auf einem Board. aber nun gut, ich stör dich beim Herausfinden nicht weiter. ;)
 
Ja ist doch egal ob ich mir ne zweite GTX 680 oder die GTX 690 hole. Tut doch absolut nichts zur Sache.

(Stromverbrauch, Platzbedarf, Abwärme, nur EIN Wasserkühler,... sprechen halt für die GTX 690)
 
Zuletzt bearbeitet:
Jo eine GTX 690 bietet Vorteile Gegenüber zwei GTX 680. Solltest dich mal mit Tobiwahnkenobi unterhalten. ;)
 
Ich kann dir nur von meiner Erfahrung berichten, und die ist, dass es keinen (für mich) erkennbaren Inputlag gibt. Natürlich muss technisch gesehen ein Bild ab und zu verschoben werden, anders geht es nicht. Aber wie gesagt, davon merke ich nichts. Im mikrorucklerfreien Gebiet, so ab 50fps meistens. Darunter ist egal, was passiert, das ist eh unspielbar ohne Limiter - und der würde auch einen etwaigen Inputlag abmildern.

Lass dich nicht verrückt machen.
 
was dir hier versucht näher zu bringen ist das ne 690 gtx nur 2gb vram besitzt was bei tripple head mit surround einfach nicht reicht, was nicht an der leistung der karte sondern am fehlenden vram liegt. daher machen 2 * gtx 680 mit 4gb vram mehr sinn als ne 690 gtx bei deinen anforderungen. oder du wartest bis nächstes jahr und die neuen single gpus vllt reicht deren leistung für dich (was ich aber stark bezweifle).
 
Das lasst mal meine Sorge sein.

BF3 braucht zu keiner Zeit auch nur ansatzweise 2GB im triplehead und was anderes spiele ich nicht.
Und warten kann man immer... bis man irgendwann tot ist.
Nächstes Jahr spiele ich BF4. Da hab ich eh wieder nen neue Karte im Rechner.


@ boxleitnerb: ist nett von dir, dass du deine subjektive Meinung geschrieben hast. Aber genauso subjektive Meinungen bietet leider auch die Gegenseite.
Ich hatte gehofft man könnte irgendwie in Zahlen (ms) ausdrücken wie sich das Unterdrücken der Mikroruckler auswirkt.

Im Endeffekt wird's wahrscheinlich eh darauf hinaus laufen, dass ich mir eine kaufe und dann selber ausprobiere. :(
 
Zuletzt bearbeitet:
Hatte kurz zwei gtx680, meine Erfahrung damit:
-Einfach nur fps puschen ohne groß NVI-spielchen = göttliches Leistungsplus und macht spass, inputlag wird (hmmm) nicht-kaum spürbar mehr oder sogar besser weil eben konstante hohe fps.
-Nutzen um mehr eyecandy rauszuholen = las es lieber, es kommen in den meisten Spielen situationen wo shaders und filter die darauf wirken kolidieren und massive framedroops erzeugen!
An der Stelle kommt der Titan ins Spiel weil der in diesen Situationen eben mehr power zu haben scheint (mehr shadereinheiten, mehr si was ja bei nem 680er sli nicht addiert werden kann, sondern eher die schwächen mal zwei genommen werden)
Natürlich kommt es auch immer auf die games an und bf3 zocke ich nicht! Auch habe ich kein triplehead.

Um es praktisch zu verdeutlichen Borderlands2 sp ist mit einer 680 maxed out auf 1920x1200 und 4sgssaa +vsync super spielbar, auch wenns öfters gegen 35-40fps dropt, mit ner zweiten Karte kann ich die drops richtung 50-55fps bringen, bei gefühlt gleichen inputlag wie mit einer Karte die bis 35-40 dropt ,was nicht wirklich besser ist. Hier negieren die Nachteile der sli Technik das mehr an fps.
Und 8xsgssaa ist mit zwei 680er dann einfach nur unspielbar.
Also im endefekt 0 Gewinn für nen Haufen Geld und Aufwand!
Will ich aber einfach mit 2xsgssaa die 120fps halten funktioniert das sli an der Stelle wieder göttlich, nur das ich ein eyecandy-Fetischist bin und deswegen lieber mit einer Karte und 4xsgssaa +vsync zocke.
Mein Fazit, inputlag bei sli wird immer erst dann nervig wenn es unter 60fps geht.

Natürlich ist jedes game anders, allerdings bleibt dieses Verhalten im prinzip ähnlich!
Soweit meine Erfahrung, kann auch sein das ich nicht lange genug getestet und rumprobiert habe!
 
H
Um es praktisch zu verdeutlichen Borderlands2 sp ist mit einer 680 maxed out auf 1920x1200 und 4sgssaa +vsync super spielbar, auch wenns öfters gegen 35-40fps dropt, mit ner zweiten Karte kann ich die drops richtung 50-55fps bringen, bei gefühlt gleichen inputlag wie mit einer Karte die bis 35-40 dropt ,was nicht wirklich besser ist. Hier negieren die Nachteile der sli Technik das mehr an fps.

Das ist ne sehr gute Aussage von dir. Danke dafür.
Also gehörst du zu den Leuten, die das input-lag wahrnehmen.
Genau sowas hatte ich schon befürchtet, nämlich das die Leistung die nachher spürbar am Auge ankommt eben nicht/kaum steigt.
Das Argument mit den Framedrops auf Grund zu geringer shaderleistung etc. klingt auch schlüssig. Leider...
Ist halt die Frage wie sich das bei BF3 auswirken würde, was ja jetzt schon in die Jahre gekommen ist.


Ich bin auch der eye-candy Typ. 120fps bringen mir rein gar nichts.
Ich möchte von High auf Ultra bei BF3 hochgehen können und dabei konstant die 60fps halten um dann mit vsync das tearing beseitigen zu können (Natürlich mit dem 59 fps limiter, so dass kein Input-Lag durch den triplebuffer entsteht).
 
Und wie ist es mit einem Frame-Limiter ? Das mal getestet ??

EDIT: Die Frage geht an dolltoll
 
Zuletzt bearbeitet:
Also ich denke wenn man sli nutzt oder auch cf , so wie ich,führt kein weg an vsync + limiter dran vorbei dann fühlt sich das aber auch perfekt und mega direkt an. Bei drei monitoren kann ich mir aber gut vorstellen das man mit zwei karten schon arg am limit sein wird
Edit: man sollte aber die settings so wählen das man den limiter nicht unterschreitet
 
Zuletzt bearbeitet:
Also ich spiele auf drei 5:4 Monitoren, so dass bei mir 4,2 mio Pixel berechnet werden müssen. Das entspricht einem Monitor mit 2560*1600er Auflösung. Also bei weitem nicht so schlimm wie 3 x full HD (6,2 mio Pixel).
Rein fps bezogen wäre ich mit zwei GK104 GPUs da gut aufgestellt.
 
Ja das geht dann schon habe ich so auch schon gemacht gehabt mit 3x19" 5/4 tfts nur hatte mich der rahmen gestört.
Wobei ich würde sagen das zwei HD7970@1200Mhz ne ganze ecke besser sind aber solche karten muss man auch erstmal so bekommen
 
Zuletzt bearbeitet:
Ich habe eigentlich immer nen framlimiter mit vsync am laufen! Allerdings war der vermutlich zuhoch eingestellt :fresse:

morgen wieder bin gerade zu müde für sachliche antworten

gn8 :)
 
Kommt drauf an, SLI mit schönen 60 FPS und Ultra Settings, meistens keine MR spürbar. Zu 90% sind die SLI Profile gut abgestimmt.
Ab und dann liegt es aber auch an der Engine und höhere FPS z.B sind von Nöten, damit das Spiel nicht micro ruckelt. Falls dies nicht geht, hilft ein Limitierer.
Auch dann wenn man mit Ultra krassen Settings (2560*1440+8xSGSSAA und Ultra Details im Spiel) auf die 30 FPS Marke rutscht.

Die GTX690 ist nicht schlecht, das angepasste "Hardware-optimierte" Frame Pacing hilft auch wirklich bei vielen Games gegen die MR.
Allerdings hat die 690er für mich zu wenig Vram..Skyrim mit Mods, TR2013 etc sind bei 1440p + Ultra Details schon an der Grenze..
 
wo drum gehts dir denn jetzt genau,um mr o. inputlag bei sli?

das kann hand in hand gehen aber auch auch einzeln jeweils ne sache für sich sein.

ich hab letztens nen bf3 video gesehen,wo jemand das mal genauer erklärt hat.bei reinen inputlag "springt" das bild bei seiltlichen bewegungen u. bei mr stockt das bild nach vorn.es kann aber auch beides gleichzeitig vorhanden sein.

würde mir zu dem thema mal amd`s talk zu mr problematik bei cf auf computerbase durchlesen.

mir ist dabei bewusst geworden,warum ich mit einer 7950 keinen spaß bekommen habe,weil ich starke inputlags hatte.amd ist aktuell noch direkter im treiber vom bildaufbau.und ich war nicht der einzigste...

aktuell mit 2 660ti im sli: mr habe ich 0,wenn ich vsync anhabe u. das grafiksetting so angepasst habe,das 60 fps anliegen.das ist aber auch ne sache vom moni.bei mir reichen schon 58 fps,das es ruckelt mit einer karte.

bei bf3 muß ich noch den fpslimiter auf 60 setzen,damit ich keinen spürbaren inputlag habe,zusätzlich fühlen sich bewegungen etwas direkter an.

zum thema leistung für dein setup:
wenns dir nur um fps geht würd ich mal 2x 3gb 660ti probieren.wenns dir um zusätzliches eyecandy geht würd ich zu 2x 4gb 670 greifen.jeweils ocen bis der arzt kommt.bei den ti`s ist ram oc wichtiger.

hitman absolution,tomraider u. bioshock invinite sind schon manchmal knapp über 2gb bei fullhd!bf3 hat 1800-1900mb auf einigen karten u. abschnitten.
was mir aufgefallen ist,das die ti`s wohl 100-200mb weniger im sli schlucken als 2x 670.

hab selber nicht gedacht,das der 2gb wall so schnell kommt....

dolltoll: borderlands 2 hat nur fxaa.kann ich nicht nachvollziehen,wie du da sgsaa ans laufen bringen willst.ich hab das mal getestet: da gibts 0 veränderung bei gpu u. ram usage.
 
Zuletzt bearbeitet:
Schon mal probiert?
NVI mit 0x080010C1 bits = garantiert sgssaa :d
 
bis vor kurzem hab ich auch ausschließlich (900h) bf3 mit einem 680er 2gb sli gezockt. das zwischendrin sogar auf 5760x1080@120hz mit einem tri 680er sli. für 5kx1k sind selbst 3x 680er zu schwach. tripple ist wie gesagt sogar mit 3x680er auf low unschön und hakt hier und da.

wer aber noch mit 60hz rumeiert braucht sich um input lag fast keine sorgen zu machen :asthanos:

ps: kleiner tipp für die 2gb vram user: aero in den eigenschaften der .exe automatisch deaktivieren, das gibt gut vram frei.
 
Zuletzt bearbeitet:
Edit, wenn alles gut geht kann ich die 2te 680 nochmal rückleihen dann will ich, just for fun, ausführlicher testen! Aufjedenfall wars damals von 2 Karten zu einer zurück eine passion im Thema inputlag! Und dazu noch die vielen Kommentare von Usern: Nie wieder sli/cf bin ich allerdings nicht allzu optimistisch!
Auch habe ich nvi genutzt um den Treiber optimal auf sli einzustellen, allerdings habe ich das mit dem framlimiter damals nicht optimal genutzt und das scheint der wichtigste workaround bei wenig fps und sli zu sein!
 
@dolltoll: hatte ich aber etwas im hinterkopf,das du nen "bitchen" was anderes eingestellt hattest.:)
werd den mal probieren!funktioniert der auch bei anderen u3 games?das war für mich von anfang an nen kruks der u3 engine...
naja,u4 wirds wohl richten.puh,das letzte techvideo war richtig lecker.würd schon fast sagen besser als cry engine 3...

kannst ja bei sli sc2 testen was geht.ich hatte mal aa deaktiviert u. verschiedenes overided.da fielen mir aber die augen aus bei usage.optisch kam aber nicht mehr an als über 4x sgsaa.

lag u. ruckler sind nur ne sache vom grafiksetting.bei mr so einstellen,das du mit vsync 60+ fps hast u. lags kann man auch mit singlegpu haben!ist bei mir allerdings erst mit der 600 u. 7000er reihe gekommen.

ironischerweise hatte ich sogar nen runderes gaming bei einigen sp-games,wenn der fpslimter aus war.konnte ich mir nicht erklären.

nach neuaufsetzen ist das aber vergangenheit,bei vielen games ists sogar egal ob fplimter an o. aus wenn vsync an ist.für mich ists jetzt nen werkzeug,womit man manchmal probieren muß.

erwähnenswert ist noch das das vermeitliche sliprofil-rumgefummel faktisch gar nicht vorhanden ist.ich hatte mir das mal genau angeschaut mit versuchen,was ins profil läuft.mit dem inspector greifen grundsätzlich alle vorhandenen sliprofile default,ohne das man was machen muss.wenn man bei globale einstellungen was ändert,ändern sich auch die sliprofile bei speichern.wenn man die slispieleprofile bearbeitet u. später globale änderungen vornimmt bleiben die spieleprofile auf custom.

ich handhabe es jetzt so das ich nur global aa einstellungen je nach game setze,das erspart mir die profil-suche.bei biteinstellungen u. override kommt man nicht drumrum.ich habe damit zwar mal experimentiert,nutze es aber eigentlich fast nicht.

interessant scheint auch zu sein,das 8x erweitern bei dx11 eher nicht funktioniert,wenn das game keine 8xaa einstelllungen hat.ich hab jetzt überwiegend nur normal aplikation controlled drin u. zusätzlich 4x ssaa o. sgsaa drin.bei 8x spielereien geht so o. so dem sli bei neuen titeln die puste aus.

weiter scheint bei dx9 games auch nur 8qx bei erweitern o. overriden auf usage zu gehen.keine ahnung was 8xcsaa da macht.bringt optisch 0 meiner meinung nach.

ja,diesen verdammten postulierten mr...die haben verhindert,das ich erst jetzt mal sli probiert habe u. ich will nie wieder zurück zu single gpu.es sei den intel schafft es 2xtitan leistung in ne igp zu packen.dann will ich nie wieder multigpu.:fresse2:


@webmi: ja,bei 5760 u. 120hz brauchste wahrscheinlich nen acount auf dem titan supercomputer u. ne gbit leitung.:asthanos:
 
Zuletzt bearbeitet:
Die einzeln kaum mehr Leistung bietet als meine GTX 680 und im SLI die gleichen Nachteile mit sich bringt.

(Ich spiele nur battlefield 3 und da sind's grad mal 40% mehr Leistung in meinen Einstellungen. die Leistung reicht nicht aus und über den 2,5 fachen Preis will ich gar nicht erst reden.)

Bei Battlefield 3 und Triplescreen reisst die Titan gefühlt mehr als nur 40% Leistung raus! Habe auch Triplescreen und bin von der GTX680 (einfach zu langsam für Triplescreen) auf Titan umgestiegen, und bereue keinen Cent!
Wenn das zu teuer ist, wären vll noch zwei 7970er interessant!
 
Sontin schrieb:
Kurz: Bei 100% Scaling ist der Input-Lag exakt gleich zu Single-GPU, da nVidia die komplette Frame-Verarbeitung verschiebt.

Kurz, das SLI hat somit immer einen höheren Inptlag als Single GPU, wie es auch von Skysnake angenommen wurde, logisch dass du nur den Bestcase nenst, dr nicht erreicht wird.
 
Leider darf ich im anderen Thread nicht mehr schreiben - wahrscheinlich dürfen nur Lügner das:
Ich habe nichts anderes geschrieben als nVidia dort in den Slides zeigt.

Und wie man an deinem Posting sieht: Du hast AFR eben nicht verstanden. Damit erübrigen sich doch Diskussionen über SLI.
 
Langsam kotzt mich dein Verhalten an. Wer nicht deiner Meinung ist hat das AFR nicht verstanden, ist klar.
Wer nicht Nvidias Marketingaussagen für voll nimmt und und ungefilterte Aussagen nicht verbreiten will, ist also ein Lügner? aha..
Du solltest wirklich mal überlegen das Forum zu verlassen denn es ist dafür da um zu diskutieren und auch mal was krtisch zu hinterfragen und nicht dafür da plumpe Marketingaussagen zu streuen und so zu tun, als ob Framemetering besonders toll im Bezug auf Inptlag respektive Outlag der ja wohl eher gemeint ist ,wäre.

Erkläre mir bitte warum ich AFR nicht verstanden habe und ich bin still, aber das gleiche hast du auch bei Skysnake unterstellt und natürlich keine Begründung angeführt.
Ich habe mich jetzt schon genug über das Thema informiert um mitreden zu können, also lass mal endlich den Käse stecken bei Aussagen die dir nicht passen dein gegenüber mit Unterstellungen zu diskrditieren.

Ich habe nichts anderes geschrieben als nVidia dort in den Slides zeigt.

Das darfst du auch, wenn du es wirklich für nötig und angebracht hältst so eine einseitige Desinformation hier weiterzuführen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh