Jetzt mal Butter bei die Fische: Input-Lag bei Nvidia's Multi-GPU Lösungen

"Desinformation"? Aha.

Also ich betreibe "Desinformation", wenn ich nVidia's Ausführungen für den Input-Lag anbringe. Du betreibst nur "Hinterfragung", wenn du hier dauernd dein Pseudoquatsch durch die Gegend spammst.

Der Threadersteller wollte Informationen über den Input-Lag bei SLI haben. Die hat er direkt von nVidia nun erhalten. Solltest du eine andere Meinung haben, belege sie bitte mit Fakten.

Sollte du das nicht können, sollte es auch jedem Forumsteilnehmer frei stehen, dich als lügner zu bezeichnen. Denn nichts anderes sind Menschen, die etwas behaupten, dass bekanntlich falsch ist.

/edit: Du hast AFR nicht verstanden, weil du einfach nicht verstehst, dass Input-Lag ein notwendiges Übel ist. Du parapharierst nun, wie auch dein Kollege Skysnake, dass bei AMD der Input-Lag geringer wäre. Ich, aber jetzt auch nVidia, haben hier ausführlich dargelegt, dass der Input-Lag bei SLI eben nicht größer ist als bei einer Single-GPU, wenn das Scaling 100% beträgt.

Du kannst gerne jetzt, wie oben erwähnt, das Gegenteil beweisen. Wir sind alle offen für Fakten.

/edit2: Und da ich gerade in Edit-Laune bin:
Laut nVidia ist der Input-Lag sogar geringer, da durch die doppelte, gleichmäßige Abtastrate durch 2-SLI wesentlich schneller neue Eingaben erfasst und dargestellt werden. Demnach ist bei SLI der Input-Lag auch geringer als bei Crossfire in der jetzigen Ausführung.

Hm, interessant, nicht?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Desinformation"? Aha.

Ja das verstehe ich darunter, wenn man Ausnahmlos nur so Informationen so aufbereitet dass sie möglichst positiv klingen und somit auch täuschen und Usern die damit nicht einverstanden sind, als Lügner bezeichnet oder so tut als würden jene nichts verstehen.
Das machst du seit deiner Zeit im 3DC Zeit ausnahmlos so.

Widersprüchlichkeiten bei der PCGH bezüglich Forward + Lichtdarstellung oder Widersprüchlichkeiten im Adobe Thread ( Offene vs. geschlossene Schnittstelle) sind jetzt mal zwei Beispiele von deiner gezielten Meinungsmache.

Sontin schrieb:
Also ich betreibe "Desinformation", wenn ich nVidia's Ausführungen für den Input-Lag anbringe.

Jupp das passt nicht ganz zusammen da hast du recht, ich entschuldige mich dafür und korrigiere dass ich das eher global sehe, bzüglich Postverhalten. Du hast recht dass man dies auf diese eine Aussage nicht beziehen kann, ich gestehe es ein, weil es mir ebenso nicht logisch erscheint.
Bei dir sind Eingeständnisse allerdings unmöglich und in Wirklichkeit hast du dir ganz gut überlegt wie du die Information in den Thread stellst, nämlich ohne weitere klärende Erläuterungen, damit ja keine Kritik aufkommt. Dass ich mit 2 Karten im Optimalfall ( 100% Skalierung) den Inputlag erreiche wie mit einer Karte ist also eine Leistung?

Sollte du das nicht können, sollte es auch jedem Forumsteilnehmer frei stehen, dich als lügner zu bezeichnen.

Jup, auf gehts!

Du hast AFR nicht verstanden, weil du einfach nicht verstehst, dass Input-Lag ein notwendiges Übel ist. Du parapharierst nun, wie auch dein Kollege Skysnake, dass bei AMD der Input-Lag geringer wäre.

Haha, ich habe das nie gesagt. Ich habe gesagt, dass bei AMD der Outpulag durch das Framemetering wegfällt, nicht der Inputlag von Dual GPU. Zeige mir bitte wo ich sage dass der bei AMD geringer sei, ich bin gespannt.
Wenn wir schonmal bei Beweisen sind. lol

Außerdem ist man lange kein Lügner oder Marketing angestellter von irgendwem wenn man sich mal verspekuliert oder verrennt, denn das passiert sicherlich jedem mal.

Laut nVidia ist der Input-Lag sogar geringer, da durch die doppelte, gleichmäßige Abtastrate durch 2-SLI wesentlich schneller neue Eingaben erfasst und dargestellt werden. Demnach ist bei SLI der Input-Lag auch geringer als bei Crossfire in der jetzigen Ausführung.

Hm, interessant, nicht?

Es ging um Framemetering und deren Nachteile, mir ist auch klar, dass du gar nicht willst dass man hier auch weit entfernt mal zu einem Konsens kommt. Das Thema ist für mich beendet.
Trolle von mir aus andere voll.
 
Zuletzt bearbeitet:
Zwei Dinge:
Was hat die Eingabeverzögerung mit der Ausgabeverzögerung zu tun? Sollte es nicht selbst auffallen, dass es bei reinen Ausgabeverzögerung der Bilder es kein Unterschied zwischen der Eingabeverzögerung gibt? Eigentlich schon.

Und der untere Teil beweist, dass du dir das Video nichtmal angesehen hast. Denn laut nVidia ist Framemetering für den geringeren Input-Lag gegenüber einer Single-GPU verantwortlich.

Im Grunde hast du eben genau meine Thesen eindrucksvoll bestätigt. Und ich hoffe, dass der Threadersteller durch das Youtube eben eine klare Antwort auf seine Frage erhält.
 
Zeige mir bitte deine blödsinnigen Unterstellungen mit demensprechenden Zitaten, ansonsten halte deine Füße still.
Auf deinen Müll werde ich nicht mehr eingehen, da ist mir meine Zeit wirklich zu schade.

> EOD<
 
Danke für das Video! Nach sowas hab ich gesucht.


Faszinierend wie der Nvidia Typ es schafft einen Nachteil als Vorteil darzustellen.
Aber er erzählt teilweise echten Mist muss ich sagen.

Ich schau mir das jetzt noch ein zweites Mal an und dann geh ich mal ins Detail.
 
Is mal wieder alle sind dumme Lügner Time? PCGH, CB, HT4U, diverse User und wer auch immer noch so herumkreucht & fleucht und es einfach so wagt eine eigene Meinung zu haben. Eine die nicht mit dem Gesetz des Huang-Fu konform geht? Hammer.

Wer Ironie findet darf sie behalten ...
 
Sag das mal Sontin, der versucht immernoch verbissen einen Nachteil als Vorteil herauszuarbeiten, ich bin immernoch der Hoffnung das sämtliche seiner Beiträge Sarkasmus sind.:fresse:
 
So ,hier ein Beispiel:




Das von mir blau eingezeichnete ist die Bildausgabe eine Single-GPU Lösung bei gleicher framerate.

Wie man unschwer erkennen kann ist das Input-Lag GERINGER, da bereits beim zweiten blauen Bild die Eingabe ausgegeben wird.
Im roten Fall bedarf es drei Bilder.


Es ist doch vollkommen logisch, dass wenn man auf einmal doppelte Rechenpower hat im Optimalfall auch das Inputlag sinkt weil alles schneller berechnet wird.
Im Video wird der Vorteil von 2 GPUs gegenüber einer einzelnen (also halb so schnellen GPU) diskutiert.

Bei einer einzelnen GPU ist das Inputlag maximal 1 Bild. Bei Multi-GPU (bezogen auf eine gleichschnelle Single-GPU Karte) sind es im schlimmsten Fall 2 Bilder.
 
Zuletzt bearbeitet:
Ja - eine Single-GPU hat bei gleicher FPS Zahl immer einen deutlich geringeren Input-Lag. Ein SLI-System hat bei 100% Scaling den selben Input-Lag wie die zugrundeliegende Single-GPU.
Bei AMD kann es anders aussehen

Is mal wieder alle sind dumme Lügner Time? PCGH, CB, HT4U, diverse User und wer auch immer noch so herumkreucht & fleucht und es einfach so wagt eine eigene Meinung zu haben. Eine die nicht mit dem Gesetz des Huang-Fu konform geht? Hammer.

Wer Ironie findet darf sie behalten ...

Stimmt. Keine dieser Seiten sowie "diverse User" haben SLI einen höheren Input-Lag bescheinigt.
Also, stimmst du mir im Fall Schaffe also zu? :hmm:
 
Zuletzt bearbeitet:
Ja - eine Single-GPU hat bei gleicher FPS Zahl immer einen deutlich geringeren halben Input-Lag. Ein SLI-System hat bei 100% Scaling den selben Input-Lag wie die zugrundeliegende Single-GPU.

Ne, so stimmt das ja dann auch wieder nicht. 1,5 fach ist da richtig. Doppelt (also kein Gewinn und somit keine spürbare Verbesserung der Leistung) nur bei exorbitant großen Mikrorucklern bzw quasi gleichzeitiger Bildausgabe beider GPUs.


Meine ursprüngliche Frage danach, wo das framemetering einsetzt hat sich jetzt quasi durch das Video geklärt.
Angeblich soll es ja bereits vor der Bilderstellung eingreifen, so dass man keine "alten" Bilder serviert bekommt.


Mir ist jetzt erst so richtig klar geworden was für ein Humbug die ganze Multi-GPU Geschichte ist.

Bei 100% Skalierung + framemetering erreicht man eine um 50% verbesserte gefühlte Leistung. Das absolute Maximum.
Man bezahlt allerdings mindestens 100% Aufpreis.



Fazit: Ich brauch doch ne Geforce Titan. :fresse:

Ne, mal im Ernst. Multi-GPU ist somit gestorben für mich. Das einzige was für mich Preis-Leistungsmäßig gerade noch Sinn machen würde wäre ein Umstieg auf eine gut übertaktbare HD 7970, die in BF3 ja besser performt als eine gleich getaktete GTX 680.
 
Zuletzt bearbeitet:
Ne, so stimmt das ja dann auch wieder nicht. 1,5 fach ist da richtig. Doppelt (also kein Gewinn und somit keine spürbare Verbesserung der Leistung) nur bei exorbitant großen Mikrorucklern bzw quasi gleichzeitiger Bildausgabe beider GPUs.


Meine ursprüngliche Frage danach, wo das framemetering einsetzt hat sich jetzt quasi durch das Video geklärt.
Angeblich soll es ja bereits vor der Bilderstellung eingreifen, so dass man keine "alten" Bilder serviert bekommt.


Mir ist jetzt erst so richtig klar geworden was für ein Humbug die ganze Multi-GPU Geschichte ist.

Bei 100% Skalierung + framemetering erreicht man eine um 50% verbesserte gefühlte Leistung. Das absolute Maximum.
Man bezahlt allerdings mindestens 100% Aufpreis.



Fazit: Ich brauch doch ne Geforce Titan. :fresse:

Ne, mal im Ernst. Multi-GPU ist somit gestorben für mich. Das einzige was für mich Preis-Leistungsmäßig gerade noch Sinn machen würde wäre ein Umstieg auf eine gut übertaktbare HD 7970, die in BF3 ja besser performt als eine gleich getaktete GTX 680.

Das war ja schon immer so dass bei multigpu man mehr frames braucht als bei singlegpu für das selbe Spielgefühl. Preis/Leistung muss aber nicht unbedingt schlecht sein denn multigpu hat praktisch nur dann sinn wenn die schnellste singe gpu nicht reicht (oder die Alternative Titan ist wo man für 35% mehr fast 300% mehr zahlen muss) denn dann erreicht man nur so mehr Leistung. 50% max verbesserung würde ich aber nicht als Gesetz annehmen man muss bei input lag immer beachten dass es nicht ausschließlich durch die gpu-s entsteht sondern durch Tastatur, System, Spielengine selbst und dann noch Ausgabe am Bildschirm. Die 1-2 Frame mehr input lag bei Multigpu sind also auch beim gleichen fps wie mit eine Singlegpu lange nicht doppelt so viel lag.
 
Beeinflussbar ist aber im Grunde nur die Eingabeverzögerung der Grafikkarte und nur darauf hab ich mich bezogen.

Natürlich ist nicht das gesamte Inputlag gemeint.
 
skalierung 100% bei multigpu?hust,im schnitt wohl eher 30-80% je nach größe der gpu`s.nach oben hin wird die luft dünner....

elwood,doppelter preis heißt zwar nicht doppelte leistung,es kann aber fürs gezahlte trotzdem deutlich mehr leistung raus kommen.zb. 680(400-450€) vs gb 660ti sli(500€)

du bringst aber immer noch lags mit ruckler durcheinander u. was real gefühlt an kommt,im positiven wie negativen sinne.

ironischerweise ist das bild mit sli sogar in vielen spielen bzgl. lags bei mir ruhiger geworden.ich stand kurz vor sli erweiterung vorm kauf einer teuren maus,weil ich die maus bzgl. lags in verdacht hatte.erklären kann ich das nicht.

zu ruckler:
AMD Radeon HD 7990 im Test (Seite 6) - ComputerBase
AMD Radeon HD 7990 im Test (Seite 13) - ComputerBase
Test: Nvidia GeForce GTX 690 (Seite 8) - ComputerBase

sieht nach extremen ausschlägen aus,real spielt man eh eher nicht unter 60 fps,man hat vsync an o. man macht den framelimiter an.bei der 600er singlegpu ists seltsamerweise auch unter 60 fps am ruckeln.das hatte ich zwar mit ner 570 nicht aber ich hab jetzt auch nen lcd der da empfindler drauf reagiert.

wir können dir hier alle was erzählen,bestell doch 2x 600er u. dann testeste wie`s ist.wenns nicht zusagt schickste zurück u. du hast gewissheit.

mit ner 680 geoced bekommste kein 4x sgsaa @60 fps in bf3 hin,mit 660ti sli schon.da entgeht dir was!
 
Zuletzt bearbeitet:
du bringst aber immer noch lags mit ruckler durcheinander u. was real gefühlt an kommt,im positiven wie negativen sinne.

Ne, bringe ich nicht.
Beides sorgt für ein schwammiges Spielgefühl, da Befehlseingabe und -ausgabe zu weit auseinander liegen.

Ich brauch ein neues Netzteil wenn ich mir ne zweite GTX 680 einbaue. Deshalb wäre die 690 die einzige Möglichkeit gewesen.
Da ich jetzt aber weiß, dass kaum was von der Mehrleistung auch wirklich fühlbar am Auge ankommt ist sie mir das Geld nicht wert.

Da ich grad Knete brauche weil die BAföG Nachzahlung auf sich warten lässt, verkaufe ich die GTX 680 und hol mir in drei Wochen ne schöne 7970.
 
mit ner 680 o. 7970 sind die meisten aktuellen spiele auf ultra spielbar.ich nutz das sli aber mehr für ssaa/sgsaa o. wenn ein game mal performancetechnisch grenzwertig ist für ultra u. ssaa/sgsaa eh nicht geht.

da hast du schon deutlich mehr performancereserven für,was mit ner single nicht geht.andersrum sieht nen game "nur" auf high sicherlich meistens auch top aus,wenns mal reduziert werden muß wegen performance.

jetzt die eine gute graka verkaufen u. in 4 wochen später ne andere kaufen wegen kohle halte ich für quatsch.da würd ich mir eher was bei eltern o. tante leihen.

7970 macht "nur" sinn,wenn du ne 2gb 680 hast u. die rampanik bekommst.das meiste sollte aber noch sehr gut mit der gehen.


aber bei bafög erschließt sich mir der ganze thread nicht.da würde ich gar nicht über sli nachdenken...
 
Es soll Leute geben die neben dem Studium noch arbeiten gehen.

Ich hab dieses Jahr schon 4 verschiedene Grafikkarten im Rechner gehabt. Wenn man gebraucht kauft und ein bisschen die Augen offen hält macht man beim Wiederverkauf auch keinen Verlust.

Und nein, im triplehead sind die meisten Spiele nicht mit höchsten Einstellungen spielbar.

Über Sinn und Unsinn kann Ich sehr gut selbst entscheiden, aber danke. ;)
 
Zuletzt bearbeitet:
sicher kannst du das,aber bei dem threadverlauf u. jetzt keine kohle haben ist der ganze thread quatsch.das kann ->ich wohl selbst entscheiden :stupid:
 
Der thread war nicht primär als Kaufberatung gedacht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh