AMD spricht zu FCAT und der Radeon HD 7990

sichtbare Microruckler Fehlanzeige.

Wenn mir das ein Blinder sagen würde, so würde ich ihm doch glatt glauben. Aber nur weil man etwas nicht sehen will, so bedeutet es nicht, das es nicht da ist.

Zur Aussage des Themas, das es mal wieder "versprochen" wird, die MR anzugehen, so kann ich darüber nur herzlich lachen, denn täglich grüßt das Murmeltier.
Das wurde doch schon zu jedem Interview gesagt, und wurde ebenso nie gehalten.
Bin gespannt welche Gründe im Sommer herangezogen werden, warum es nicht möglich ist die MR zu beseitigen. Die letzte große Erklärung bezog sich seitens NVIDIA auf die Programmierer der Spieleengineen. Sie seien Schuld an den MR und nicht die Grafikkartentreiber.

Mal schauen was wird.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Muahhh, .........................................................moment ich hole das Popcorn.............so kann losgehen :popcorn:
 
Auch wenn ich auf Aussagen von AMD nichts gebe, die Techniken von Nvidia betreffen ... davon ausgehend, dass es einen höheren Inputlag gibt stellt sich automatisch die Frage ob dieser in der Praxis in irgendeiner Weise relevant bzw. spürbar ist. Ich denke nicht, sonst hätte man irgendwann schonmal was davon gehört wie von den massiven Mikrorucklerproblemen von AMD und zum Teil Nvidia.

Verwenden solche Leute denn überhaupt MGPU Geschichten?
Ich mein, Lags können von vielen Stellen kommen. Die Summe ist der ausschlaggebende Punkt. Wer da kein anständiges Equipment durch die ganze Bank hat, kann durch SGPU vs. MGPU auch nichts mehr "reißen" ;)

Ein Bekannter von mir hat sich über Jahre lang gegen 60Hz TFTs gewehrt und mit seiner 120Hz Röhre gespielt. Weil der TFT ihm zu viel verzögerte. Ebenso hat er nie! MGPU auch nur im Ansatz in Betracht gezogen, weil es potentiell ein Nachteil ist, AFR zu nutzen.
Dazu kommt die Verzögerung durch den INet Anschluss sowie die Verzögerung der Eingabegeräte. Letzteres kann man mit Modifizierungen an USB verbessern. INet Latenz geht nur über bessere/schnellere/andere Anschlüsse.

In Summe kommt da schon einiges am Zeit in ms zusammen. ;)


Beispiel: Angenommen, es gibt zwei exakt gleich schnell agierende Menschen.
Stell dir nun vor, du spielst gegen jemanden, der eben direkt mit 2-5ms den Server erreicht, dazu seine Eingabegeräte soweit modifiziert, damit diese möglicht wenig Verzögerung erzeugen und auf seinem Schirm auch sehr schnell den Inhalt sieht, dazu mit SGPU im Einsatz hat. Schon rein logisch sollte doch sein, dass dieser massivste Vorteile gegen jemand mit lahmen Eingabegeräten, lahmen TFT, lahmer INet Leitung sowie MGPU (ggf. gar vierfach) hat.

Mal simpel angenommen, das Bild ist schwarz. Beide Spieler stehen sich gegenüber, sehen aber nur schwarz. Der Server initiert die gegenseitige Sichtbarkeit zum exakt selben Zeitpunkt!
Allein durch MGPU bei sagen wir mal 60 FPS glatt (mit Limiter und glatten Frametimes) hast du bei vier GPUs im AFR schon 66,67ms Verzögerung, bis du überhaupt erstmal auf dem Schrim ein Bild siehst.
+ die Verzögerung durch den Monitor.
Der andere hat das so definitiv nicht ;) Denn er hat eben bei 60 FPS im Limiter glatt gerade mal grob 16ms Verzögerung. Er hat also schonmal gute 4x mehr Zeit, zu reagieren.
Logisch oder!? ;)

Wenn mir das ein Blinder sagen würde, so würde ich ihm doch glatt glauben. Aber nur weil man etwas nicht sehen will, so bedeutet es nicht, das es nicht da ist.

Das war auch nicht die Aussage... :rolleyes:
Die Aussage war, "sichtbare MR Fehlanzeige"... Das heist sowie wie, er sieht sie nicht.
Wo ist das Problem?
Da steht weder, das es sie nicht gibt, und ebenso, das sie andere Menschen nicht vllt doch sehen...
 
Zuletzt bearbeitet:
PS:
Das mit Blaire musst du mir mal in ner PM erläutern. Danke


Über Blaire gibt es nix zu sagen, außer er hat wohl gute Kontakte zum NV´s Treibersupport und ist i.d.R. erstklassig
informiert. Das was er sagt hat immer Hand und Fuss und im 3DC ist er für mich sowas wie die gute Fee in Nv Hilfe Forum.
Er reagiert schnell auf Anfragen oder z.B. Spielefehler hat oft Lösungsansätze oder gibt Informationen zurück wie...
ist kein Treiberfehler muss per Patch usw. Dazu noch angenehm zurückhaltend und nie polemisch, einfach ein sehr netter Kerl.---- Ich glaube zumindest das es ein Kerl ist und keine Frau ;-)
 
Zuletzt bearbeitet:
Mich kotzt einfach nur die Blauäugigkeit an. Selbst wenn alles 100% korrekt ist, ist es einfach so wie es abgehandelt wird einfach unbrauchbar. Man weiß einfach gar nichts, und den Leuten wird suggeriert, dass das alles super schnike und super toll ist, und wenn Sies nicht verstehen, dann liegt das halt nur daran, dass es halt kompliziert ist...

Lustig, dabei verstehst du es als einziger nicht. Aber das ist ja ein Anzeichen von Paranoia: Alle anderen liegen falsch, nur ich habe die einzig wahre Meinung. :lol:

Vor allem steht man halt wie der Ochs vorm Trog und bekommt nicht die Informationen, die man wirklich braucht, um sich ein Bild zu machen, und alle Welt meint den heiligen Gral gefunden zu haben...

Nächtes Anzeichen von Paranoia: Trotz objektiv belegter Fakten glaubt der Paranoide immer noch an fehlenden oder zurückgehaltenen Informationen.

Wenn nVidia jetzt z.B. herausgefunden hätte, das Menschen/Gamer bei einem delta_t von X zwischen zwei Frames und einem delta_t von Y zwischen ingame_time und display_time kein Ruckeln wahrnehmen können, dann wäre das toll! Auf den Wert hin könnte man dann nämlich Algorithmen entwickeln, von denen dann alle! Profitieren. Ist ja wie mit den Studien zum Farbsehen und Hören. Das hat die Wissenschaft und Technik extrem weiter gebracht. Wenn man sowas für die Abfolge von Darstellungen ermittelt hätte, dann müsste man sich vor nVidia bis zum Erdbode verbeugen! Das wäre nämlich sehr nützlich! So wie es aktuell aber ist, ist es einfach nur unbrauchbar, weil man schilcht die Werte nicht interpretieren kann, da man dumm gehalten wird durch entzug von Information.

Aha. Und wenn nVidia ein Aidsheilmittel herausgefunden hätte, dann würde es uns auch alle helfen. Was in Gottesnahmen hat das mit dem Capturen von Bildern und dem Analysieren des Datenstreams zu tun?

Ich bin ja mal gespannt, ob man den Quellcode noch einsehen wird können. Dann wäre die Frage wohl auch geklärt, ob es nur bei DX oder auch bei OpenGL funktioniert. Bei nVidias Firmenpolitik glaube ich aber leider nicht wirklich daran. Es ist teils wirklich ein Krampf mit Ihnen auf Softwarebasis zu arbeiten, wobei das bei Intel und AMD teils auch nicht besser ist...

PS:
Das mit Blaire musst du mir mal in ner PM erläutern. Danke

Du hast wirklich in keinster Weise gecheckt, um was es hier geht. Ehrlich: Wäre es nicht langsam an der Zeit, einfach nichts mehr zu schreiben?
 
Verwenden solche Leute denn überhaupt MGPU Geschichten?
Ich mein, Lags können von vielen Stellen kommen. Die Summe ist der ausschlaggebende Punkt. Wer da kein anständiges Equipment durch die ganze Bank hat, kann durch SGPU vs. MGPU auch nichts mehr "reißen" ;)

Ein Bekannter von mir hat sich über Jahre lang gegen 60Hz TFTs gewehrt und mit seiner 120Hz Röhre gespielt. Weil der TFT ihm zu viel verzögerte. Ebenso hat er nie! MGPU auch nur im Ansatz in Betracht gezogen, weil es potentiell ein Nachteil ist, AFR zu nutzen.
Dazu kommt die Verzögerung durch den INet Anschluss sowie die Verzögerung der Eingabegeräte. Letzteres kann man mit Modifizierungen an USB verbessern. INet Latenz geht nur über bessere/schnellere/andere Anschlüsse.

In Summe kommt da schon einiges am Zeit in ms zusammen. ;)


Beispiel: Angenommen, es gibt zwei exakt gleich schnell agierende Menschen.
Stell dir nun vor, du spielst gegen jemanden, der eben direkt mit 2-5ms den Server erreicht, dazu seine Eingabegeräte soweit modifiziert, damit diese möglicht wenig Verzögerung erzeugen und auf seinem Schirm auch sehr schnell den Inhalt sieht, dazu mit SGPU im Einsatz hat. Schon rein logisch sollte doch sein, dass dieser massivste Vorteile gegen jemand mit lahmen Eingabegeräten, lahmen TFT, lahmer INet Leitung sowie MGPU (ggf. gar vierfach) hat.

Mal simpel angenommen, das Bild ist schwarz. Beide Spieler stehen sich gegenüber, sehen aber nur schwarz. Der Server initiert die gegenseitige Sichtbarkeit zum exakt selben Zeitpunkt!
Allein durch MGPU bei sagen wir mal 60 FPS glatt (mit Limiter und glatten Frametimes) hast du bei vier GPUs im AFR schon 66,67ms Verzögerung, bis du überhaupt erstmal auf dem Schrim ein Bild siehst.
+ die Verzögerung durch den Monitor.
Der andere hat das so definitiv nicht ;) Denn er hat eben bei 60 FPS im Limiter glatt gerade mal grob 16ms Verzögerung. Er hat also schonmal gute 4x mehr Zeit, zu reagieren.
Logisch oder!? ;)


Es ging darum ob Nvidias Frame Metering dafür sorgt, also ob bei Nvidia der Inputlag größer ist als bei AMD und ob das überhaupt relevant/spürbar ist. Da davon bisher noch nie jemand berichtete sage ich nein, dem ist nicht so.

Es ging weder um MGPU vs. SGPU noch um irgendwelche themenfremden Ursachen für Verzögerungen. Diese kaum zu verhindernden Verzögerungen sind mir bekannt und relativieren eine möglicherweise vorhandene Erhöhung des Inputlag durch Frame Metering sowieso wieder ein stückweit.
 
Wie geil die üblichen verdächtigen sind mal wieder mit ein und dem selben Thema beschäftigt :)
Zu mindest hört man man von AMD das an Besserung arbeitet ist doch super und das PLX Chip ersetzt wird durch eine eigen Kreation ist auch ne geile Sache scheint sich ja langsam was zu tun.
Wer weis vielleicht koppelt AMD 2 Chips die an einem Bild rendern :bigok:
Das wäre doch mal ein Ding und ein Weg der Interessant wäre .
Z.b nicht mehr 3GB Ram für jede GPU sondern für 2 GPUs einen Gemeinsamen Ram.
Ach träumen darf man ja noch.
 
Zuletzt bearbeitet:
Es ging darum ob Nvidias Frame Metering dafür sorgt, also ob bei Nvidia der Inputlag größer ist als bei AMD und ob das überhaupt relevant/spürbar ist. Da davon bisher noch nie jemand berichtete sage ich nein, dem ist nicht so.

Neja, die Frage beantwortet dir dein logischer Verstand doch schon fast vollständig selbst. Ein Zeitverzögern der Frameausgabe heist immer auch gleich eben einen Nachteil. Nämlich dass man die getätigte Eingabe später auf dem Schrim sieht. -> Fakt!
Davon braucht man nicht berichten ;) Bei AMD ist dies an der Stelle so wohl aktuell nicht. Denn dort siehst du eben die Eingabe auch quasi ohne Verzögerung. (nur die übliche AFR Verzögerung).

Im übrigen machst du es dir zu einfach. Ne Pauschalaussage einer Subjektiven Empfindung zu fordern ist leicht unsinn, da schlicht unmöglich zu tätigen.
Bestenfalls kann man über den Hintergrund sprechen. Und da dürfte es logisch sein, was einen Nachteil ergibt und was nicht. Wobei auch dort noch andere Faktoren einbezogen werden müssen!, die ich oben ansprech, welche du aber ausklammerst ;)
 
Ja, so ne Interposer Lösung wäre schon geil, und eben wirklich mal am Kern der Problems angesetzt, aber das wird nicht kommen. Da kann man Gift drauf nehmen.

PS:
Was Iruwen aus dem 3D-Center aufgefallen ist:
THG-Berich: Die Messwerte von unserem Test mit einem X79 System waren unbrauchbar
PCper: Wir setzt ein ASUS P9X79 Deluxe ein

;D

Ähm.... ja... Wo ist das Popcorn?

Also einer muss wohl nochmal nachbessern. Es zeigt aber mal wieder, wie wenig man über FCAT, und wie es im Detail funktioniert wirklich weiß...

Aber hey, wir vertrauen den Werten ja einfach mal blind....

Wie mein Prof immer so schön sagte: "Wer viel misst, misst meist Mist" und er hatte so fucking RECHT!
 
Wer weis vielleicht koppelt AMD 2 Chips die an einem Bild rendern :bigok:

Gibts schon ;)
Und nennt sich dann (beispielsweise) SFR :fresse: -> taugt aber bis dato in den zu sehenden Umsetzungen nur bedingt.
Andere Umsetzungen abseits von SFR, mit anderer Matrix aber ähnlichen Ansätzen gibts auch. -> google mal nach AMD Folien.
 
Ja, so ne Interposer Lösung wäre schon geil, und eben wirklich mal am Kern der Problems angesetzt, aber das wird nicht kommen. Da kann man Gift drauf nehmen.

PS:
Was Iruwen aus dem 3D-Center aufgefallen ist:
THG-Berich: Die Messwerte von unserem Test mit einem X79 System waren unbrauchbar
PCper: Wir setzt ein ASUS P9X79 Deluxe ein

;D

Ähm.... ja... Wo ist das Popcorn?

Also einer muss wohl nochmal nachbessern. Es zeigt aber mal wieder, wie wenig man über FCAT, und wie es im Detail funktioniert wirklich weiß...

Aber hey, wir vertrauen den Werten ja einfach mal blind....

Wie mein Prof immer so schön sagte: "Wer viel misst, misst meist Mist" und er hatte so fucking RECHT!

Och, hat der Skytroll schon wieder keine Ahnung, von was er redet?
Hier mal Techreport:
I can't say the setup process for this card is easy. [Die DVI Capture Karte] didn't want to work at all with our Intel X79 motherboard (although I'd rather not work with an Intel X79 motherboard myself, I must admit). We eventually got it going with an MSI Z77 board, but we had to disable a number of extra system devices, like USB 3.0 and auxiliary storage controllers, in order to get it working consistently.
Inside the second with Nvidia's frame capture tools - The Tech Report - Page 2

Tja, der Paranoide versucht es eben immer weiter. Solange er am Ende meint, seine Meinung sei die einzig richtige. Herrlich, wirklich.
 
Neja, die Frage beantwortet dir dein logischer Verstand doch schon fast vollständig selbst. Ein Zeitverzögern der Frameausgabe heist immer auch gleich eben einen Nachteil. Nämlich dass man die getätigte Eingabe später auf dem Schrim sieht. -> Fakt!
Davon braucht man nicht berichten ;) Bei AMD ist dies an der Stelle so wohl aktuell nicht. Denn dort siehst du eben die Eingabe auch quasi ohne Verzögerung. (nur die übliche AFR Verzögerung).

Im übrigen machst du es dir zu einfach. Ne Pauschalaussage einer Subjektiven Empfindung zu fordern ist leicht unsinn, da schlicht unmöglich zu tätigen.
Bestenfalls kann man über den Hintergrund sprechen. Und da dürfte es logisch sein, was einen Nachteil ergibt und was nicht. Wobei auch dort noch andere Faktoren einbezogen werden müssen!, die ich oben ansprech, welche du aber ausklammerst ;)

Die Frage ist inwiefern Verzögerungen relevant sind. Als relevant sehe ich Verzögerungen an, die vom Nutzer bemerkt werden und so sein Nutzungserlebnis einschränken; da wirst du mir sicher zustimmen.
Frame Metering scheint mir jedoch nicht relevant für den Inputlag zu sein, da es schlichtweg keine Berichte/Tests/Reviews gibt in denen bemängelt wurde Nvidia Karten hätten einen größeren Inputlag als AMD Karten. Es fällt scheinbar schlicht nicht auf und ist daher meiner Meinung, also subjektiver Ansicht, nach ein legitimes Mittel gegen Mikroruckler vorzugehen.
Diese schränken das Nutzungserlebnis ungleich stärker ein als ein Phänomen, welches nicht oder vielleicht sehr selten bemerkt wird; auch da wirst du mir wohl zustimmen.

Die anderen Faktoren müssen beim Betrachten des von mir thematisierten Sachverhalts nur in dem Maße beachtet werden wie ich es tat: Sie relativieren ein Stück weit etwaige Verzögerungen durch Frame Metering. Ansonsten sind sie doch mangels Einflusses auf das Frame Metering selbst völlig irrelevant um festzustellen, ob das Frame Metering eine relevante Erhöhung des Inputlag verursacht. Für das Gesamtergebnis, den ganzen Inputlag, sind sie freilich relevant, darum beziehst du sie wohl mit ein, aber mir ging es nur um den vom Frame Metering verursachten Anteil.

Ja, so ne Interposer Lösung wäre schon geil, und eben wirklich mal am Kern der Problems angesetzt, aber das wird nicht kommen. Da kann man Gift drauf nehmen.

PS:
Was Iruwen aus dem 3D-Center aufgefallen ist:
THG-Berich: Die Messwerte von unserem Test mit einem X79 System waren unbrauchbar
PCper: Wir setzt ein ASUS P9X79 Deluxe ein

;D

Ähm.... ja... Wo ist das Popcorn?

Also einer muss wohl nochmal nachbessern. Es zeigt aber mal wieder, wie wenig man über FCAT, und wie es im Detail funktioniert wirklich weiß...

Aber hey, wir vertrauen den Werten ja einfach mal blind....

Wie mein Prof immer so schön sagte: "Wer viel misst, misst meist Mist" und er hatte so fucking RECHT!

Hast du außer Verschwörungstheorien und der Präsentation deiner Rechtschreibschwäche nichts beizutragen?
 
Dann les mal nochmal den Artikel von THG, die beziehen sich nicht auf das Capturing System, sondern auf das Testsystem, also das, auf dem der Benchmark läuft. Und wenn nicht haben Sie sich mal SEHR unglücklich ausgedrückt.

Aber schön zu sehen, wie du wieder auf die persönliche Stufe zurück fällst, was unterste Schublade ist. Aber mehr als persönliche Angriffe kann man von dir eh nicht erwarten. Du bist da ja leider lernresistent, wie es scheint, obwohl Beiträge von dir ausgeblendet werden. Was will man da noch groß sagen.

@waro245:
Und wie kannst du dir da so sicher sein, dass man eben die Auswirkungen durchaus beobachtet, aber eben missinterpretiert, aber eben aktuell keine Möglichkeit hat das zu überprüfen, weil FCAT in diesem Punkt einfach unzulänglich ist?

Früher hat man auch geglaubt, die Erde sei eine Scheibe, und es hat niemand etwas anderes geglaubt, oder wahrgenommen. Dennoch ist es ja bekanntlich falsch, und hat sich erst gezeigt als man genauer "hingesehen" hat. Das Gleiche gilt für die Atomstruktur der Materie, oder eben dem Fakt, dass ein Atom eben doch teilbar ist, und selbst ein Proton wiederum aus Quarks besteht.

Man muss halt erst genau genug hinschauen, um Effekte differenzieren zu können. Aktuell wissen wir aber noch gar nicht, ob das Framemetering eben nicht doch einen Effekt hat, der sich negativ auswirkt, oder eben nicht. Wir wissen nur, das wir es aktuell nicht sagen können. Das wars.

Und bzgl. "nichts beizutragen", da gibt es ganz andere Adressaten, an die du das richten kannst. ;) Ansonsten kann ich nur sagen, mach die Augen zu. Ich habe gehört das soll im Zweifel helfen.
 
Zuletzt bearbeitet:
Neja, die Frage beantwortet dir dein logischer Verstand doch schon fast vollständig selbst. Ein Zeitverzögern der Frameausgabe heist immer auch gleich eben einen Nachteil. Nämlich dass man die getätigte Eingabe später auf dem Schrim sieht. -> Fakt!
Davon braucht man nicht berichten ;) Bei AMD ist dies an der Stelle so wohl aktuell nicht. Denn dort siehst du eben die Eingabe auch quasi ohne Verzögerung. (nur die übliche AFR Verzögerung).

Ne ist klar, wenn die Daten und Aufzeichnungen stimmen sieht man bei AMD- CF ........ gar nichts, weil das Bild verworfen wird oder nur in geringer Zeilenhöhe ausgegeben wird -> Fakt!

Ich habe ab und an das Gefühl, dass hier einige überhaupt nicht verstehen was das Thema ist! Natürlich ist es wünschenswert, das weder das eine (AMD mit Problemen im Bereich tatsächliche Ausgabe der Bilder) noch NV ( Bis jetzt nur vermutet und nicht belegt eine verzögerten Ausgabe erfolgt) vorkommt.
Aber es so hinzustellen, dass fehlende Bilder besser sind wie leicht verzögerte, dass muss mir mal schnell jemand erklären das kapier ich jetzt gerade nicht:wall:
 
Man muss halt erst genau genug hinschauen, um Effekte differenzieren zu können. Aktuell wissen wir aber noch gar nicht, ob das Framemetering eben nicht doch einen Effekt hat, der sich negativ auswirkt, oder eben nicht. Wir wissen nur, das wir es aktuell nicht sagen können. Das wars.
.

Framemetering ist ja nun das Rad nicht neu erfunden.Nvidia betreibt das seit geraumer Zeit wo bitte sind die Belege für unzulänglichen Lag? Das wäre über kurz oder lang auch ans Tageslicht gekommen wenn da was in die falsche Richtung läuft

Währenddessen sprichst du aber der Messung unregelmäßiger Frames jedwede Berechtigung ab für ein seit langem bekanntes u vor allem auch störendes Szenario eine Grundlage zu bilden

Glaubst du nen Geist zu kreieren um das andere belegbare zu unterwandern ist hier der richtige Ansatz?

Ich mein was muss denn noch passieren außer ner öffentlichen Stellungsnahme von AMD das man nicht jedwede Zielführung torpediert?
 
Mick_Foley schrieb:
Schaffe dein rumgepöbel nervt und bringt auch niemanden weiter... Mal davon ab, dass du dich damit jedes mal dezent lächerlich machst...^^

Argumentlose Fanboyunterstellungen bringen niemanden etwas, tut mir leid dass mich das bei scully1234 stört, und ich deswegen seinen Beitrag kommentiere, wenn dir das gefällt schön.

scully1234 schrieb:
Wenn da was dran wäre wären die Konsequenzen schon ne Weile sichtbar da man nicht erst seit gestern an der Unterdrückung ungleichmäsßger Frames arbeitet

Das Grundsätzliche Problem des Testverfahrens ist, dass nur AMD´s reale FPS vs. Hardware FPS verglichen werden, d.h. Runts herausgefiltert und abgezogen werden, bei Nvidia gibt es natürlich nichts abzuziehen, weil runts in der Pipeline nicht entstehen, oder nur sehr wenige, ganz einfach weil Nvidia die Ausgabe der Bilder leicht verzögert und somit wenn möglich alle berechneten Bilder ausgibt.

Allerdings führt dieser Outputlag auch zu der Wahnrehmung von geringeren FPS bzw auch µrucklern, weil die Ingame Zeit mit der Realen Zeitmessung teils zusammenpasst und teils wieder nicht.

Es ist also zu einem Teil ein kleiner Trick, also Marketing, die reinen Messwerte sind alle ok, das Tool arbeitet aus meiner Sicht sauber.

Leider ist aber die Interpretation der Messergebnis falsch, vor allem weil man wie gesagt den Outputlag der Nvidiakarte nicht weiter misst.

Ein subjektiver Beweis des Redakteurs liegt ebenso vor.
Laut seinen Schilderungen ist die Bildabfolge von AMD im Schnitt nicht schlechter!

"Das obige Diagramm dient zur Veranschaulichung der Varianz der Bildaufbauzeiten – es beruht auf Daten, die von FCAT ermittelt wurden. Sowohl die GeForce- als auch die Radeon-Karten liegen beim 95sten Perzentil noch unter dem kritischen 10ms-Wert."

"Die Varianz der Bildaufbauzeiten ist bei beiden Kartenpaaren gering, vermutlich weil die Karten voll ausgelastet sind."

Wobei ich hier anfügen muss dass prinzipiell die Abhängigkeit dieser Messwerte noch nicht!! auf konkrete CPU und GPU Limits untersucht wurde, was auch etwas mager ist.

"Bei beiden Graphikkarten ist die Varianz der Bildaufbauzeiten relativ hoch. Beim Spielen schienen die GeForce-Karten mehr zu ruckeln, aber vielleicht war dieser Eindruck nur subjektiv."

Die nvidia hat bei diesem Game höhere Werte, bei allen Percentilen und ruckeln angeblich auch mehr.

"Aber davon abgesehen – die Varianz der Bildaufbauzeit hält sich in Grenzen, selbst beim 95sten Perzentil."

Wieder keine subjektiven Nachteile des CF.

"Diese Diagramm liefert eine Erklärung für die Zacken: Die Bildaufbauzeit-Varianz der Radeon-Karten ist sehr hoch. Insbesondere der Wert für das 95ste Perzentil ist extrem hoch – die Einzelbilder erscheinen nicht zu konsistenten Zeitpunkten. Auch beim Spielen war eine gewisse Unrundheit zu bemerken."

Der Kommentar zu Far Cry 3 sagt dass es ein unrundes Empfinden bei der Radeon wahrnimmt.

"Dieses Spiel ist ein weiteres Exemplar jener Spiele, in denen die Radeon-Karten eine relativ hohe Bildaufbauzeit-Varianz aufweisen. Beim Spielen machte sich dieser Effekt hier aber nicht negativ bemerkbar (und wir haben AMD und Nvidia auch mitgeteilt, dass sich Probleme mit der Bildwiederholrate bei verschiedenen Spielen unterschiedlich stark bemerkbar machen)."

Trotz hoher Werte bei der Radeon, kein Unterschied zur Geforce.


Auch bei Metro 2033 siehts für die Radeon gut aus. Bei Skyrim sind die Radeon Werte zum dritten mal besser.

"Die Bildaufbauzeit-Varianz der GeForce-Karten ist relativ niedrig, während die Radeon-Karten mehr Varianz aufweisen. Dieser Effekt war auch ein bisschen beim Spielen bemerkbar."

Also haben wir unterm Strich einen Fall, wo die Radeon subjektiv mehr µruckelt und alle anderen Fälle sind ausgeglichen.

Mein Fazit:

Die prinzipiell höhere Bildwiederholrate von Nvidia wird zwar gemessen, ist aber nicht so hoch, wegen dem Outputlag.
Es ist genauso wie Skysnake die ganze Zeit sagt, ein gutes teils unehrliches Marketing von Nvidia, ohne wirklich zu cheaten, sondern nur das zu messen was in den Kram passt.

Maximusprime schrieb:
Aber es so hinzustellen, dass fehlende Bilder besser sind wie leicht verzögerte, dass muss mir mal schnell jemand erklären das kapier ich jetzt gerade nicht

Zeige mir mal den Beitrag von dem User der dies sagt, ich habe keinen gelesen.
Ich denke dass unterm Strich je nach Game das Verfahren von Nvidia etwas besser ist, so waren jedenfalls meine subjektiven Eindrücke von SLI vs CF, aber für eine pauschalaussage reicht es nicht.
 
Zuletzt bearbeitet:
Argumentlose Fanboyunterstellungen bringen niemanden etwas, tut mir leid dass mich das bei scully1234 stört, und ich deswegen seinen Beitrag kommentiere, wenn dir das gefällt schön.

Irgendeiner von uns beiden, ein Tipp ich bin es nicht, braucht mal Nachhilfe in Logik oder eine Brille oder beides... Ich habe dich wegen deinem Ton kritisiert und da ging es null um Scully sondern um Dochurt. Ich bin mir bewusst, dass du dir weder mühe machst die Leute zu unterscheiden noch versuchst überhaupt zu verstehen was die dir sagen wollen, aber deinen Pöbel-Ton kannst du dir geflissentlich sparen. Du bist im Allgemeinen nämlich nur halb so sachlich und unpolemisch wie du es von Anderen forderst und darüber hinaus geht dir leider Sinn für Sarkasmus und Ironie flöten...
 
Ja, probiers aus ;).
Verwechslungen zwischen euch beiden sind mir leider aufgrund der gleichen Postinhalte schon desöfteren passiert.

Mick_Foley schrieb:
versuchst überhaupt zu verstehen was die dir sagen wollen,

Dochurt wollte mir sagen, dass nur Fanboys von AMD FCAT kritisieren und hat als einer der ersten den Thread wieder mit Provokationen zugespammt.
Wow... hast du eigentlich selbst eine Ahnung welchen unreflektierten Käse du schreibst?
Mir will es halt einfach nicht in den Kopf, warum man sich mit euch immernur um sonen Dreck scheren muss.

EOD
 
Als wenn du wüsstest was Selbstreflexion ist... Und mir will nicht in den Kopf, warum du meinst hier nach beleiben einen Ton anzuschlagen wie so ein 13 jähriger Möchtegern-Hengst in irgendeinem Ballungsgebiet. Ich weiß nicht wer dir den Sherff-Stern geschenkt hat, aber du bist keiner und dir steht es null zu über andere und ihre Meinungen zu urteilen und sie in deine tollen Kategorien einzuteilen. Die meisten hier im Forum begegnen dir auch mit einem vernünftigen Ton, auch wenn du viel Bla schreibst und denke bitte nciht, dass 90% des Forums dich lieben. Also kannst du dich, verdammte Axt nochmal, auch etwas ordentlich ausdrücken...

Erna ohne Dose!
 
In Zukunft werd ich solche provokanten Aussagen einfach inhaltlich besser verstehen müssen, stimmt da hast du wohl recht.
dir steht es null zu über andere und ihre Meinungen zu urteilen

Du hast volkommen recht, ich werd in zukunft einfach solche differenzierten Meinungen mit nem Daumen hoch bewerten.

Die meisten hier im Forum begegnen dir auch mit einem vernünftigen Ton,

Falsch.
 
Zuletzt bearbeitet:
Ne ist klar, wenn die Daten und Aufzeichnungen stimmen sieht man bei AMD- CF ........ gar nichts, weil das Bild verworfen wird oder nur in geringer Zeilenhöhe ausgegeben wird -> Fakt!

Ich habe ab und an das Gefühl, dass hier einige überhaupt nicht verstehen was das Thema ist! Natürlich ist es wünschenswert, das weder das eine (AMD mit Problemen im Bereich tatsächliche Ausgabe der Bilder) noch NV ( Bis jetzt nur vermutet und nicht belegt eine verzögerten Ausgabe erfolgt) vorkommt.
Aber es so hinzustellen, dass fehlende Bilder besser sind wie leicht verzögerte, dass muss mir mal schnell jemand erklären das kapier ich jetzt gerade nicht:wall:
Na dann versuch das mal einem Liga-Gamer zu erklären. ;) Der findet es ziemlich bescheiden, wenn er die Bildausgabe auch nur einen ticken später bekommt. Und das kommt nicht von mir, konnte ich mir aber sehr gut vorstellen, deswegen habe ich das Thema auch mit eingebracht. Es ist eben nicht so, das man pauschal sagen kann, dass ein kleine Delay egal ist. In Single-Player ja, aber in MP-Ego-Shootern sicherlich nicht ;)

Guckst du hier ->
Ich brauch beides! :-) Ich habe einen 120Hz Monitor daher sollte wenn möglich die FPS nicht unter 120 fallen und eine verzögerte Ausgabe ist genauso schlimm, da ich ja im dümmsten Moment einen Gegner nicht sofort sehe, er mich aber evtl. schon. Heisst er hat "die Verzögerung" mehr Zeit als ich um zu visieren. Bei mir ist es aber nicht ganz so,(je nach Map)schlimm, da ich für Fahrzeuge zuständig bin und daher nicht jedes Frame sehen muss, wenn ein Inf vor mir rumturnt. Wenn aber etwas schnelleres Jet, Heli vor mir rumfliegt und dann noch eine gewisse Distanz dazu kommt die ich ja noch "berechnen" muss beim Schuss, dann ist es auch wieder wichtig, dass beides stimmt. :-)



Das Grundsätzliche Problem des Testverfahrens ist, dass nur AMD´s reale FPS vs. Hardware FPS verglichen werden, d.h. Runts herausgefiltert und abgezogen werden, bei Nvidia gibt es natürlich nichts abzuziehen, weil runts in der Pipeline nicht entstehen, oder nur sehr wenige, ganz einfach weil Nvidia die Ausgabe der Bilder leicht verzögert und somit wenn möglich alle berechneten Bilder ausgibt.
exakt

Allerdings führt dieser Outputlag auch zu der Wahnrehmung von geringeren FPS bzw auch µrucklern, weil die Ingame Zeit mit der Realen Zeitmessung teils zusammenpasst und teils wieder nicht.
In der Theorie ist das möglich ja, und man hat keine Möglichkeit als User zu sehen, woher es rührt. FCAT kann das auch NICHT zeigen, einfach wegen der statischen Einfärbung des Overlaybalkens... Mit der von mir vorgeschlagenen Erweiterung könnte man dies aber feststellen.

Es ist also zu einem Teil ein kleiner Trick, also Marketing, die reinen Messwerte sind alle ok, das Tool arbeitet aus meiner Sicht sauber.
/sign.
Das toll wird wohl das tun, was es tun soll, wobei man es nicht sagen kann, was mir schon sauer aufstößt. Man lässt aber eben gewisse Punkte unbeachtet, die einem VOLL reinlaufen werden, und tut so, als ob man den heiligen Gral gefunden hätte... Und genau DAS ist der Punkt, der mich auf die Palme bringt....

Leider ist aber die Interpretation der Messergebnis falsch, vor allem weil man wie gesagt den Outputlag der Nvidiakarte nicht weiter misst.
Exakt, und das ist auch der Punkt, warum ich da so penetrant jetzt dran bleibe. Ich hasse es wenn man die Leute verschaukelt...

...
Die prinzipiell höhere Bildwiederholrate von Nvidia wird zwar gemessen, ist aber nicht so hoch, wegen dem Outputlag.
Es ist genauso wie Skysnake die ganze Zeit sagt, ein gutes teils unehrliches Marketing von Nvidia, ohne wirklich zu cheaten, sondern nur das zu messen was in den Kram passt.
Danke. Schön das einige die Schwachpunkte erkennen.

Und ja, cheaten ist es nicht, aber "cheaten", einfach weil denen sicherlich klar war, wie der Hase läuft, und Sie zuschauen und sich ins Fäustchen lachen.
Mir fällt auch kein besserer Begriff ein, wie man es nennen könnte. In der Formel 1 vielleicht "kreative Regelauslegung" :ugly: Aber das triffts hier ja auch nicht.


Zeige mir mal den Beitrag von dem User der dies sagt, ich habe keinen gelesen.
Ich denke dass unterm Strich je nach Game das Verfahren von Nvidia etwas besser ist, so waren jedenfalls meine subjektiven Eindrücke von SLI vs CF, aber für eine pauschalaussage reicht es nicht.
siehe oben.
 
Die Frage ist inwiefern Verzögerungen relevant sind. Als relevant sehe ich Verzögerungen an, die vom Nutzer bemerkt werden und so sein Nutzungserlebnis einschränken; da wirst du mir sicher zustimmen.
Frame Metering scheint mir jedoch nicht relevant für den Inputlag zu sein, da es schlichtweg keine Berichte/Tests/Reviews gibt in denen bemängelt wurde Nvidia Karten hätten einen größeren Inputlag als AMD Karten. Es fällt scheinbar schlicht nicht auf und ist daher meiner Meinung, also subjektiver Ansicht, nach ein legitimes Mittel gegen Mikroruckler vorzugehen.
Diese schränken das Nutzungserlebnis ungleich stärker ein als ein Phänomen, welches nicht oder vielleicht sehr selten bemerkt wird; auch da wirst du mir wohl zustimmen.

Grundsätzlich würde ich schon zustimmen, was mich aber etwas "stört" ist die Verpauschalisierung.
Das Problem ist nämlich, der Mensch ist ein Gewohnheitstier. Heist, er gewöhnt sich an gewisse/viele Sachen recht schnell...

Wenn du die schnellst mögliche Hardware hast (in der ganzen Inputlag relevanten Kette), so wird man sich an den Umgang selbst gewöhnen. Somit liegt auch die Vermutung nahe, das jemanden klar auffällt, wenn sich an der Reaktionszeit etwas derart ändert. Dazu kommt, aktuell gibts diese Frameausgabeverzögerung ja bei NV quasi nur in Verbindung mit MGPU. Und MGPU hat per se, je nach GPU Anzahl eben ein erhöhtes Inputlag. Die absolute Zeit, wie es sich bemerkbar macht, sinkt aber mit der Anzahl der FPS. -> logisch.

Mal ein paar Beispiele, was ich damit meine:
- es gibt Leute, die spüren/merken Framedrops bei SGPU von 120 auf 60 FPS. -> das ist eine Frametimeverdopplung von im Schnitt ~8,33ms (120 FPS) auf ~16,67 (60 FPS). Heist also, der User spürt die Änderung der Frametimes von in dem Fall ~8,33ms.
- es gibt Leute, die spüren/merken das erhöhte Inputlag bei MGPU im Allgemeinen. -> sagen wir 60 FPS AVG ohne Betrachtung der "glatten" Bildausgabe und zwei GPUs und AFR. Heist also, durch AFR wird ein zweites Bild gleichzeitig Berechnet. Somit steigt das Inputlag um die Zeit des zweiten Bildes. 60 FPS = ~16,33ms. Somit erhöht sich dieses um ~16,33ms. (+ alles, was noch in der Inputlagkette reinspielt) Je nachdem, wie hoch der Rest absolut ist, können ~16,33ms schon eine ganze menge Prozent ausmachen. (genaue Werte hab ich dazu aber keine -> dürfte auch schwer zu messen sein)


Resümierend auf den Beispielen fällt mir also folgendes auf.
- Gesamtbild Frametimes sind quasi gleichbedeutend der Verzögerung beim Inputlag. Denn beides heist, eine Änderung am Bild wird spät(er) als gedacht sichtbar.
- einige Leute sind so Reaktionsschnell, dass ihnen Änderungen der Frametimes von ~8,33ms absolut auffällt.
- Wenn mich nicht alles täuscht, kann es durch Framemetering bei NV dazu kommen, dass fast bis zur "vollen Zeit des Frames" verzögert wird. Das heist, 60 FPS = ~16,67ms. Das folgende Frame kann fast bis zu ~16,67ms verzögert werden. Real wird die Zeit wohl irgendwo bei Rund der halben Framezeit liegen. (geschätzt) Also irgendwo zwischen ~8,33 und 16,67ms.
- Oben drauf kommt noch die allgemeine Erhöhung des Inputlags um das zweite Frame selbst, da die Berechnung des zweiten Frames ja schon gleichsam getätigt wurde.

Heist in Summe also, pauschal zu sagen, das fällt nicht auf, ist leicht daneben.
Denn absolut gesehen kann! Framemetering so stark verzögern, das wir über absolute Werte sprechen, die weit höher sind, als dass, was einigen Leuten definitiv und belegbar auffällt! Und genau den Punkt kreide ich (dir) hier an. Denkt man das ganze jetzt mal weiter -> 30 FPS = ~33,33ms, liegt die Verzögerung schon im Bereich von ~16,67-33,33ms. Das ist schon bis zu viermal höher, als der Frametimeunterschied beim Framedrop von 120 auf 60 FPS ;) -> meinst du nicht auch, das fällt definitiv auf!?

Ne ist klar, wenn die Daten und Aufzeichnungen stimmen sieht man bei AMD- CF ........ gar nichts, weil das Bild verworfen wird oder nur in geringer Zeilenhöhe ausgegeben wird -> Fakt!

Ich habe ab und an das Gefühl, dass hier einige überhaupt nicht verstehen was das Thema ist! Natürlich ist es wünschenswert, das weder das eine (AMD mit Problemen im Bereich tatsächliche Ausgabe der Bilder) noch NV ( Bis jetzt nur vermutet und nicht belegt eine verzögerten Ausgabe erfolgt) vorkommt.
Aber es so hinzustellen, dass fehlende Bilder besser sind wie leicht verzögerte, dass muss mir mal schnell jemand erklären das kapier ich jetzt gerade nicht:wall:

Es spricht doch niemand von besser oder schlechter...
Ich gebe dir vollkommen recht, das die Umsetzung aktuell nicht! optimal ist.
Ich sage aber auch, das eben ein Frameverzögern durch genannte Nachteile ebenso nicht optimal ist. Nur wird eben von so mancher Person hier im Forum die NV Lösung fast als der Heilige Gral gelobt ;) Und das ist unobjektiv ohne Ende.

Im übrigen finde ich die Ergebnise irgendwie auch etwas komisch. PCP und THG messen irgendwie dezent verschiedene Werte. Wärend bei THG das CF bei fast allen Tests! in den Practical FPS (der Wert ohne Runt und Dropped Frames) sehr sehr nahe am SLI dran ist, ist beim PCP Test das CF streckenweise nur auf Single GPU Niveau und deutlich! unter dem SLI. Obwohl beide Tests mit halbwegs gegenseitig vergleichbaren Gespannen testen.
Das wirft für mich die Frage nach der Messmethode auf. Denn scheinbar hängt es entweder massivst! an der Szene. Oder am Testsystem oder an sonstwedem anderen, was die Ergebnise beeinflusst.
Oder guck ich an der Stelle schief?
 
Zuletzt bearbeitet:
Ich wundere mich auch über die Werte:
Irgendetwas läuft da schief bei PC Perspective:

Eigentlich müsste es doch Unterschiede geben zwischen "FRAPS FPS" und "Observed FPS". Schaut man hingegen in die Einzeltests, passen die beiden Graphen exakt (!) übereinander, nur für Crossfire nicht. Zumindest leichte Abweichungen müsste man doch auch bei Einzelkarten messen.

Das gibt zu denken. Für mich sieht es so aus, als würde bei PC Perspective gleichzeitig FRAPS laufen, während die Messungen mit der Capture Card durchgeführt werden. Das würde das FCAT-Ergebnis verfälschen.
Dass die Graphen so exakt übereinanderpassen, stimmt mich besonders nachdenklich.

Auf Nachfrage hin sagte der Tester, dass FRAPS und FCAT nicht gleichzeitig liefen, sondern separat gemessen wurde.

Selbst wenn man zwei Mal mit FRAPS misst, werden die Ergebnisse geringfügig voneinander abweichen.
 
Im übrigen finde ich die Ergebnise irgendwie auch etwas komisch. PCP und THG messen irgendwie dezent verschiedene Werte. Wärend bei THG das CF bei fast allen Tests! in den Practical FPS (der Wert ohne Runt und Dropped Frames) sehr sehr nahe am SLI dran ist, ist beim PCP Test das CF streckenweise nur auf Single GPU Niveau und deutlich! unter dem SLI. Obwohl beide Tests mit halbwegs gegenseitig vergleichbaren Gespannen testen.
Das wirft für mich die Frage nach der Messmethode auf. Denn scheinbar hängt es entweder massivst! an der Szene. Oder am Testsystem oder an sonstwedem anderen, was die Ergebnise beeinflusst.
Oder guck ich an der Stelle schief?
Das fand ich auch sehr komisch denn ich hatte in CF schon alles von 2 bis 4 gpu-s und wenn es kein generelles CF Skalierungsproblem gab empfand ich nie dass die zusätzliche GPU-s nicht oder so gut wie gar nicht dazu beigetragen haben dass das Spiel subjektiv besser läuft.
 
Heist in Summe also, pauschal zu sagen, das fällt nicht auf, ist leicht daneben.
Denn absolut gesehen kann! Framemetering so stark verzögern, das wir über absolute Werte sprechen, die weit höher sind, als dass, was einigen Leuten definitiv und belegbar auffällt! Und genau den Punkt kreide ich (dir) hier an. Denkt man das ganze jetzt mal weiter -> 30 FPS = ~33,33ms, liegt die Verzögerung schon im Bereich von ~16,67-33,33ms. Das ist schon bis zu viermal höher, als der Frametimeunterschied beim Framedrop von 120 auf 60 FPS ;) -> meinst du nicht auch, das fällt definitiv auf!?

Dann wäre es dochmal an der Zeit das hier auf feste Füße zu stellen anstatt ne Fatamorgana zu kreieren über die sich bisher gar keiner beschwert hat meinst du nicht auch;)

Im übrigen ging es hier nicht ums Metering sondern ums "Nichtmetering" was objektiv per Messung sowie subjektiv bereits belegt wurde
 
Zuletzt bearbeitet:
scully1234 schrieb:
Im übrigen ging es hier nicht ums Metering sondern ums "Nichtmetering" was objektiv per Messung sowie subjektiv bereits belegt wurde

Hat Nvidia oder die Webseiten die die Tests gemacht haben das gesagt? Ich weiß nichts davon.
Es geht global um das ganze Verhalten von CF SLI, sicher nicht nur um "Nichtmetering" und da ist das bisherige Testverfahren ehersuboptimal um das zu bewerten.

Ich hab persönlich nie wirklich SLI besser empfunden als CF, ich war entsprechend biased von den Aussagen aller Forenteilnehmer und hab dann bei meinen subjektiven Emfindungen immer bei CF genauer hingesehen als bei SLI, heißt nicht, dass CF besser ist, das ist mein subjektiver Eindruck.


Ja, genau, die Überlegunen der User in den Threads sind nur plumpe Einbildung und haben keinen Hand und auch keinen Fuß.
Aber es wird sicherlich eine Überarbeitung des Tools geben, auch wenn das nvidia selbst wohl nicht tun wird.
 
Zuletzt bearbeitet:
Dann wäre es dochmal an der Zeit das hier auf feste Füße zu stellen anstatt ne Fatamorgana zu kreieren über die sich bisher gar keiner beschwert hat meinst du nicht auch;)

Über das erhöhte Inputlag bei MGPU wird sich schon seit Jahr und Tag beschwert ;)
Wie schon gesagt, messen dürfte schwer werden ;) Denn du kannst es schlicht nicht auftrennen. Mir wäre sozusagen keine Möglichkeit bekannt, die reine Zeit in ms durch das Metering zu messen, wärend man die Zeit durch AFR bei zwei GPUs im SLI eben gänzlich eliminiert.


Mal als anschauliches Beispiel:
Raum mit 2 Fenstern. Machst du beide auf, wirds kalt. Das eine Fenster steht für MGPU und AFR, das andere für das Metering.
Es geht aber nur! entweder beide auf (MGPU im AFR + Metering bei NV) oder eben beide zu (SGPU quasi ohne Metering, aber auch kein AFR!)
Oben wurde aber gesagt, das das zweite Fenster allein geöffnet eben nichts ausmachen würde, sprich Raum wird nicht kalt.
Ich sage, doch, es macht was aus, weil es schon vom logischen Denken her so sein muss... ;)

Und das sich niemand direkt über das Metering beschwert, ist auch logisch... Wenn man es nicht dediziert alleine messen kann.
Es sei denn, du kennst ne Methode, immer raus damit ;)
Denn man beschwert sich (und das weist du auch) über MGPU und Inputlag. Was das Metering inkludiert. Man beschwert sich also über das greifbare.
Das einzige, was wir aktuell dazu haben, ist die Aussage von AMD, welche meint, das diese Verzögerung eben das Inputlag erhöht. Und in der Theorie unter logischer Denkweise ist das auch so, wie ich oben schrieb. Oder kannst du gegenteiliges belegen!? Kann ja sein, ich hab nen Denkfehler... ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh