Benchmarking: Was hinter FCAT steckt und die Konsequenzen für Hardwareluxx

Zum Thema: Latent sinnlose Diskussion, das ist ungefähr als ob man diskutiert ob man den Kaviar vor oder nach dem Champus verdrückt.

Es empfiehlt sich immer mit dem Gesöff nachzuspülen ^^

Werde die Tage mal eine Anfrage an AMD/nV stellen, ob noch passendes Personal gesucht wird, hier tummeln sich ja eine Handvoll Flachexperten, ATA-Girls werden ja immer gesucht, heutzutage sogar mit ABI :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sollte eigentlich schon ein Indiz dafür sein das an den Messungen was dran ist ansonsten würde man ein Dementi erwarten mit Gegendarlegung der Sachlage

Ja Mein kumpel Thunderburne wird sich die tage mal nen Titan krallen und dann werden wir das mal testen ob es vom gefühl her wirklich besser ist weil wenn ja... wer weiß was ich mache :d
 
Ja Mein kumpel Thunderburne wird sich die tage mal nen Titan krallen und dann werden wir das mal testen ob es vom gefühl her wirklich besser ist weil wenn ja... wer weiß was ich mache :d

Nen unabhängiges Capturetool wäre nice um gewisse Anfangsverdachte von FCAT auszuräumen oder auch nicht:d
 
Ha, der paranoide Skytroll. Welch ein Anblick. Da schäumt der Hass wohl schon förmlich aus dem Mund. :rofl:

Nochmals, ihr betet hier gerade ein "goldenes Lamm" an, als ob es DER Heilsbringer wäre...

Dabei hat absolut KEINE SAU ne Ahnung, was wirklich passiert, und welche Auswirkung die Eingriffe überhaupt auf die Arbeitsweise der Karten und/oder Treiber hat.

Die Leute fangen das Signal ab, dass vom DVI Port zum Monitor gelangt. Als nächstes willst du uns wohl hier erklären, dass man bitte auch nur bestimmte Monitore verwenden dürfte, gell?

Zudem bleiben eben genug Schlupflöcher übrig, um kräftig zu cheaten bei FCAT, und so ein angeblich ganz super dupi tolles Ergebnis zu presentieren.

Kleines Beispiel:
Ich berechne Bilder, und sehe, das ich nen Frame habe, welcher eigentlich nur sehr kurz angezeigt werden sollte, und damit nicht gezählt würde. Kein Problem!
Ich verzöger einfach ein bischen die Ausgabe, und tata, ich darf mit FCAT den Frame zählen... Hat sich dadurch was für den Nutzer verbessert? Nö, denn die Zeitdifferenz zwischen Displayanzeige und Ingamezeit wird größer...

Und schon wieder ein Nonsensquatsch. AFR hat immer eine Verzögerung. Was Leute wollen, ist die gleichmäßige Ausgabe der Bilder. Und nur 90% Skalierung und dafür Gleichmäßgkeit ist für alle besser als 100% und eine Ausgabe in Form von 80-19-1% der Zeit.

FCAT lässt mit der Methodik die Bilder einfach der Reihe um abwechselnd mit Farbenstreifen zu versehen, genau diese Möglichkeit offen... Warum hat man keine echte Zeitmessung gemacht, in der die Reale Zeitdifferenz zwischen den Bilern codiert wird?
Ein "Schelm" wer dahinter Absicht vermutet....

Ach und das FCAT aus diesen Bilder den Zeitabstand errechnen kann, ist dir unbekannt? :stupid:

Gott Skytroll, lass es einfach. Man kann echt nur hoffen, dass du für den Schwachsinn wenigsten bezahlt wirst. Weil ansonsten muss man sich echt fragen, wieso sich jemand so zum Affen machen würde...
 
Das ist halt die Frage, ob bei AMD etwas nicht passt, oder nVidia "kreativ" mit der Anzeige umgeht.

Das verzögern von Frames, um eine gleicmäßigere Ausgabe zu erhalten ist nämlich auch fürn Arsch. Damit vergrößert sich nämlich wie gesagt die Differenz zwischen Realer-Zeit und Ingame-Zeit. Was bringts mir, wenn ich statt nem "round" Frame plötzlich nen "echten" Frame bekomme, der Frame, der dazu führt, aber erst einige 1/100 oder 1/10 Sekunden später angezeigt wird? Richtig, ich hab nichts davon, weil beides seine Probleme hat. Bei einem kann ich eventuell ein "Ruckeln" sehen, beim anderen habe ich mehr Inputlag, weil ich später reagiere...

Das ist die Wahl zwischen Pest und Cholera....

Ja da gebe ich dir recht! Aber das was du ansprichst ist das Framemetering von NV, das funktioniert aber meines Wissens nach nicht nur in Software.
Wenn man jetzt aber mal anfängt nachzudenken muss man ja nicht das Gespann einbremsen sondern nur eine von beiden Karten damit diese auf die Erste reagieren kann.
Es soll ja nicht Ziel der Übung sein möglichst gleichmäßige Frames für FCAT darzustellen.

Stell Dir mal vor ich habe eine GPU die wenn man es so nennen will den Basetakt oder Mastertakt vor und rendert die Bilder so wie sie in die Pipeline geschüttet werden. Die zweite GPU erkennt jetzt wie lange die erste an einem Bild rechnet und schiebt den eigenen Rhythmus möglichst genau in die Zwischenräume der ersten GPU nicht umsonst ist in den Bezeichnungen der Bioses der GTX 690 von Master und Slave die Rede.
Um schnell zu reagieren, benötigt man genau das was ein paar Post obendrüber geschrieben wurde, einen Spielraum damit GPU 2 nie oder nur sehr sehr kurz zu langsam wird, das klappt aber nur wenn ich die Möglichkeit habe die GPU´s unterschiedlich zu takten was bei AMD zur Zeit eben nicht möglich ist. Das Ergebnis soll dann ein Spielgefühl sein das dem Erlebnis einer SGPU bei deutlich höher angezeigten FPS sehr nahe kommt.
NVidia gelingt dies schon erstaunlich oft nur gegen die MR die auch bei SGPU Systemen auftauchen hilft dies natürlich nicht und verstärkt den Eindruck der MR noch da 2 Frames sehr gleichmäßig ausgegeben werden und das dritte auf einmal schneller oder langsamer wie dieses Paar kommt, das nächste Paar wird dann wieder an die Berechnungszeit des vorhergehenden angepasst. so entstehen im schlimmsten Fall immer wieder FPS Pärchen die zwar zueinander fast perfekt sind aber von Pärchen1 zu Pärchen 3 hohe Latenzzeiten aufzeigen können was das Problem wie schon beschrieben noch schlimmer macht.Pärchen 2 und Pärchen 3 sind dann wieder harmonisch zueinander.

Bei AMD scheint es so zu sein, dass dort die Frames einfach so schnell wie nur irgend wie möglich rausgehauen werden, was in den meisten Fällen eben auch zu FPS Pärchen führt aber nur aufgrund der Latenz den die internen Kommunikation mit sich bringt zwischen GPU 1 und GPU 2 hier sieht man dann genau das was gerne als Heartbeat Stottern bezeichnet wird und was genau das Problem ist und was nun eben gezeigt wird mit dieser neuen Art von Tests. Um so fataler ist es, dass die Frames ja bearbeitet werden, aber aufgrund der zum Teil extrem kurzen Zeit nicht ausgegeben werden, wenn man so will sind die Tahitis zu schnell für den eigenen Treiber:) und können in HW nicht gegen steuern. Mal zum Vorgang, GPU Rendert ein Bild und Haut es raus, GPU hat in der Zwischenzeit auch an einem Bild gearbeitet und schickt die Anfrage an GPU 1 biste fertig, kann ich, während dies passiert, arbeitet GPU1 aber auch schon wieder an einem Bild, was dann kommt ist 1--- 23---45--67--89 usw.

Die Einzige Lösung die AMD haben könnte ist meiner Meinung nach sowas wie eine Anpassung die schon am Anfang der Pipeline greift, und das wird mit 100% Sicherheit genau das begünstigen was du oben zu recht befürchtet hast.
Aber NV hat sein Ziel erreicht, denn dann haben wir eine Art vorgeschalteten Framelimiter, der eben dann von Fraps erfasst wird und das CF Gespann normalerweise keine Chance mehr gegen die SLI Lösungen haben sollte, auch wenn die Ausgabe dann noch gleichmäßiger erfolgen sollte wie dies unter SLI möglich ist, letztendlich macht ein Framlimiter ja nichts anderes wie das was man jetzt zu sehen glaubt ;-)
Es passt auch dazu, dass die Limiter die man heute schon einsetzen kann die Leistungsaufnahme der Radeons nicht sonderlich begünstigt ganz im Gegenteil zu dem was die NV´s ab der 600er Serie können. Heißt die Radeons bearbeiten das Bild und es wird verworfen, bei den NV´s scheint das Bild erst überhaupt nicht berechnet zu werden.

Zum Schluß, das Ganze hat meiner Meinung nach überhaupt nichts mit dem Thema MR in SGPU zu tun, da müssen die Probleme wo anders liegen, dass sollte man jetzt nicht vermischen.

Nur so ein paar meiner gedanklichen Ergüsse:fresse:
 
Sollte eigentlich schon ein Indiz dafür sein das an den Messungen was dran ist ansonsten würde man ein Dementi erwarten mit Gegendarlegung der Sachlage

Es ist etwas dran dazu hat sich amd auch schon geäußert. Bei nv wird eine art frame buffering Methode verwendet womit die frames etwas verzögert werden aber dadurch gleichmäßig ausgegeben werden, bei amd wird jedes frame sofort ausgegeben nachdem es gerechnet wurde. Nachteil ist natürlich mehr Mikroruckler, vorteil ist weniger Latzen. Am ende kann man nicht alles haben bei der frame buffer Methode wie es nv macht hat man mehr input lag bei amd mehr Mikrorucker. Deswegen wird amd frame buffering so einführen dass der Benutzer bestimmen kann ob er lieber frame buffering mit mehr input lag aber weniger Ruckler haben will oder andersrum. AFR ist halt ein Kompromiss.
 
Es ist etwas dran dazu hat sich amd auch schon geäußert. Bei nv wird eine art frame buffering Methode verwendet womit die frames etwas verzögert werden aber dadurch gleichmäßig ausgegeben werden, bei amd wird jedes frame sofort ausgegeben nachdem es gerechnet wurde. Nachteil ist natürlich mehr Mikroruckler, vorteil ist weniger Latzen. Am ende kann man nicht alles haben bei der frame buffer Methode wie es nv macht hat man mehr input lag bei amd mehr Mikrorucker. Deswegen wird amd frame buffering so einführen dass der Benutzer bestimmen kann ob er lieber frame buffering mit mehr input lag aber weniger Ruckler haben will oder andersrum. AFR ist halt ein Kompromiss.

Wenn NV das tun würde dürfte man keine MR mehr auf einem SLI System sehen, was aber nicht der Fall ist es gibt sie nach wie vor
Mit VSynv (Flüssig) was nur auf MGPU Systemen zur Verfügung steht wird dieser Ansatz wohl zusätzlich gefahren.
 
Zuletzt bearbeitet:
Sontin schrieb:
Ha, der paranoide Skytroll. Welch ein Anblick. Da schäumt der Hass wohl schon förmlich aus dem Mund.

Sag mal gehts eigentlich noch? Ständig User anzupampen, weil dir der Inhalt seines Posts nicht passt, probiers doch mal mit sachlichen Argumenten.

Die Leute fangen das Signal ab, dass vom DVI Port zum Monitor gelangt. Als nächstes willst du uns wohl hier erklären, dass man bitte auch nur bestimmte Monitore verwenden dürfte, gell?

Warum Monitore, wenn das Signal am DVI Anschluss abgefangen wird?
Du kapierst scheinbar absichtlich nicht, worum es Skysnake geht.

Ich zitiere dir den wichtigsten Teil nochmal:

Ich berechne Bilder, und sehe, das ich nen Frame habe, welcher eigentlich nur sehr kurz angezeigt werden sollte, und damit nicht gezählt würde. Kein Problem!
Ich verzöger einfach ein bischen die Ausgabe, und tata, ich darf mit FCAT den Frame zählen... Hat sich dadurch was für den Nutzer verbessert? Nö, denn die Zeitdifferenz zwischen Displayanzeige und Ingamezeit wird größer...

An diesem Beispiel ist auf jeden Fall etwas drann, denn ob Inputlag oder minimals µstuttering sind immernoch 2 paar Schuhe.
Dass SLI subjektiv in 75% der Spiele besser ist, hat mit den Werten jetzt nicht unbedingt zwingend etwas zu tun.

Ach und das FCAT aus diesen Bilder den Zeitabstand errechnen kann, ist dir unbekannt?

Schon, nur prinzipiell kann die real ankommende Zeit langsam wieder an die Ingamezeit angepasst werden und somit hohe Ausschläge der FCAT Werte vermindern, ob das letztendlich besser für das Empfinden ist, weiß ich nicht.
Das wäre sicherlich auch bei Single GPU´s ein Thema.

maximusprime schrieb:
Wenn NV das tun würde dürfte man keine MR mehr auf einem SLI System sehen,

Wenn nvidia es vermehrt tun würde, dann würde auch die Skalierung deutlich mehr leiden, wird halt irgend so ein Mittelding sein.
 
Zuletzt bearbeitet:
Das Framemetering kostet schon FPS, glaub mir das einfach mal. Und warum würde die Skalierung leiden? es wird ja nur die Zeit verändert aber nicht die Menge, es sei denn die Latezen werden so groß das man verwerfen müsste ;-)
 
Maximusprime schrieb:
Das Framemetering kostet schon FPS, glaub mir das einfach mal.

Glaub ich doch auch, ich sage ja das gleiche, nur wenn Nvidia die Frames noch gleichmäßiger ausgeben wollte, dann würde es wahrscheinlich die Skalierung noch mehr vermindern.
 
Das Framemetering kostet schon FPS, glaub mir das einfach mal. Und warum würde die Skalierung leiden? es wird ja nur die Zeit verändert aber nicht die Menge, es sei denn die Latezen werden so groß das man verwerfen müsste ;-)
Es ist logisch dass es fps kostet da ja wegen der verzögerte Frameausgabe die Karten immer wieder unbelastet warten müssen. Damit ist natürlich auch die gemessene sli skalierung geringer da man ja die fps gewinn von eine weitere Karte misst was dadurch geringer ausfällt.
 
Sag mal gehts eigentlich noch? Ständig User anzupampen, weil dir der Inhalt seines Posts nicht passt, probiers doch mal mit sachlichen Argumenten.

Sachlichen Argumenten? Sry, aber du und Skytroll seid über den Punkt schon hinaus.

Warum Monitore, wenn das Signal am DVI Anschluss abgefangen wird?
Du kapierst scheinbar absichtlich nicht, worum es Skysnake geht.

Doch, doch. Jeder hier kann lesen:
Dabei hat absolut KEINE SAU ne Ahnung, was wirklich passiert, und welche Auswirkung die Eingriffe überhaupt auf die Arbeitsweise der Karten und/oder Treiber hat.

Es ist wohl offensichtlich, dass Skytroll es nicht verstanden hat.

An diesem Beispiel ist auf jeden Fall etwas drann, denn ob Inputlag oder minimals µstuttering sind immernoch 2 paar Schuhe.
Dass SLI subjektiv in 75% der Spiele besser ist, hat mit den Werten jetzt nicht unbedingt zwingend etwas zu tun.

AFR hat immer Inputlag. Man ist ein 1-Frame+ hinter SingleGPU. Und als Anwender will man die Frames von den Karten im gleichmäßigen Abstand sehen. Das hat überhaupt nichts mit zusätzlichen Input-Lag zu tun, sondern nur, wie man die Frames ausgibt.
 
Nö müssen Sie nicht zwingend. Du brauchst nur nen zusätzlichen Buffer. Das sollte ziemlich einfach zu implementieren sein. Notfalls halt leider in Hardware. Aber dann kann die GPU trotzdem die ganze Zeit voll durchholzen.

EDIT:
Lovesuckz stell gefälligst deine beleidigende Ausdrucksweise ein. Das Internet ist kein rechtsfreier Raum.
 
Zuletzt bearbeitet:
ich glaub das Geweine bzgl FCAT hat einen roten Touch hmm?

heißt dann nicht mehr Gaming evolved sondern Frametime unsolved?

immerhin, so bleibt man auch in aller Munde ;)
 
Nö müssen Sie nicht zwingend. Du brauchst nur nen zusätzlichen Buffer. Das sollte ziemlich einfach zu implementieren sein. Notfalls halt leider in Hardware. Aber dann kann die GPU trotzdem die ganze Zeit voll durchholzen.

EDIT:
Lovesuckz stell gefälligst deine beleidigende Ausdrucksweise ein. Das Internet ist kein rechtsfreier Raum.

Es wird sicherlich mit nem Buffer gemacht aber wenn man noch input lag in grenzen halten will dann muss man eben bei größere Abweichungen frames wegwerfen oder die gpu-s etwas warten lassen. Die gemessene Skalierung von SLI liegt tatsächlich immer etwas unterhalb von CF deswegen ist da schon etwas dran dass die Methode etwas fps kostet.
 
Es passt auch dazu, dass die Limiter die man heute schon einsetzen kann die Leistungsaufnahme der Radeons nicht sonderlich begünstigt ganz im Gegenteil zu dem was die NV´s ab der 600er Serie können. Heißt die Radeons bearbeiten das Bild und es wird verworfen, bei den NV´s scheint das Bild erst überhaupt nicht berechnet zu werden.
Die FPS Limiter wirken sich deutlich auf den Verbrauch aus, da die Bilder nicht mehr berechnet werden.
Bei Vsync wirkt es sich nicht aus, da die Bilder trotzdem berechnet werden.
Das ist unabhängig von Crossfire und SLI und gilt bei beiden.

Ich finde es wichtig bei FCAT, dass der Abfrageintervall angegeben wird!

MfG
 
Zuletzt bearbeitet:
ich glaub das Geweine bzgl FCAT hat einen roten Touch hmm?

heißt dann nicht mehr Gaming evolved sondern Frametime unsolved?

immerhin, so bleibt man auch in aller Munde ;)

Gebildete und erwachsene Menschen sind von Natur aus gewissen Dingen skeptisch gegenüber und hinterfragen sie. Nichts neues und vollkommen normal.
 
Naja, Frame "wegwerfen" muss man eigentlich nur, wenn man nen kompletten Frame oder gar zwei hinter her hinkt, weil mehrere Frames zu lange gebraucht haben. Man kann da wirklich schon sehr tricksen.

Bzgl Buffer, da gibts halt mindestens eine Millionen Möglichkeiten wie man das machen kann. Man könnte ja auch die Register/Buffer für die Ausgabe über den Display-Anschluss verdoppeln. Damit wäre es dann nur das umsetzen eines Bits, und man hätte schon das Bild gewechselt... So was wird man eber nie herausfinden.
 
Sontin schrieb:
Sachlichen Argumenten? Sry, aber du und Skytroll seid über den Punkt schon hinaus.

Bei welchem Punkt ist das für dich?

Ich frage mich nur warum MaximusPrime versteht was er meint.

Wenn man jetzt aber mal anfängt nachzudenken muss man ja nicht das Gespann einbremsen sondern nur eine von beiden Karten damit diese auf die Erste reagieren kann.
Es soll ja nicht Ziel der Übung sein möglichst gleichmäßige Frames für FCAT darzustellen.

Also dann erklär doch mal wo du konkret aussteigst.

Doch, doch. Jeder hier kann lesen:

Nein der Monitor spielt keine Rolle, jedenfalls nicht im Zusammenhang was Skysnake sagt.
Es hat überhaupt keine Relevanz gemäß seinem Sachverhalt.

Naennon schrieb:
ich glaub das Geweine bzgl FCAT hat einen roten Touch hmm?

heißt dann nicht mehr Gaming evolved sondern Frametime unsolved?

Ich bin ja gar nicht gegen FCAT, ich finde es sogar sehr gut, dass es eine professionellere Lösung gibt.
Die Möglichkeit der Beeinflussung bleibt aber für mein Verständnis offen, bleibt sie etwa nicht offen?

Warum wiederlegst du denn nicht das Beispiel von Skysnake, sondern schreibt "Geweine", was nicht grade irgendwen hier weiterbringt.
Also warum ist es Geweine?

Sontin schrieb:
Es ist wohl offensichtlich, dass Skytroll es nicht verstanden hat.

Sry du hast nachweislich keine einzige Begründung für deine Behauptung geliefert, Skysnake versucht sich wenigstens zu erklären du tust es nicht, welche Gründe dahinter stehen kannst nur du uns sagen.

Skysnake schrieb:
Naja, Frame "wegwerfen" muss man eigentlich nur, wenn man nen kompletten Frame oder gar zwei hinter her hinkt, weil mehrere Frames zu lange gebraucht haben. Man kann da wirklich schon sehr tricksen.

Aber selbst wenn man hier irgendetwas macht, entscheidend ist doch trotzdem wie die Frames beim User ankommen?
Wenn Nvidia hier etwas anpasst, dann ist das doch eigentlich positiv. Schummelei kann also nochmal wie geschehen?
 
Zuletzt bearbeitet:
Glaub ich doch auch, ich sage ja das gleiche, nur wenn Nvidia die Frames noch gleichmäßiger ausgeben wollte, dann würde es wahrscheinlich die Skalierung noch mehr vermindern.

Nein denn auch dieses System hat natürlich eine Latenz und arbeitet nicht in Echtzeit sondern aus der Framelatenz der Vergangenheit auch wenn die Zeit sehr kurz ist. Mann würde es wohl nur hinbekommen noch gleichmäßiger auszugeben wenn man verschiedene Sachen kombiniert, ein Ansatz ist ja das auch schon von mir angeführte Vsync (flüssig) hier werden ja Frames verworfen.

Es ist logisch dass es fps kostet da ja wegen der verzögerte Frameausgabe die Karten immer wieder unbelastet warten müssen. Damit ist natürlich auch die gemessene sli skalierung geringer da man ja die fps gewinn von eine weitere Karte misst was dadurch geringer ausfällt.

Es würde aber keine FPS kosten wenn man nur mit einem Buffer arbeiten würde es würde wie gesagt nur dann wenn die Latenz über ein gewisses Maß ansteigen würde und verworfen werde müsste FPS kosten, FCAT zeigt aber sehr gut das genau das bei NV nicht gemacht wird weil es nicht oder nur sehr selten notwendig ist. Ich bleibe dabei das Problem kann AMD zur Zeit nicht ohne größere Nachteile lösen da muss die kommende Generation es richten nur in Software kauft man sich meiner Meinung nach wie von dir richtig beschrieben andere Nachteile ein. Ich glaube auch das dies NVidia mit Sicherheit weiß und nicht umsonst so gut vorbereitet war ;-) Den Vorsprung an Erfahrung den man in diesem kleinen Bereich MGPU hat, den will man jetzt wohl deutlich zum Ausdruck bringen. das dies mehr oder weniger mit der Ankündigung einer 7990 einhergeht .... ein Schelm wer böses dabei denkt ;-)

Und um die Verschwörungstheoretiker mal abzufangen, glaubt wirklich jemand daran, dass man mit so einem Tool schummelt, der Schaden wenn das rauskommen würde ist viel größer wie der Gewinn den man aktuell daraus ziehen kann.
Ich denke eher das sich NV hier sehr sicher ist, dass das Problem unvorbereitet nicht ohne weiteres zu lösen ist, sonst würden sie nicht so absolut offen damit umgehen den FCAT zeigt ja auch die Probleme die NV hat, es ist ja nicht so das dort keine vorhanden sind nur deutlich weniger eben wie aktuell bei CF Systemen, das AMD ja auch angekündigt hat, dass man mit der kommenden Generation eine wesentlich feinere Boostfunktion einbauen möchte macht den Vorteil dann sicherlich zu nichte, also macht man das Problem publik solange man daraus ein Vorteil für die eigenen HW ableiten kann, AMD wird es aufgrund der relativ hohen Akzeptanz von Online-Magazinen, schwer haben das wieder gerade zu rücken, auch wenn das Problem dann vielleicht gar nicht mehr vorhanden ist, das ist so wie mit den Treibern, die sind schon lange nicht mehr schlechter wie die von NV das hält sich aber trotzdem hartnäckig in den Köpfen der Spieler.

Was mich noch interessieren würde ist, was an den Monitor geliefert wird jetzt mal angenommen es ist alles richtig. Aber was bekomme ich dann wirklich zu sehen??? Denn die Refreshrate des Monitors ist ja ohne Vsync eben nicht gesynct und das sowohl bei NV wie bei AMD, es könnte also doch sein das zwar 60 FPS geliefert werden aber die interne Latenz des Monitors dann auch noch mal welche verschluckt sodass wie so oft im Leben das schwächste Glied in der Kette vielleicht überhaupt nicht die Graka ist sondern der monitor, das würde auch erklären warum viele CF Nutzer und Tester wohl schon Unterschiede ausmachen bei dem Spielgefühl aber eben nicht in diesem Ausmaße wie es FCAT aufzeigt, oder liege ich da jetzt komplett falsch???
 
Zuletzt bearbeitet:
Nein denn auch dieses System hat natürlich eine Latenz und arbeitet nicht in Echtzeit sondern aus der Framelatenz der Vergangenheit auch wenn die Zeit sehr kurz ist. Mann würde es wohl nur hinbekommen noch gleichmäßiger auszugeben wenn man verschiedene Sachen kombiniert, ein Ansatz ist ja das auch schon von mir angeführte Vsync (flüssig) hier werden ja Frames verworfen.



Es würde aber keine FPS kosten wenn man nur mit einem Buffer arbeiten würde es würde wie gesagt nur dann wenn die Latenz über ein gewisses Maß ansteigen würde und verworfen werde müsste FPS kosten, FCAT zeigt aber sehr gut das genau das bei NV nicht gemacht wird weil es nicht oder nur sehr selten notwendig ist. Ich bleibe dabei das Problem kann AMD zur Zeit nicht ohne größere Nachteile lösen da muss die kommende Generation es richten nur in Software kauft man sich meiner Meinung nach wie von dir richtig beschrieben andere Nachteile ein. Ich glaube auch das dies NVidia mit Sicherheit weiß und nicht umsonst so gut vorbereitet war ;-) Den Vorsprung an Erfahrung den man in diesem kleinen Bereich MGPU hat, den will man jetzt wohl deutlich zum Ausdruck bringen. das dies mehr oder weniger mit der Ankündigung einer 7990 einhergeht .... ein Schelm wer böses dabei denkt ;-)

Und um die Verschwörungstheoretiker mal abzufangen, glaubt wirklich jemand daran, dass man mit so einem Tool schummelt, der Schaden wenn das rauskommen würde ist viel größer wie der Gewinn den man aktuell daraus ziehen kann.
Ich denke eher das sich NV hier sehr sicher ist, dass das Problem unvorbereitet nicht ohne weiteres zu lösen ist, sonst würden sie nicht so absolut offen damit umgehen den FCAT zeigt ja auch die Probleme die NV hat, es ist ja nicht so das dort keine vorhanden sind nur deutlich weniger eben wie aktuell bei CF Systemen, das AMD ja auch angekündigt hat, dass man mit der kommenden Generation eine wesentlich feinere Boostfunktion einbauen möchte macht den Vorteil dann sicherlich zu nichte, also macht man das Problem publik solange man daraus ein Vorteil für die eigenen HW ableiten kann, AMD wird es aufgrund der relativ hohen Akzeptanz von Online-Magazinen, schwer haben das wieder gerade zu rücken, auch wenn das Problem dann vielleicht gar nicht mehr vorhanden ist, das ist so wie mit den Treibern, die sind schon lange nicht mehr schlechter wie die von NV das hält sich aber trotzdem hartnäckig in den Köpfen der Spieler.

Wobei soweit ich weiss hat nv nur in der gtx 690 erstmal hardwareseitig etwas gegen mikroruckler gemacht. Also der gtx 680 scheint nur mit eine softwarelösung auszukommen.
 
Ja das habe ich auch so gehört ich rede auch die ganze Zeit nur von der 690er und sie wurde auch getestet in dem Bericht zusammen mit einer Titan und CF mit 2 mal 7970 ich glaube es waren die GHz Edition bin mir jetzt aber nicht sicher.
 
Wobei soweit ich weiss hat nv nur in der gtx 690 erstmal hardwareseitig etwas gegen mikroruckler gemacht. Also der gtx 680 scheint nur mit eine softwarelösung auszukommen.

Frame-Flipping seit Kepler in Hardware, für Fermi und älter Software-basiert. Also nicht nur die GTX690...
 
Ich bin jetzt besser auch still denn ich weiß es ja nicht wirklich sondern vermute nur.
 
Frame-Flipping seit Kepler in Hardware, für Fermi und älter Software-basiert. Also nicht nur die GTX690...

Interessant denn in einem frametime test haben sie gtx 680 und 690 getestet und die 690 war besser. Ich habe auch noch nicht gehört dass auch die 680 schon hardwareseitig optimiert ist gibt es dazu irgendwas wo man nachlesen kann? Wobei soweit stimmt es dass die 680 sli besser war als die gtx 590.
 
Aber selbst wenn man hier irgendetwas macht, entscheidend ist doch trotzdem wie die Frames beim User ankommen?
Wenn Nvidia hier etwas anpasst, dann ist das doch eigentlich positiv. Schummelei kann also nochmal wie geschehen?
Jup, das ist entscheidend, aber man kann halt nur eins von beidem haben, entweder ein möglichst kleines Delta_t zwischen Ingame-zeit und Realer-Zeit (Anzeige auf dem Monitor), oder eben einen möglichst gleichbleibenden Frameverlauf. Beides zusammen geht nicht, wenn man im GPU-Limit hängt, und nicht viel viel viel mehr Frames generieren kann, als man tatsächlich braucht.

Naja, das ist relativ, was man "positiv" findet.
Wie sieht es bei nem 3D-Shooter aus? willst du da lieber das du das neuste Bild ein Frame, oder auch nur einen halben Frame später angezeigt bekommst, und daür den einen gerenderten Frame nicht quasi wegwirfst, oder willst du möglichst früh die Ausgabe haben, um einen Reaktionsvorteil zu haben?

Und "Schummelei" ist es nicht, wenn man es genau nimmt. Man betrachtet ja nicht ALLES, sondern nur einen Teilaspeckt, und über den Rest legt man das "Mäntelchen des Schweigens". Das ist ein ganz normales vorgehen, bei dem man sich zu Nutze macht, dass die Leute sich eben "gewisse Dinge" denken, und sich "gewisse Schlüsse" überlegen, die aber so überhaupt nicht zutreffend sind. Das ist die gleiche Schose wie mit dem "Transferspeed upto equivalent to PCI-E 3.0 transferrate". Der Hersteller/Verkäufer sagt A, der Kunde versteht B, und der Hersteller/Verkäufer lacht sich ins Fäustchen und hält die Schnauze...

Das nVidia sich des Schlupfloches der Verzögerung bedient liegt ziemlich nahe. Das gesamte Testsystem schreit praktisch in Neonleuchtreklame dieses Schlupfloch in die Welt hinaus. Bei AMD sieht man ja auch, das auf einen sehr kurzem Frame meist ein längerer Frame kommt. Ich würde mir dabei aber keine Aussage dazu zutrauen, ob der "kurze" Frame von der Main-GPU oder von der Second-GPU kommt. Gibt Argumente/Gründe für beide Varianten.

Was leider noch überhaupt nicht beachtet wird ist, wie sich die Ingamezeit ergibt. Wird da einfach ein starres Zeitintervall genommen (war früher so, heute gibts das eigentlich gar nicht mehr meines Wissens nach, bei manchen Konsolenports würde ich aber keine Wette abschließen), oder nimmt man die Zeitpunkte, die ermittelt werden, wenn ein Frame angestoßen wird?

Wenns letzteres ist, dann stellt sich sofort weiter die Frage, wie denn die CPU die Frames verarbeitet, für die beiden GPUs. Läuft das parallel, oder wie oder was? Das sind einfach unglaublich viele Unbekannte noch mit dazu, die man gar nicht wissen kann... Sie spielen aber noch mit rein, ob man eine womögliche Verzögerung eher positiver sehen kann, oder noch negativer.

Was mir leider NOCH IMMER! nicht klar ist, ist wie nun genau die Manipulation erfolgt?....

Funktioniert das auch mit OpenGL-Anwendungen? Wenn ja, könnte man sich ja eventuell mal daran machen, einen Test zu schreiben, der aufzeigt, ob eine Verzögerung stattfindet oder eben nicht. Hätte da auch schon eine ganze Reihe an Ideen, wie man das sehr schön aufzeigen könnte. Aktuell fehlt mir aber einfach die Zeit dafür so etwas zu implementieren, und es müsste eben AUCH mit OpenGL funktionieren, wobei man es da glaub expliziet programmieren muss, um mehrere GPUs zu verwenden... Also erstmal viel lesen, bevor ich so nen Test wirklich implementieren könnte... -.-


Und um die Verschwörungstheoretiker mal abzufangen, glaubt wirklich jemand daran, dass man mit so einem Tool schummelt, der Schaden wenn das rauskommen würde ist viel größer wie der Gewinn den man aktuell daraus ziehen kann.
Naja, wie definierst du "Schummeln"? Hier hat man halt gewisse Randbedingungen, an die man sich hält, und dreht wohl an einem Schräubchen, das man ausgesspart hat. Das ist apriori ja auch völlig legitim. Wenn man dann aber nen Tool raus bringt, und genau dieses eine Stellschräubchen unbetrachtet lässt, aber SUGGERIERT! man würde es durchaus berücksichtigen, dann ist das schon ein wenig "Cheaten", aber nicht unbedingt "Schummeln". Man ist halt nicht ganz ehrlich, und auf dieses "Wir haben uns doch genau an das gehalten, was wir gesagt haben, und der Punkt war uns halt unbekannt :rolleyes:" kann man sich dann immer zurückfallen lassen. nVidia hat das schon SEHR geshickt angestellt. Da muss man schon den Hut ziehen. Auf die Idee muss man ja erstmal kommen, wie die das machen, und welche Randbedingungen überhaupt gelten.

Von nem "normalem" Hardwareredakteur kann man in keinster Weise erwarten, dass er das durchschaut, oder eben dieses Schlupfloch erkennt. Ich hab auch einige Zeit gebraucht, bis mir ein Licht aufgegangen ist, und ich hatte das Glück, das ich einfach schon viel mit Zeitmessungen auf Computersystemen gemacht habe, und daher WEISS wie schwierig das ist, und daher dieser scheinbar ach so "trivialen" Lösung sehr verwundert gegenüber stand. Zeitspannen im µs Bereich zu messen ist nämlich gar nicht so trivial auf dem PC...

Ich denke eher das sich NV hier sehr sicher ist, dass das Problem unvorbereitet nicht ohne weiteres zu lösen ist, sonst würden sie nicht so absolut offen damit umgehen den FCAT zeigt ja auch die Probleme die NV hat, es ist ja nicht so das dort keine vorhanden sind nur deutlich weniger eben wie aktuell bei CF Systemen, das AMD ja auch angekündigt hat, dass man mit der kommenden Generation eine wesentlich feinere Boostfunktion einbauen möchte macht den Vorteil dann sicherlich zu nichte, also macht man das Problem publik solange man daraus ein Vorteil für die eigenen HW ableiten kann, AMD wird es aufgrund der relativ hohen Akzeptanz von Online-Magazinen, schwer haben das wieder gerade zu rücken, auch wenn das Problem dann vielleicht gar nicht mehr vorhanden ist, das ist so wie mit den Treibern, die sind schon lange nicht mehr schlechter wie die von NV das hält sich aber trotzdem hartnäckig in den Köpfen der Spieler.
Ja, nVidia war/ist definitiv sehr gut darauf vorbereitet gewesen. Sie haben halt eine Lücke erkannt, und diese jetzt schön ausgeschlachtet. Ob man aber dafür zwingend Hardware braucht, würde ich keine Aussage darüber treffen wollen. Dafür kenne ich mich mit dem Detail! der Displayausgabe leider viel zu wenig aus. Am Ende wird man wohl FlipFlops haben, die die Datenpakete raus hauen, aber wo jetzt die Daten dafür liegen weiß ich ehrlich gesagt nicht, also ob man dafür wirklich nochmal dedizierten Speicher hat, um die Performance zu steigern, oder ob das im GPU-Hauptspeicher liegt, weiß ich nicht. Beim xserver (linux) ist es glaub ich sogar im Hauptspeicher der CPU, wobei, wenn ich mich da genau erinnere, das nur I/O-mapped Memmory ist :ugly: (bin mir sogar ziemlich sicher, dass das I/O-mapped Memmory war/ist, aber eben nicht 100%). Auf jeden Fall, was ich sagen will ist, es kommt wirklich darauf an, wie das am Ende WIRKLICH in Hardware implementiert ist. Je nachdem kann es sein, das man "nur" Software/Treiber anpassen muss, oder aber wirklich etwas Hardware dafür investieren muss. Sicher sagen können dir das aber wohl nur die Chipentwickler von AMD und nVidia. Das ist wirklich extremstes lowlvl Zeug. Mit viel Glück wissen Konsolenentwickler etwas darüber, aber in öffentlich zugänglichen Quellen wirst du wohl darüber eher nichts finden. Sagt mir zumindest meine Intuition bzgl. anderweitiger Erfahrungen mit solchen lowlvl-Sachen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh