Benchmarking: Was hinter FCAT steckt und die Konsequenzen für Hardwareluxx

Ich halte von min. FPS nix ;) Denn es ist ein absoluter Wert. Ohne Grund für dessen auftreten.
Ein min FPS Wert kann simpel einmalig erreicht werden, beispielsweise beim Laden der Benchszene oder beim Nachladen bestimmter Sachen. Ein vergleichsweise häufig wiederkehrender Framedropp auf ähnliches Niveau der min FPS sieht man aber nicht.
Deswegen ja Frameverlaufsdiagramme... Das sagt schon mehr aus und macht auch gleich mehr Sinn.

Die allgemeine Vergleichbarkeit zwischen GPUs meinte ich aber eher, da zählt idR avg... Und die Masse der Leute weis damit was anzufangen.

Ich halte es stand heute so erstmal für nen Fehler, wenn man wirklich hier "umswitchen" sollte. Denn wie angesprochen hinkt die Vergleichbarkeit.
Bestes Beispiel dafür sind MGPU Gespanne. Im CPU Limit oder nahe dran, hat man ja oftmals glattere Frametimes. Sowohl subjektiv, als auch mit Frapsmessung.
Bescheinigt nun ein Review schlechte Werte für Szene X und Hardware Y, muss das beim Endkunden nichtmal der Fall sein. -> hier sehe ich potentiell Gefahr.
Und das auch auf beide Hersteller bezogen. Denn auch NVs SLI patzte dort bei PCP in den Tests zum Teil ;)


PS: mal was anderes, du scheinst dich damit ja schon etwas beschäftigt zu haben.
Kannst du mir sagen, wieso es bei den CF Werten der observed Diagramme oftmals nur, CF wirkt und wenn, dann meist richtig, oder CF wirkt gar nicht gibt?
Das erscheint mir reichlich unlogisch... Denn das klingt wie CF an und CF aus.
Den Werten zur Folge nimmt man aber riegeros die jeweils schlechteste Frametimes, richtig?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
EDIT: @N!tro
[...]
100 Karten würde bedeuten -> ~10 Tage.
Und wenn dann neue Karten zukommen, den ganzen Spaß nochmal... -> ne das wird nix ;)

Sicher, sicher. Mit ständig aktuellen Treibern etc. ist das eine Endlosarbeit.

Dennoch könnte man 2-3 Games wählen und sagen wir mal 1080p. Denke die "meisten" werden auf dieser Auflösung arbeiten.
Über die Mehrleistung die ein neuer Treiber mit sich bringt (ich gehe mal vom Besten Fall aus :fresse: ) kann man sich ja dann beim Test zu Hause freuen :d


Viele Grüße
nitro
 
Neja entweder richtig, oder gar nicht... ;)
Aber auch bei 2 Games wäre der Aufwand enorm hoch...
Auch kommt dazu, ne Einsteiger GPU bekommst du mit den selben Settings und 1080p nicht oder eingeschränkt zum laufen, wie HighEnd. Hier fängt es schon an, es mangelt an Vergleichbarkeit.
Und im absoluten Limit, sprich FPS Bereiche von unter 10 FPS hast du oftmals das "Problem", das die Karten immer näher zusammen rücken. Somit unreguläre Abstände zwischeneinander aufkommen.
Gehst du wiederum zu niedrig an die Sache, landen die Top GPUs im CPU Limit.

Der Leistungsbereich, speziell über mehrere Generationen weg ist leider viel viel zu groß, das man sowas wirklich in einem Rutsch zusammen bringen könnte.
Nicht umsonst testet man Mittelklasse Karten oftmals mit verminderten Details und/oder kleinerer Auflösung ohne (MS)AA.
 
Ich bin auch nur ein Laie, der sich gerade ein bisschen dafür interessiert. :d
Ich würde mich also lieber nicht so weit aus dem Fenster lehnen und behaupten zu verstehen, warum was passiert. Da warte ich lieber auch auf die Reviewer.
 
Zuletzt bearbeitet:
Na mal schauen was draus wird...
Ich könnte mir sogar vorstellen, das ganze wird ne "Luftnummer". Weil der Aufwand zu enorm ist für genaue Analysen... Und die Zeit kommt noch oben drauf.

Und schlussendlich wollen die meisten Leute ja nur "blöd" ihre Vergleiche sehen und schreien förmlich nach Balkenlängen ;)

Wobei ich aber nach wie vor sage, das MGPU Sinn macht. ;)
Denn hier zählt nur meine eigene Erfahrung. Und die ist bei CF und SLI vorhanden... IdR steht es dort immer! pro MGPU, weil mehr BQ im selben Spielgefühl umsetzbar ist.
Und die Werte kommen mir nämlich persönlich etwas zu schlecht vor. Speziell CF mit diesem mal hoch, mal irgendwie aus...
 
Allso ich finde das mal interessant.
Wenn ich mir das hier Ansehe:http://www.guru3d.com/articles_pages/bioshock_infinite_graphics_performance_review_benchmark,7.html
 
PS: mal was anderes, du scheinst dich damit ja schon etwas beschäftigt zu haben.
Kannst du mir sagen, wieso es bei den CF Werten der observed Diagramme oftmals nur, CF wirkt und wenn, dann meist richtig, oder CF wirkt gar nicht gibt?
Das erscheint mir reichlich unlogisch... Denn das klingt wie CF an und CF aus.
Den Werten zur Folge nimmt man aber riegeros die jeweils schlechteste Frametimes, richtig?

Weil das Tool die runt Frames herausrechnet. Und da bei AMD meisten eben ein normaler Frame und ein runt Frame auftreten, sieht es so aus als ob CF nicht wirkt.
 
mhhh OK.
macht das Sinn? Denn komischerweise scheint das ja nicht immer der Fall zu sein, wie die Diagramme dort zeigen.
Inline | PC Perspective
Hier scheint die Ausgabe halbwegs im grünen Bereich. Außer in der Mitte gibts nen extremst Ausschlag.

Die Frage ist, was ist der Grund?
Es sieht zumindest streckenweise nicht nach einem generellen "Problem" aus... Denn es gibt Ausreißer sowohl im positiven als auch im Negativen.

Und das rechts neben dem riesigen Aussetzer im Bereich Sekunde 37/38 rum ist auch irgendwie komisch. Wärend vorn der große Ausschlag die observed FPS im Diagramm drückt -> OK verstanden, macht er das bei Sekunde 37/38 nicht.
Inline | PC Perspective
Weil?
 
Zuletzt bearbeitet:
Natürlich macht es sinn. Runt Frames tragen zu nichts bei und bringen zusätzliches Tearing.

Zu Dirt:3 und CF wird folgendes gesagt:
As a tip to one of my concluding thoughts of this article, I think that this result, and others we’ll show before the end, is indicative of the major problem for CrossFire. It appears that when the GPU is the primary bottleneck, CrossFire just can’t keep up in some way and produces runts. That would explain why would see it at 25x14 here but NOT at 19x12. Just keep that in mind as you keep reading.
 
fdsonne, ich glaube mit Dirt 3 hast du dir jetzt auch das schlechteste Beispiel rausgesucht. sontin hat es ja auch schon zitiert aus dem test. Und es ist generell auch nicht so, dass das "Problem" bei jedem Game auftritt.

Was man auch nicht vergessen sollte ist, dass pcper sich gar nicht hinstellt und FCAT als das einzig Wahre hinstellt. Aber sie machen darauf aufmerksam, geben etwas zu bedenken und haben sich lange damit beschäftigt. Ich gebe zu, ich tue mich schwer damit, dass nun einfach zu ignorieren. Ihre Erklärungen sind schon ziemlich gut nachvollziehbar und ergeben für mich auch Sinn, Stichwort "runt frames". Außerdem hat AMD die Probleme laut pcper zugegeben und sie arbeiten angeblich daran. Spricht einerseits gegen, aber natürlich auch für AMD. ;)

Da allerdings die Probleme sowieso nur auf MultiGPU zutreffen (verstärkt AMD), kann sich das Gros an Usern sicherlich auch weiterhin an den bisherigen Tests orientieren. Und jeder der möchte, kann sich darüber hinaus auch weitere Tests mit FCAT etc ansehen.
 
Was allerdings noch immer ungeklärt ist, ist die Sache, wann denn wo genau die Bilder mit einem Timestamp versehen werden, und vor allem auch wie das ganze nun am Ende ausgegeben wird.

Es ist ja nicht so, das es unbedingt schlecht ist, wenn man zwei Bilder in sehr kurzer Reihenfolge hat. Es kommt ja auch noch IMMER! darauf an, was das eingeblendete Bild dann auch wirklich am Ende anzeigt. nVidia hält z.B. Bilder meines Wissens nach zurück, wenn Sie zu früh fertig sind. Was ist aber, wenn das Bild davor eben zu lange gebraucht hat? Richtig, die Differenz zwischen dem, was ich eigentlich sehen sollte, und dem, was ich dann wirklich auf dem Bildschirm zu sehen bekomme geht auseinander, trotz guter Frametimes :ugly:

Wenn man sich dem Thema SOOOOOOO genau annimmt, dann muss man einfach die Hosen runter lassen, und den Programmcode einsehbar machen. Ansonsten weiß man einfach nie, was da jetzt am Ende wirklich gemessen wird. Über Treiber, und deren "Optimierungen" fange ich jetzt lieber erst gar nicht an nach zu denken.... Die müssten am Besten auch offen sein, wenn ich mir etwas in derartigen Details anschaue, und das wird nicht so schnell passieren. Bei nVidia zumindest erst, wenn Sie Pleite wären....

Man produziert einfach unmengen an Daten, kann diese aber gar nicht richtig einordnen, weil einem einfach viel zu viele Informationen fehlen, und damit sind die Messwerte einfach fürn Poppes. Wie unser Prof immer so schön sagte: "Wer viel misst, misst meist Mist" und er hatte absolut Recht...
 
Wenn ich das Problem richtig verstehe von Bildern, die zwar berechnet aber nicht ausgegeben werden (dropped) und Bildern, die berechnet aber auf dem Bildschirm nur über 21 oder weniger Pixelzeilen erscheinen (NVidias Definition eines runt frames) dann müsste das ganze doch in Hardware zu lösen sein, anstatt ein Tool zu basteln, mit dem der Effekt dargestellt werden kann.
Dann kann man das zwar quantifizieren aber der Effekt ist halt immernoch da.
Das verschiebt den subjektiven Eindruck eines Testers natürlich ein wenig deutlicher in die Richtung der objektiven Ecke, also da wo die coolen Kids abhängen.
Dann lese ich aber im Artikel, dass das eine Software von NVidia ist und im nächsten Satz wird geschrieben, dass hauptsächlich AMD damit Probleme haben wird, da AMD Multi-GPU Systeme eher zu diesem subjetiven Eindruck führen. Das lässt aufhorchen.

Dann muss natürlich die Testmethode angepasst werden.
Ich müsste mehrere Personen ein Spiel spielen lassen.
Diese Personen müssten anhand einer genormten Beispielszene den Effekt der "runt" und "dropped" frames dargestellt bekommen.
Dann müssten diese Personen alle Spiele spielen, die es zu testen gilt.
Jeder müsste seinen subjektiven Eindruck abgeben. Werteskala 1-5 oder sowas, wobei 1 - oh man läuft das sahnig bis 5 - das ruckelt aber stark ist.
Parallel muss das FCAT laufen und die Daten zum subjektiven Eindruck und den "objektiven" Daten von FCAT verglichen werden.
Das heißt natürlich, das jede Testperson die Stelle spezifizieren muss, an der sie den subjektiven Eindruck eines runt oder dropped frames hat.
Zeigt sich eine Korrelation zwischend an Daten, dann glaube ich dem Tool.
Vorher ist das nichts.
Wenn der Tester sagt oh man sind das viele Mikroruckler und das Tool das auch so zeigt, muss der Zeitpunkt des Mikrorucklers ja noch nicht mit dem subjektiven Eindruck übereinstimmen.
 
Es ist sicher noch nicht zu 100% transparent, aber das nVidia das FCAT so designed hat damit AMD schlecht aussieht glaube ich nicht. Denn AMD gibt das Problem ja zu.

Ich stelle die Notwendigkeit dieser Tests nur insofern in Frage, dass der Aufwand gemessen an der Tatsache, dass es sowieso nur Multi GPU betrifft, vlt. zu hoch ist. Zumal am Ende nur AMD betroffen ist. nVidia scheint es ganz gut im Griff zu haben. Zumal die Fälle wo die GTX690 schlechte frame times hat, einfach auch am kleinen VRAM scheitert. Evtl. würde es mehr Sinn machen solche frame time tests zumindest auf multi GPU zu beschränken.

Ich finde es seltsam, dass das Thema soooo stark gehyped wird, aber nun wo die Ergebnisse da sind, es alles halb so wild ist. Ok, AMD hat ein paar Crossfire Probleme. Zumindest messbare. Einige spüren sie auch, ja. AMD will das Problem lösen. Ich weiß nicht ob es per Software oder per Hardware gelöst werden kann. Also im schlimmsten Fall erst mit der next Gen GPU. Aber sie werden es lösen nun wo es so offen auf dem Tisch liegt.

Sicher tut es uns nicht weh wenn diverse Reviews diese Werte ab sofort mitliefern. Ich persönlich würde auch sicherlich einen Blick darauf werfen. Aber als absolute Notwendigkeit betrachte ich sie nun nicht.
 
fdsonne, ich glaube mit Dirt 3 hast du dir jetzt auch das schlechteste Beispiel rausgesucht. sontin hat es ja auch schon zitiert aus dem test. Und es ist generell auch nicht so, dass das "Problem" bei jedem Game auftritt.

Was man auch nicht vergessen sollte ist, dass pcper sich gar nicht hinstellt und FCAT als das einzig Wahre hinstellt. Aber sie machen darauf aufmerksam, geben etwas zu bedenken und haben sich lange damit beschäftigt. Ich gebe zu, ich tue mich schwer damit, dass nun einfach zu ignorieren. Ihre Erklärungen sind schon ziemlich gut nachvollziehbar und ergeben für mich auch Sinn, Stichwort "runt frames". Außerdem hat AMD die Probleme laut pcper zugegeben und sie arbeiten angeblich daran. Spricht einerseits gegen, aber natürlich auch für AMD. ;)

Dirt war nur deswegen benannt, weil mir dort die Werte am komischsten vorkommen und sich so gar nicht mit meinen Erfahrungen beim CF decken.

Auch hab ich mir mal die Videos angesehen. Speziell auch BF3, wo der Test beim CF misst, das es von den quasi gefühlten FPS nur so hoch ist, wie ne Single GPU. Schau ich mir aber das Video an, so fühle ich zumindest bei BF3 ein deutlich häufigeres ruckeln beim SLI anstatt beim CF. Dazu gesellt sich Ungleichmäßigkeit der Ausgabe zumindest Streckenweise. Bei Skyrim hingegen ists fast genau andersrum. Komisch aber, das der Test bescheinigen möchte, das SLI bei BF3 "sauber" läuft, wärend CF quasi gefühlt gar nicht wirkt. Und in Skyrim die Messungen der Frametimes aus dem gecapturten Video definitiv sauber sind, es dennoch sichtbar und extremst ruckelt.

In meinen Augen decken sich die Werte an der Stelle nicht vollumfänglich, teilweise gar nicht, mit dem, was subjektiv wahrnehmbar ist...
Es kann natürlich auch einfach sein, das die Videos an ganz anderen Stellen entstanden sind. Andere Hardware ist ja definitiv drin. Warum auch immer man diesen schritt gewagt hat ;)


PS: das einzig wahre nicht, aber der Satz macht mich etwas stutzig.
The basic premise of Frame Rating is that the performance metrics that the industry is gathering using FRAPS are inaccurate in many cases and do not properly reflect the real-world gaming experience the user has.
Denn das scheint an ein paar Stellen deutlich abzuweichen. Sprich real world gaming experiance und die Messung!
 
Aber was die Youtube Videos zeigen ist auch nicht das Selbe, wie wenn man direkt davor sitzt.

Ich habe mir zB kürzlich das Live Testing Video der Titan mit diesem komischen nvidia typen angesehen. War auch pcper. In dem Video haben sie darauf aufmerksam gemacht, dass es via youtube/live steam zu tearing kommen kann. Auf korrekte Darstellung darf man sich da denke ich einfach nicht verlassen.
 
dann sind doch aber jegliche "Beweise" sowie Aussagen eben vollkommen subjektiv...
Wer soll sich daraus irgendwie nen Vergleich bilden können?
Das ist ja das, was ich eingangs kritiserte.

Wie gesagt, ich hab ja nix gegen, wenn man Probleme aufdeckt und die Hersteller dann dran arbeiten. Nur irgendwie find ich den Hype aktuell etwas übertrieben. Speziell, was in den Foren dazu abgeht...
 
Ich frage mich nur, wozu das Ganze? Dass es zu Mikrorucklern kommt liest man hier ja regelmäßig und bei AMD ist das sicher bekannt - klar, für die Leute in den Firmen ist die Methode sicherlich gut, aber als "Benchmark" für die Käufer? Ich finde das bisschen überzogen. Wenn die Treiber einfach zählen würden, wie viele Bilder an die Hardware übergeben werden, wäre das ok und für mich schon mehr als genug Info.

Wenns ruckelt, dann ruckelt es und wenn es läuft, läuft es auch. Die Probleme mit den Mikrorucklern sind die Probleme der Hersteller. Wenn es keiner merken würde, wäre das Problem auch nicht da.
 
Zuletzt bearbeitet:
dann sind doch aber jegliche "Beweise" sowie Aussagen eben vollkommen subjektiv...
Wer soll sich daraus irgendwie nen Vergleich bilden können?
Das ist ja das, was ich eingangs kritiserte.

Wie gesagt, ich hab ja nix gegen, wenn man Probleme aufdeckt und die Hersteller dann dran arbeiten. Nur irgendwie find ich den Hype aktuell etwas übertrieben. Speziell, was in den Foren dazu abgeht...

Naja nun, letztlich ist das aber bei jedem Test so. Ob wir es glauben bleibt uns selbst überlassen.

Aber der Hype ist übertrieben, das sehe ich auch so.
 
nen normalen Test kann man aber bequem auf Video bannen :fresse: Und der Vergleich lüppt.

Das Problem sehe ich an diese observed FPS. Denn die bescheinigen streckenweise die gänzlich fehlende Power der zweiten Karte im CF. Das sieht man aber nicht oder nur eingeschränkt in den Videos.
Das deckt sich irgendwie nicht mit meinen und nicht mit den Erfahrungen anderer. Denn bis dato war auch die FPS Rate immer höher, wenn CF/SLI sauber ansprechbar war. Und mit mehr "Basis" FPS konnte man mehr BQ bei gleicher FPS Rate zur Single GPU fahren.
Mir persönlich kommen ~60 FPS egal ob SLI oder CF, egal ob MGPU mit Single Karten oder mit Dual GPU Karten schon sehr sehr flüssig vor. Viel mehr nach oben gehts nicht. Auch wenn ich zugeben muss, nie dediziert die Vergleiche 100% nachstellbar durchgeführt zu haben, so hatte ich bei allen MGPU Gespannen gern auch die Leistung in BQ verbraten. Und das hat bis dato immer geklappt, speziell bei Settings, die mit ner einzelnen Karte so jeweils nicht drin waren.

Wobei mir spontan zwei Ausnahmen einfallen, die auch mit ~60 FPS nicht flüssig sind. :fresse: Aber das auch nicht mit ner Single GPU. Das ist Crysis 1 und Stalker:CoP...
 
nen normalen Test kann man aber bequem auf Video bannen :fresse: Und der Vergleich lüppt.

Das Problem sehe ich an diese observed FPS. Denn die bescheinigen streckenweise die gänzlich fehlende Power der zweiten Karte im CF. Das sieht man aber nicht oder nur eingeschränkt in den Videos.
Das deckt sich irgendwie nicht mit meinen und nicht mit den Erfahrungen anderer. Denn bis dato war auch die FPS Rate immer höher, wenn CF/SLI sauber ansprechbar war. Und mit mehr "Basis" FPS konnte man mehr BQ bei gleicher FPS Rate zur Single GPU fahren.
Mir persönlich kommen ~60 FPS egal ob SLI oder CF, egal ob MGPU mit Single Karten oder mit Dual GPU Karten schon sehr sehr flüssig vor. Viel mehr nach oben gehts nicht. Auch wenn ich zugeben muss, nie dediziert die Vergleiche 100% nachstellbar durchgeführt zu haben, so hatte ich bei allen MGPU Gespannen gern auch die Leistung in BQ verbraten. Und das hat bis dato immer geklappt, speziell bei Settings, die mit ner einzelnen Karte so jeweils nicht drin waren.

Wobei mir spontan zwei Ausnahmen einfallen, die auch mit ~60 FPS nicht flüssig sind. :fresse: Aber das auch nicht mit ner Single GPU. Das ist Crysis 1 und Stalker:CoP...

Das ist im Generellen die Krux an der Sache. Keiner kann bei den ermittelten Zahlen sagen, ab wann es spürbar wird beim Gameplay. Und jeder empfindet es zudem noch anders.

Ich stimme dir aber zu. Ich finde auch, dass eine zweite Karte im Crossfire auf jeden Fall mehr BQ zulässt und dabei gleichschnell oder schneller ist als nur eine Karte. Und das ganz sicher auch bei dem von pcper getesteten BF3. Und das spürt man auch, selbst wenn man FRAPS abschaltet. Also nach meinem Empfinden her, würde ich die Resultate in BF3 eher nicht unterschreiben. Weil es von pcper irgendwo als unspielbar hingestellt wird. Das ist es definitiv nicht.

Sie reiten halt schon stark auf den Werten rum ohne mal klar zu sagen "Ja, wir spüren auch das es ruckeliger läuft.".
 
Neben dem zeitlichen Aufwand bedeutet ein FCAT-Setup auch auf Seiten der Hardware eine relative große Investition. Neben dem Testsystem muss ein weiteres aufgebaut werden, dass mit der Video-Capture-Karte und vier SSDs zur Aufzeichnung des unkomprimierten Materials ausgestattet ist.

Uns ist bewusst, dass die FRAPS-Methode keine 100-prozentig ideale Lösung ist. Allerdings verhilft uns FRAPS zu realistischen Ergebnissen, die unseren Lesern eine Einschätzung der Performance ermöglichen. Es geht auch nicht darum, die Ergebnisse zu Hause nachzustellen, sondern nur um eine Einordnung der Performance. Für Multi-GPU-Systeme ergeben sich noch einmal andere Szenarien, die allerdings ebenfalls bereits heute gut darzustellen sind.

Sehr gut! Damit ist Hardwareluxx in meinem Ansehen wieder einmal um das 10fache gestiegen!

Das ganze Thema ist in ein paar Monaten sowieso hinfällig. Man hat es bei AMD einfach verpennt sich damit zu befassen und NVIDIA will das jetzt groß in der Presse ausschlachten. Schlau von denen und gut das es Medien wie HWluxx gibt, die sich auf solche Spielchen nicht einlassen.

Auf der einen Seite lässt man Redakteuren hier offenbar nicht mal die Zeit die Karten zum Launch vernünftig zu testen, so dass sie sich ständig für den geringer werdenden Umfang des Tests entschuldigen müssen und auf der anderen Seite soll man nun so eine Messmethode nutzen? Wie soll der Redakteur am Ende denn überhaupt noch ein Produkt bewerten?

Die Aussage die jetzt bei FCAT herauskommt ist am Ende die gleiche, die auch schon mit FRAPS herausgekommen ist, nur eben mit genaueren werten. Das Problem ist aber seit langem bekannt.

Lustigerweise hat sich damit kaum eine US-Webseite befasst, es war dort nie groß ein Thema, ebenso die Effizenz, Lautstärke usw.
Nun wo Nvidia ihnen Messgeräte und jede Menge Arbeit ins Haus gestellt hat, ist es auf einmal die Hammer-Story und alle springen gleichzeitig drauf?

Die ganze Methode ist ein Analysetool, das Nvidia vermutlich gebaut hat um die SLI-Mikroruckel-Probleme zu lösen. Als "Benchmark" taugt das überhaupt nicht. Nicht weil die Ergebnisse falsch wären oder dergleichen, sondern weil es einfach total unpraktikabel ist und die ermittelten Daten kein normaler Gamer überhaupt versteht!

Das Ding ist der Elchtest für Crossfire, nicht mehr und nicht weniger.

---------- Post added at 03:23 ---------- Previous post was at 03:19 ----------

Denn die bescheinigen streckenweise die gänzlich fehlende Power der zweiten Karte im CF.

Genau damit geht es zum Beispiel los, dass Leute jetzt CF die "Power" absprechen. Die Rechenleistung ist da, das ganze ist kein Problem der Rechenleistung oder Performance, sondern ein Managementproblem bei der Ausgabe der berechneten Bilder. Oder sehe ich das falsch?
 
Zuletzt bearbeitet:
?

Die Aussage die jetzt bei FCAT herauskommt ist am Ende die gleiche, die auch schon mit FRAPS herausgekommen ist, nur eben mit genaueren werten. Das Problem ist aber seit langem bekannt.

Lustigerweise hat sich damit kaum eine US-Webseite befasst,


Crysis3_5760x1080_FRAPSFPS_0.png


Crysis3_5760x1080_OFPS_0.png


http://www.pcper.com/reviews/Graphi...eForce-GTX-690-Radeon-HD-7990-HD-7970-Cross-1

Lustig ist das Ganze nicht mehr und wenn du das als "gleichwertig" abtun möchtest läuft wohl was grundlegend verkehrt u dabei ist das schon ein Titel aus der evolved Reihe
 
Zuletzt bearbeitet:
Die Aussage am Ende, dass es Ruckelprobleme gibt und die gefühlte Performance (observed = bisher mit Auge gesehen, nun digital gemessen) nicht der angegebenen FPS (FRAPS) entspricht, die bleibt die gleiche!
Das wurde mit FRAPS und Videos aufgedeckt und auch zu genüge dargelegt.

Die Messzahlen mögen ja unterschiedliche sein, auch drastisch. Die Endaussage bleibt trotzdem die gleiche!

In Deutschland wurde das Thema glaube ich seit 2009 oder so immer wieder aufgegriffen.
Auch das FRAPS nicht das gelbe vom Ei ist, wird schon Ewigkeiten diskutiert.

Ich habe bei PCP ein Video gesehen indem er einen einzelnen Ruckler 3 Minuten analysiert, gleichzeitig aber in jedem Bild 1-3 Tearing-Streifen hat (die ja nicht so wild und "normal" sind). Einfach nur lächerlich, was da für ein Aufriss gemacht wird. Auf einmal ist Tearing total egal und "gut" wenn es in gleichmäßigen Abständen auftritt. Als Nvidia Adaptive-Vsync vorgestellt hat, war Tearing hingegen das böse Monster schlechthin.

Damit will ich nicht die Messmethode oder das System oder das Problem selbst anzweifeln.

Mir gefällt nur die Art der Berichterstattung überhaupt nicht und deshalb finde ich es gut, das HWluxx da nicht mitmacht.
 
Also ich finde es gut das es solche tests gibt weil so wird AMD gezwungen zu reagieren und ich kann dann auch später bei allen games mit 40FPS flüssig zocken ohne. Ruckler!
Wobei ich sagen muss das einige games schon nachgebessert wurden so das ich auch mit 40FPS sauber zocken kann.
Trozdem würde ich immer mit limiter im Vsync zocken weil es dann einfach perfekt flüssig ist und die bilder die mein monitor eh nicht anzeigen kann und verwirft, blocke ich gleich bei der berechnung und spare den strom ;)
 
Zuletzt bearbeitet:
Also ich finde es gut das es solche tests gibt weil so wird AMD gezwungen zu reagieren und ich kann dann auch später bei allen games mit 40FPS flüssig zocken ohne. Ruckler!

Wenn du dann überhaupt noch 40 Frames hast

Wenn die Hardware in Crysis per Crossfire wirklich nur reale ~ 25 Frames schafft auf dem Monitor darzustellen anstatt der wundersamen durchschnittlich ~ 80 per Fraps am hinteren Ende der Messstelle wirds mehr brauchen wie nur nen Treiberupdate und so einige Reviews hinfällig sein
 
Zuletzt bearbeitet:
Finde ich gut dass ihr so eine propagierende Maßnahme nicht unterstützt! Ist ja bekannt das Nvidia in letzter Zeit etwas das Hinterteil geht...
 
Wenn du dann überhaupt noch 40 Frames hast

Wenn die Hardware in Crysis per Crossfire wirklich nur reale ~ 25 Frames schafft auf dem Monitor darzustellen anstatt der wundersamen durchschnittlich ~ 80 per Fraps am hinteren Ende der Messstelle wirds mehr brauchen wie nur nen Treiberupdate und so einige Reviews hinfällig sein

Deswegen zocke ich ja auch immer mit Vsync und gefixten FPS weil wozu brauche ich 80FPS die nicht so sauber sind wie gefixte 58@60Hz vsync
Bei BF3 zocke ich auch bei 80Hz und 78FPS@ Vsync alles über 80FPS würde der monitor sowieso verwerfen und nicht darstellen es sei den ich würde höhere Hz einstellen.

@Tearlessdeath
Würde ich nicht sagen das NV das hinterteil geht warum auch?? die haben doch zur zeit die schnellste GPU und auch höhere preise bei kleineren chips und trozdem werden diese gekauft!
Gewinn ist bei NV auch noch absolut ok nur AMD ging der stift und sind dabei werke zu verkaufen um AMD zu sanieren
 
Zuletzt bearbeitet:
Deswegen zocke ich ja auch immer mit Vsync und gefixten FPS weil wozu brauche ich 80FPS die nicht so sauber sind wie gefixte 58@60Hz vsync
.

Wie gesagt solange Fraps hier falsche Werte ausgibt kannst du Limitieren wie du willst da das Endergebnis am Monitor ein anderes ist wie das was Fraps dir per Benchmark misst


Und 58 Frames die per Autosuggestion dir vorgegaukelt werden wirst du ja nun nicht als das ansehen wollen was du per Auge am Monitor vorfindest

Placeboeffekt ist zwar nützlich in der Medizin nur sollte das nen Stück Hardware nicht tangieren:d
 
Zuletzt bearbeitet:
Das muss man erstmal testen ob das mit den eingestellten 58FPS auch so ein problem ist und ich glaube das es erst probleme mit verworfenen FPS gibt wenn man höhere FPS hat als der Monitor Hz hat und sich im GPU limit befindet weil wenn es nicht so wäre würde man bei 58FPS bei 2,3 oder gar 4GPUs deutlich schlechteres Spielgefühl bekommen was aber bei Vsync und FPS limitierung nicht der fall ist da merkste keinen unterschied ob SGPU oder MGPU

Wenn ich selbst bei CF@ Limiter+Vsync kein perfekt flüssiges spielerlebnis hätte kannste mir glauben würde ich hier schon SLI drin verbaut haben

Selbst 60Hz@ 30FPS mit limiter fühlt sich garnicht so schlecht an wobei man merkt das es schon recht lange reaktionszeiten sind was ja bei 30FPS kein wunder ist aber lags auf grund von Frames welche verworfen werden oder fehlen so das es sich anfühlt als hätte man 15-20FPS hat man da nicht es sei denn man spielt mit 30FPS im GPU limit ohne limiter aber das habe ich auch damals bei SLI so wahr genommen

Was ich aber bestätige ist das wenn ich nicht mit Vsync und limiter spiele sprich den GPUs freien lauf geben fühlt es sich wirklich nicht so gut an selbst wenn ich bei 130FPS habe mag ich das nicht da sind gefixte 100FPS deutlich besser und noch besser ist das ganze dann noch mit Vsync was aber ein imputlag hat und ich daher den limiter setzte um den lag zu beseitigen
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh