FCAT Teil 1: Die Theorie

Bitte sontin,
wenn Du nichts beizutragen hast außer Dein übliches "Du verstehst es nicht, also sei still!", mit dem Du immer wieder Diskussionen abzuwürgen versuchst, dann halte Dich doch einfach zurück.
Ich will dem Thema nämlich folgen ohne dummes Gespamme!

In einem anderen Forum hat man längst Nägel mit Köpfen gemacht und ist den grünen Giftzwerg losgeworden:
Beyond3D Forum - View Single Post - AMD: R9xx Speculation
Sontin [=Lovesucks beim nvidiacenter] has been sent on his way. I'd suggest learning from his story, rather than dancing wildly around the celebration fire. If you feel the need to do some heavy IHV evangelism, just don't.

Beyond3D ist damit nicht nur dem nvidiacenter.de weit voraus... ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@jrs77
es besser hinzubekommen, ist ja kein Ding ;) Denn bei AMD läuft in der Richtung aktuell so fast gar nix :fresse:
Interessant wird es wohl erst, wenn AMD ihre aktuell im Alphastadium befindlichen neuen Bestandteile der Treiber frei zugänglich macht... Denn diese versprechend zumindest dort ein Stückweit Abhilfe. Ob es am Ende reicht um besser wie NV dazustehen, bleibt also abzuwarten.
Ich denke aber, in den ersten Treibern wird man sich wohl bestenfalls annähern...
 
Hier mal ein Video, wie so ein Analyse-Video aussieht, dass dann durch den Extractor durchgeht:

<iframe width="500" height="281" src="http://www.youtube.com/embed/VGLrdLA8z9Y" frameborder="0" allowfullscreen></iframe>
 
Zuletzt bearbeitet:
Also erst mal Danke für diese sehr guten Formulierungen die es für alle verständlich machen.
Ansonsten kann hier bitte auch nur zur Sachlichkeit aufrufen und darum zu bitten den Thread nicht kaputtzumachen, hier könnte es nämlich ziemlich interessant werden.
 
Bin schon sehr gespannt auf die nächsten Parts, mir scheint da könnten Gemeinsamkeiten zum Verlieren von Frames beim Video Bearbeiten im extreme Auflösungsbereich sein...
 
Aussagen wie "Ich sehe nix" oder "Ich weiß garnicht was das ist" zählen dann nicht mehr. Vor allem in der AFR-Problematik. ;)

.

aha also willst du mich jetzt auf gut deutsch anscheissen,
weil ich die microR nicht wirklich wahrnehme?
------------------------------------------------------

aber es einen vorschlag hätte ich:

man könnte mit Notebooks die CF nutzen auf die strasse gehen,
und sagen wir mal 1000-5000 Passanten dies dann bewerten lasen.

----------------------------------------------------------------

btt:

kling mal interessant

@ don

ich seh in dem Video eigentlich vom spiel her keine unterschiede.
 
Zuletzt bearbeitet:
Schöner Artikel! Wird gut erklärt und sinnvoll angegangen. Bitte mehr von so was.
 
Ein sehr gute Beispiel ist Metro Last Light es läuft sehr sehr weich man könnte sagen ich Spiele mit einer Karte, obwohl ich keine 100% Auslastung habe ist das Spielgefühl zu Perfekt.

Don könntest du auch mit Win8 Testen ich habe das Gefühl das mit Win8 CF besser läuft auch Powerplay hat das bestätigt ich habe 2 Monate gebraucht bis er Win8 installiert und auch Testet. Seine Meinung Heute ist das mit Win8 besser läuft als mit Win7 CF.

Kann ich ebenfalls bestätigen.
Läuft Butterweich mit meinen 2 7970ern GHz Edition, alle Details bis an anschlag hochgedreht. (Win8 Pro x64)
Da scheint sich unter der Haube einiges getan zu haben bei Win8.
Hatte ja vor auf GTX780(SLI) zu warten, aber diesen Plan werde ich wohl verwerfen,
dafür läuft das jetzt alles zu gut.
 
@ don

ich seh in dem Video eigentlich vom spiel her keine unterschiede.

War so auch nicht unbedingt gedacht. Wenn man im richtigen Moment Pause drückt, könnte man zufällig an die kritischen Stellen geraten, aber ansonsten sollte es nur mal zeigen, wie die aufgezeichneten Videos aussehen.
 
WoW Don Prottotyp Treiber welche ist das du Schlingel :asthanos:

Ich habe mir dein Video angeschaut und nichts entdeckt ausser das der linke Balken blink blink macht ah ja bei AMD waren die Hirsche zu sehen und bei Nv nicht :d.
Also wenn du kein Titan oder 7990 geschrieben hättest und ich raten müsste welche AMD oder NV ist hätte ich nur geraten, beide haben identische Bildqualität.
Könnten die Mods Unruhe Stifter gleich ein Thread Bann geben ich möchte auch nicht das diese Thread mit Spam gemüllt wird Danke Danke


Ja, aber wie gesagt und von TechReport festgestellt hängt es eben nicht nur von der GPU und den Treibern ab, sondern auch von der SpieleEngine selbst, was am Beispiel Skyrim erklärt wurde. Da produziert die SpieleEngine praktisch schon Hickups, weil sie Timing-Probleme bekommt wenn man den Frame-Limiter ausschaltet. Und den schaltet eben jeder auf der Jagd nach mehr FPS aus. Und die Jagd nach immer mehr FPS ist eben genau das, was ich kritisiere.

Auf Seite 1 habe ich bereits geschrieben das Spiele Engine Ausschlag gebend ist wie Dual GPU Skaliert.
 
Zuletzt bearbeitet:
aha also willst du mich jetzt auf gut deutsch anscheissen,
weil ich die microR nicht wirklich wahrnehme?

Mit nicht wirklich meinst du wohl eigentlich nicht aber vielleicht schon oder wie ?
Genau das ist doch der Umstand, der jeder mit seiner eigenen subjektiven Wahrnehmung offeriert. Man ist sich nicht sicher aber tendiert eher für das eigenen Empfinden bzw. Wohlgefühl welches aus der Dissonanz bzw. Diskrepanz des alltäglichen zeitlich wechselnden Rhythmus harmonisiert. Sprich, Heute so. Morgen so und Übermorgen wieder anders.
Um es mal mit deinen Worten zu beschreiben. Auf gut deutsch, aus dem Bauch heraus.

Nun gibt es mit FCAT eine gute Möglichkeit diesen ganzen Firlefanz mal beiseite zu schieben und die Sache rein Objektiv, also weg von der Subjektivität, zu betrachten.
Es spielt dabei keine Rolle was jemand glaubt oder meint. Wenn es eine verlässliche Methode gibt die AFR-Problematik darzustellen und Schwarz auf Weiß auf das Papier zu bringen, so ist jedwede subjektive Wahrnehmung absolut haltlos. Nur weil man etwas nicht sieht, so heißt das nicht, das es nicht da wäre.

Schlussendlich entscheidet aber immer noch der User selber, was für ihn am Besten ist. Ob nun Objektiv oder Subjektiv ist am Ende egal. Aber richtig ist es nicht.
 
Schau mal hier vorbei Pickebuh mit alten und neue Prototype Treiber http://www.hardwareluxx.de/community/f14/amd-crossfire-verbessert-mit-prototype-treiber-959751.html ;)

Ich selber nehme Mr auch nicht war aber wenn ich diese Videos sehe dann schon :d

Ich habe auch solche Bilder und das stört mich auch aber irgend wann habe ich mich daran so Gewöhnt das ich die gar nicht mehr Wahrnehme ist das bei NV mit SLI auch so ???


Don steht der Treiber unter DNA den finde ich nirgend wo zum runter laden
 
Zuletzt bearbeitet:
Ja den Treiber hat AMD noch nicht freigegeben und nur an wenige verteilt, die ihn dann auch nicht gleich hochladen ;)
 
Läuft der wirklich gut kann man sich auf diesen Treiber freuen Don

---------- Post added at 23:15 ---------- Previous post was at 23:00 ----------

Kann ich ebenfalls bestätigen.
Läuft Butterweich mit meinen 2 7970ern GHz Edition, alle Details bis an anschlag hochgedreht. (Win8 Pro x64)
Da scheint sich unter der Haube einiges getan zu haben bei Win8.
Hatte ja vor auf GTX780(SLI) zu warten, aber diesen Plan werde ich wohl verwerfen,
dafür läuft das jetzt alles zu gut.

Juni/Juli kommt der Prototype Treiber dann wird sehr Interessant werden.
 
@sharif
Das Tearing hat doch nichts mit cf und sli zu tun das hat man genau so auch mit Single GPU .
Da für Nutzt nan ja auch Vsync da mit das nicht vor kommt mit dem Bildzereisen.
Dan hat man meist nen starken inputlag den kann man aber wieder aushebeln in dem man einen Limiter vor das Vsync setzt zum Beispiel bei 58 oder 59 FPS.
Nachteil irgendwann wird ein Bild mal für kurze Zeit doppelt angezeigt was aber kaum aufällt.

Da rum nutze ich bei Multi GPU diese Methode am liebsten da ich das Tearing eh nicht ab kann und mehr Qualität beim Spielen möchte Bildzereisen ist hässlich.
Die MR hat man so auch gut im Griff.

@Don
Eine solche Messung mit FCAT wäre mal nice Don was da bei raus kommt.
Vsync 60 FPS limiter 59 da bei solten die Grafiksettings so gewählt sein das 60 FPS nicht unterschritten werden.
 
Zuletzt bearbeitet:
jetz muss mich mal einer aufklären:

gibt's das bekannte tearing(VGA) auch mit DVI/Hdmi?

weil das wär mir jetz neu
 
Ja, die gibt's natürlich auch bei per DVI angeschlossenen Displays.
 
Eigentlich kein Vorteil, HDMI kann noch den Sound übertragen, aber hat bei 120Hz Probleme. Da packt HDMI eben nur 60Hz.
Bei DVI kann Microsoft Windows den Monitortreiber direkt erkennen und einbinden.

Am PC am besten DVI nehmen, wenn es "egal" ist - gerade beim 120Hz Monitor.
 
ok, is mir eigentlich unter dvi nie aufgefallen

Tearing gibt es schon ewig auch unter DVI .HDMI und auch Displayport welches ich auch seit ca Ostern nutze.

Tearing ist je nach Spiel sichtbar bis stark ausgeprägt gerade wenn man schnelle links und rechts Bewegungen durchführt mit der Maus .

Das ist auch weiterer Grund warum ich lieber 2 GPUs nutze .
Warum ?
Möchte viel Bildqualität einstellen aber immer so das die 60 FPS möglichst nicht unterschritten werden mit aktivem V Sync zum entschärfen des inputlags welcher durch Vsync zusätzlich entsteht setzt man einen limter vor das V Sync. mache ich gerne bei Egoshootern ein weiterer Vorteil dieser Methode keine wahrnehmbaren MR Probleme mehr.

Bei Thirdperson Spielen fällt das tearing meist sehr gering aus dort begnüge ich mich meist nur mit einem limiter und versuche die 40 -45FPS nicht zu unterschreiten bei möglichst höhster Bildqualität.
Da Thirdperson Spiele meist in dem FPS Bereich ohne grosses Bildverwischen (schwammig)gezockt werden können ich meine jetzt kein Tearing sonder den Blure Efekt bei zu geringen FPS zu Hertz Rate des Monitors bei Bewegungen das ist gerade bei Shootern sehr stark ausgeprägt .
Gerade um die 30 bis 50 FPS kann ich das dolle wahrnehmen da rum ist dort meine Faustregel ich brauche möglichst 60 FPS in Egoshotern.

Auch wenn ich so nicht die Maximalen FPS Raten mit MGPU fahren kann bin ich so einer Single GPU in Sachen flüssigen spielens bei hoher Bildqualität immer überlegen so lange die Software auch 2 GPUs unterstützt und das ist Heut zu Tage schon sehr weit vorangeschritten.
Gruss
 
Zuletzt bearbeitet:
aber das tearing von vga ist dann aber nicht mit dvi vergleichbar,
denn mit vga bekommt man ja auf nem Bildschirm bei weißen flächen einen hirn schuss
 
Das heist also, das NV Metering setzt vor dem Renderer an!?
Gibts dazu irgendwelche direkten Fakten?

Ja, von nVidia, siehe link unten:

Es geht doch nicht ums Metering :rolleyes:
Sondern um das Thema Inputlag...

Aber wie so oft, bevor du hier Behauptungen aufstellst, bitte ich um belegbare Fakten deinerseits.
Noch dazu steht oben im ersten Satz, das jemand einen möglichen Fehler gern aufzeigen darf.
Scheint dir bestimmt entfallen zu sein :wink:

http://www.hardwareluxx.de/communit...ulti-gpu-loesungen-957310-2.html#post20591772

In einem anderen Forum hat man längst Nägel mit Köpfen gemacht und ist den grünen Giftzwerg losgeworden:
Beyond3D Forum - View Single Post - AMD: R9xx Speculation


Beyond3D ist damit nicht nur dem nvidiacenter.de weit voraus... ;)

Die ist schon klar, dass das Beyond3d ein AMD Forum ist, wo der Eigentümer ein enges Verhältnis zur PR von AMD pflegt (= Dave 'ich erzähle einfach nur mist' Baumann) und damit jegliche Kritik an AMD perse schonmal verurteilt wird?
 
Zuletzt bearbeitet:
Eigentlich kein Vorteil, HDMI kann noch den Sound übertragen, aber hat bei 120Hz Probleme. Da packt HDMI eben nur 60Hz.
Bei DVI kann Microsoft Windows den Monitortreiber direkt erkennen und einbinden.

Am PC am besten DVI nehmen, wenn es "egal" ist - gerade beim 120Hz Monitor.

Danke Dozer für dein Antwort
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh