Sehr kurzsichtig. Schon mal was von OoO Ausführung gehört? Dort fummeln Prozessoren auch nach Belieben am vom Entwickler vorgegebenen Code herum, um die Ausführungsgeschwindigkeit zu optimieren. Wollen wir deswegen in Zukunft alle CPU Tests für nichtig erklären?
Ändert sich dadurch etwas am Resultat/Rechenergebnis? Ernstgemeinte Frage!
NCQ wäre z.B. auch so eine Geschichte, die ohne Benutzerkontrolle Performance bringt. Aber mit dem Unterschied, dass sich an den übertragenen Daten (afaik) nichts ändert. Der Bildinhalt durch die T-Optimierung ändert sich hingegen schon. Nicht unbedingt weltbewegend, aber er ändert sich.
Ich kann mich wiedermal nur Mr.Dude anschließen.
Ausserdem möchte ich zu bedenken geben, dass wenn ein Hersteller die Möglichkeit gibt eines der Qualitätsmerkmale den eigenen bedürfnissen anzupassen, es ein fairer, erarbeiteter Vorteil ist.
Und an die die behaupten dass da Gemogelt wird:
1. Lässt AMD den Default Wert auf dem, der jetzt anliegt.
2. Müssten wir doch die Möglichkeit der Verschiedenen AA und AF Filter auch für Cheating erklären.
Also bitte hört auf mit dem gerede von wegen Cheating und so weiter und sofort.
D.h., man darf eine - möglicherweise unberechtigte - Optimierung als fair verkaufen, nur weil man Arbeit hineingesteckt hat und davon profitiert (mehr fps)? Nein, eine Optimierung muss schon im Kontext gesehen werden mitsamt den Auswirkungen, die sie hat/haben kann. Nicht nur die Arbeit/die Intention zählt, sondern das Ergebnis ebenso.
AA im Zusammenhang mit Cheating zu nennen, ist nicht korrekt. Wenn eine Anwendung 4xMSAA anfordert, bekommt sie im Treiberdefault auch 4xMSAA. Man kann diese Anforderung zwar überschreiben, um andere Modi zu bekommen (auch niedrigere glaube ich, in dem Beispiel z.B. 2xMSAA), aber das erfordert expliziten Benutzereingriff und geschieht nicht standardmäßig.
Das AF ist ein anderes Thema. Hier sind beide IHVs betroffen und liefern nicht das, was die Anwendung fordert.
Was du mit 1. meinst, kann ich nicht nachvollziehen. Erklärung bitte? Default ist AMD Optimized.
Btw mit AA/AF kann man die Thematik wirklich vergleichen, aber unter einem anderen Aspekt:
Es wird ja z.B. von mr. dude die Meinung vertreten, dass die Defaulteinstellung ein Kompromiss zwischen Leistung und Qualität zu sein hat. Warum wurde in der langen Geschichte der 3D-Grafik dann nie AA oder AF im Default aktiviert? Je nach Anwendung kann man doch sicher einen guten Kompromiss finden, z.B. 2xMSAA und 4xAF.
Aber man macht es nicht und überlässt dem Benutzer direkt bzw. indirekt über die Anwendung die Wahl. Warum?
1. Weil es zu Problemen führen kann, beispielsweise, wenn eine Anwendung kein AA unterstützt und es doch einen Performancedrop/Blur/Bildfehler gibt.
Bzgl. Tessellation könnte ich mir vorstellen, dass eine Begrenzung des Levels mit adaptiver Tessellation (viele Details im Vordergrund, weniger in der Ferne) kollidieren könnte.
2. Weil wie schon angesprochen die Kapazitäten der Hardware und die Anforderungen der Anwendungen sich im Laufe der Zeit verändern. So müsste man stetig für alle erdenklichen (neuen) Hardware/Softwarekombinationen nachbessern, um dem Benutzer immer das optimale Ergebnis zu liefern. Ein undurchsichtiger Alptraum und ein fürchterlicher Haufen Arbeit.
Lange Rede, kurzer Sinn:
Das Feature ist GUT. Aber es sollte standardmäßig nicht aktiviert sein.