St0ffel schrieb:Danke für die Antwort, ist allerdings sehr schade und für mich unverständlich das Nvidia das nicht implementiert bzw. in den Griff bekommen hat... Frage mich echt warum die das nicht für Nötig halten... Naja so whatt
Naja es ist ja nicht so das sie nicht wollen, sie haben eben Transistoren eingespart (einsparen müssen).
Das AA findet in der Grafikpipeline am Ende in den ROPs (Raster Operation Processing) statt. Bei FP16 HDR, d.h. 16 Bit Fliesskomma Genauigkeit für jeden Farbkanal (FP16 HDR Filtering) und auch den Alphawert (FP16 HDR Blending). Ein 64 Bit Framebuffer ist vorhanden, das Problem sind die ROPs welche kein Multisampling AA auf FP Rendertargets erlauben.
Theoretisch könnte man sich einen Shader schreiben welcher AA bei nochmaligem Pass in den Shaderalus emuliert. Nur das wär ziemlich (ich spreche hier von seeeeehhhhrrr seeeehhhrrrr) langsam.
Problem beim HDR ist sowieso das FP16 Texturen viel zu viel Bandbreite kosten. Man überlege nur mal statt FX8 (8Bit) pro Farbkanal und Alphawert hat man plötzlich FP16 (16Bit) also braucht die doppelte Bandbreite. Und das wo AA sowieso schon soviel Bandbreite zieht.
Selbst wenn es technisch möglich wäre FP16 HDR + AA beim NV40 / G70 / G71 zu verwenden würde den GPUs die Bandbreite des Chipinternen Speicherbusses ausgehen. Was Abhilfe schaffen würde sind Kompressionsverfahren für diese FP16 Texturen. Diese müssten aber in der Hardware implementiert sein.
An der eigentlichen Architektur des NV40 hat sich bis zum G71 nichts geändert (bis auf die 2. Pixelshaderalu die im G70 pro Pipeline hinzugekommen ist und Kleinkram). G70 und G71 sind nur ein Aufguß des NV40 daher ist auch nicht davon auszugehen das sich nun beim G71 was an der HDR+AA Problematik ändert.
Zuletzt bearbeitet: