kaiser schrieb:
in splinter cell 3 hat nur nvidia shader 3.0... der rest (also alle ati karten) nur shader 1.1...
Sag ich doch ... Splinter Cell 3 hat nur Shader 1.1 oder 3.0.
Wobei letzteres derzeit nur von GeForce 6 Karten nützbar ist.
ALLE anderen (egal ob Radeon X800 / 9800 oder auch GeForce FX 5900) schauen durch die Röhre da sie grafisch zwar mit Shader 2.0 ein Splinter Cell 3 schaffen würden das fast so aussieht wie mit Shader 3.0 - aber mangels Implementierung das Spiel nur mit Shader 1.1 anzeigen.
b1-66-er schrieb:
leute nu vermischt hier mal keine fakten, optimierung ist ein weitlaufender begriff und kein hersteller "optimiert" seine engines zum nachteil irgendwelcher grafikkfirmen, sondern nur gegenteilig: bestmögliche leistung überall wo es geht.
sachen wie shader techniken hat mit optimierung nichts am hut, dass sind schlichtweg zusätzliche features.
@kaiser "also alle ati karten" - alle karten die keinen 3.0 unterstützen. SC bietet nur 1.1 oder 3.0
Doch - auch Shader haben mit Optimierungen was zu tun. Denn es gibt zwar die Shadersprachen - jedoch auch programmspezifische Pfade und Einstellungen.
Und sicher optimieren die Hersteller Ihre Engines für bestimmte Grafikkarte. Je nach dem mit wem sie bei der Entwicklung zusammenarbeiten. Nachdem Valve / Vivendi mit ATI diverse Abkommen getroffen hat haben ATI sicherlich diverse Unterstützungen geleistet - woraufhin die Entwickler Ihre Engine getestet und "feingeschliffen" haben. Anscheinend hatten sie aber nicht die Unterstützung von nVidia (bzw. nicht das Interesse daran) daß das Spiel auch auf FX Karten mit optimaler Qualität angemessen läuft.
Warum extra für was programmieren wo kein Geld / Unterstützung dabei rausschaut ?
Fakt ist daß eine FX5900 in HL2 einen eigenen Programmtechnischen Renderpfad benötigen würde, um DX9.0 in halbwegs erträglichen FPS zu darzustellen. Ich konnte das nur lösen indem ich mit einem Programm dem HL2 vorgaukelte daß meine Karte eine Radeon 9800 ist und das Programm schaltet die Floating Point Genauigkeit der GeForce von 32Bit auf 16Bit (ATI hat 16 und 24 Bit).
Somit lief das Spiel mit voller Grafikpracht mit etwa 50-75 % der Leistung einer Radeon 9800. In vielen anderen Spielen ist der Unterschied zwischen Radeon 9800 und FX 5900 aber wesentlich geringer - was darauf hinauskommt daß die Engine einfach NICHT für eine FX 5xxx Karte optimiert wurde bzw. kein Render Pfad dafür geschrieben wurde.
Ob ein Spiel schnell genug läuft mit den Details sollte jeder für sich selbst entscheiden können und nicht schon vom Programm ausgegrenzt werden. Man kann ja auch Splinter Cell 3 mit ner GF 6200 mit Shader 3 / HDR / max Details spielen. Nur wenn's nicht schnell genug ist soll der Anwender da was runterschalten können.
Mit ner FX5200 kannst ja auch DirectX9 Spiele spielen - nur halt etwas lahm.
Und "bestmögliche Leistung überall wo es geht" - hah ... wäre Splinter Cell 3 auf ner X800 mit Shader 2.0 zu langsam? - denke nicht.
Wie schon meine FX5900 für mich nicht zu langsam im HL2 mit DX9 ist.