Gohst_oc
Enthusiast
- Mitglied seit
- 25.05.2007
- Beiträge
- 2.179
Ich habe das Gefühl, das Nvidia aktuell udn überhaupt mehr "bescheisst" als AMD.
Früher gab es mehr ATI "Get in the Game" Logos in Games als heute.
Auch Nvidia war stark(er) vertreten (ich spreche von 2002?-2006).
Wenn man da bedenkt, wie schlecht die Bildqualität der GF 7er war...
Und bei ATI war der Skandal wegen der langsamen X1800 perfekt.
Damals kam das Thema meines Wissens grad so richtig auf.
Beide Seiten haben da "optimiert" wie die gestörten.
Bei Nvidia konnte man diese "Optimierungen" jedoch scheinbar ausschalten, und hatte mehr Optionen in den Treibern. Das wusste der Laie aber nicht.
Dafür war ATI vor der X1800 und auch nachher für die deutlich bessere Bildqualität bekannt. Allgemein, zusammengefasst bin ich der Ansicht das ATI häufiger für deutlich bessere Bildqualität stand. So richtig ist das vorallem einem Bekannten von mir aufgefallen.
Dieser hat noch heute 2x 7800 GTX, und wünscht sich seine X800 XTX oder Radeon 9700 Pro zurück. Wer sich erinnern kann, wird das wohl verstehen.
Klar, bei der GF 8800er (G80) war die Bildqualität wieder erste Sahne, da Nvidia dort absolut genug Spielraum hatte. Wogegen auch die HD 2900er nicht direkt schlecht aussahen, aber halt langsamer / stromfressender waren.
Es ist vorallem die Leistung entscheidend, wie stark beschissen wird.
Übrigens, zu Batman: Arkham Asylum: ingame AA&AF ist meistens deutlich schneller als wenn man es im Treiber aktiviert.
Und den ganzen Physx quatsch, für den man ne Physx "braucht" ist doch auch eine farce. Der Mülle der sich mit Physx bewegt ist doch ganz ohne Physx problemlos zu berechnen.
Da Nvidia jetzt gar noch im Bereich des "Spielspasses" optimiert und andere ausgrenzt, wird mir das langsam zu viel. Klar, Physx wurde legal erworben von NV, aber es ist dennoch eine Sauerei.
Früher gab es mehr ATI "Get in the Game" Logos in Games als heute.
Auch Nvidia war stark(er) vertreten (ich spreche von 2002?-2006).
Wenn man da bedenkt, wie schlecht die Bildqualität der GF 7er war...
Und bei ATI war der Skandal wegen der langsamen X1800 perfekt.
Damals kam das Thema meines Wissens grad so richtig auf.
Beide Seiten haben da "optimiert" wie die gestörten.
Bei Nvidia konnte man diese "Optimierungen" jedoch scheinbar ausschalten, und hatte mehr Optionen in den Treibern. Das wusste der Laie aber nicht.
Dafür war ATI vor der X1800 und auch nachher für die deutlich bessere Bildqualität bekannt. Allgemein, zusammengefasst bin ich der Ansicht das ATI häufiger für deutlich bessere Bildqualität stand. So richtig ist das vorallem einem Bekannten von mir aufgefallen.
Dieser hat noch heute 2x 7800 GTX, und wünscht sich seine X800 XTX oder Radeon 9700 Pro zurück. Wer sich erinnern kann, wird das wohl verstehen.
Klar, bei der GF 8800er (G80) war die Bildqualität wieder erste Sahne, da Nvidia dort absolut genug Spielraum hatte. Wogegen auch die HD 2900er nicht direkt schlecht aussahen, aber halt langsamer / stromfressender waren.
Es ist vorallem die Leistung entscheidend, wie stark beschissen wird.
Übrigens, zu Batman: Arkham Asylum: ingame AA&AF ist meistens deutlich schneller als wenn man es im Treiber aktiviert.
Und den ganzen Physx quatsch, für den man ne Physx "braucht" ist doch auch eine farce. Der Mülle der sich mit Physx bewegt ist doch ganz ohne Physx problemlos zu berechnen.
Da Nvidia jetzt gar noch im Bereich des "Spielspasses" optimiert und andere ausgrenzt, wird mir das langsam zu viel. Klar, Physx wurde legal erworben von NV, aber es ist dennoch eine Sauerei.