Die Links funzen beide nicht ...
Und Oldtimer würde ich die auch nicht nennen ... dachte schon als ich den Thread öffnete daß da ne Radeon SDR oder DDR gegen eine GeForce DDR / 2GTS oder so verglichen wird.
Oder vielleicht einen GeForce 3 gegen die Radeon 8500.
Oder ECHTE Oldtimer - sprich eine nVidia Riva 128 / ZX / oder TNT gegen eine zeitgleiche ATI - z.B. eine Rage IIC / XL / PRO.
Auch ne TNT2 vs. Rage128 wäre ein netter Vergleich.
Wenn mir mal ganz langweilig ist und ich genug Zeit habe mach ich das mal.
Habe noch genügend Rage IIC / 128 Pro / LT Pro / TNT1,2,2M64 und Ultra herumliegen um das zu testen. Werd' dann auf meinen alten Rechner (P-III mit 1400MHz und 512MB PC133 CL2 SD-RAM) eine leere Platte reinstoppeln und Win98SE draufmachen (denn für Win2k / XP gibt's glaub ich keine guten Treiber für die ganz alten Karten).
---
Zum Thema FX 5800/5900/Ultra vs. 9700/9800/Pro:
Meine Erfahrungen mit diesen Karten (ich selbst besitze ne FX5900er und eine 9800SE 256Bit, und hab' bei einem Kumpel eine 9500@9700Pro durchgetestet) ist:
die FX Karten 5200 - 5600 / Ultra waren bzw. sind mies. Keine Frage. Vorallem die 5200er mit 64Bit Speicher - die war lt. Vergleichstest von mir und einem Kumpel langsamer auf einem P4 @ 3GHz gegen meinen P-III 1,4GHz mit ner GeForce3
Die FX5700 war ganz OK ... allerdings auch nur alles < Shader 2.0 bzw. DX9
Die FX5800er und 5900er Karten sind (wenn ordentlich dafür optimiert) ca. genau so schnell wie Radeon 9700er bzw. 9800er Karten. Auf jeden Fall in DX8.x Spielen. Alles was Shader 2.x bzw. DX9.x ist läuft auf einer Radeon 9700/9800 besser.
Der Grund:
Die Shadereffekte der Shader 2.0 können von ATI mit FP16 und FP24 (Floating Point 16 bzw. 24Bit Genauigkeit) berechnet werden. Von den FX Karten jedoch mit FP16 und FP32.
Wenn man jetzt z.B. ein JPEG oder TIFF/TGA Bild betrachtet und mit 16 Bit Farbtiefe (65535 Farben) und mit 24 Bit (16,7 M Farben) erkennt man deutliche Unterschiede - gerade bei Farbverläufen.
Vergleicht man ein Bild mit 24 Bit mit einem 32 Bit (dargestellte 16,7 M Farben aus einer Palette von 4,3 Milliarden) erkennt man (fast) gar keinen Unterschied.
Für viele Spielehersteller war nun FP24 genau richtig - da es eine schöne Darstellung mit ausreichend Leistung (bei den Radeon 9xxx Karten) bot.
Bei den FX Karten mussten die Spielehersteller auf FP16 herabschalten - was eben hässlicher war und ca. gleich schnell.
Wollte man hingegen volle Qualität musste man bei der FX auf FP32 gehen - was deutlich an der Leistung nagte.
Spiele wie z.B. das Paradebeispiel HalfLife² waren z.B. gar nicht auf die nV FX Karten optimiert (war ja auch ne Kooperation mit ATI das HalfLife²) - weshalb sie den FP16 Modus gar nicht implementierten - sondern direkt auf DX9.x verzichteten und auf DX8.1 runterschalteten (Shader 1.4).
Wenn man nun das Spiel in den DX9 Modus zwang lief es zwar - jedoch recht lahm und es wurden viele Sachen wie z.B. das Wasser teils gar nicht angezeigt - da es ja für den FP24 Modus programmiert war und die FX jetzt aber im FP32 Modus lief.
Gut - dazu gab' es noch ein nettes Tool (3D Analyzer) mit dem man die FX in den FP16 Modus zwingen konnte UND die Karte einer gewünschten Anwendung vorgaukelte sie sei eine andere (z.B. ne Radeon 9800Pro)
Und in diesem Modus lief HalfLife² perfekt (hab's so auch durchgespielt).
Zwar noch immer nicht superflüssig (da nicht auf die Karte optimiert) aber immerhin ohne Grafikfehler / fehlenden Effekten.
FarCry war das nächste Beispiel ... ATI optimiert.
Die FX lief hier jedoch im FP32 Modus - und deshalb die miese Leistung. Man konnte sie aber auch in den FP16 Modus zwingen - wo sie deutlich schneller lief.
Also unterm Strich kann man sagen daß die Radeon Serie einfach die schnellere war - vor allem wegen der flotten Shader 2.0 Unterstützung.
Unter DX 8.1 waren die Karten jedoch ziemlich gleich auf - und ab und zu sogar die FX schneller.