*** Archons kleine Benchmark-Ecke ***

BlackArchon

Enthusiast
Thread Starter
Mitglied seit
24.04.2006
Beiträge
320
So liebe Leute. Jetzt kommt die Auflösung, warum ich vor ein paar Wochen wie verrückt ältere Grakas hier im Forum gekauft habe. Mich hat einfach mal interessiert, wie sich die Karten ohne CPU-Limitierung und mit aktuellen Treibern schlagen. So kann man auch gleich gut ablesen, wie sehr sich ein Upgrade von einer ehemaligen High-End-Karte zu einer neueren Mid-Range-Karte o.ä. lohnt. Folgendes System wurde für alle Benchmarks benutzt:

Intel Core 2 Duo E6400
Asrock 775Dual-VSTA
1024 MB RAM DDR2-667@5-5-5-15-2T (Single Channel)
Onboard-Sound (Realtek HDA)


Die S3 GammaChrome S18 wollte auf dem Asrock 775Dual-VSTA leider nur mit PCIe 1x laufen - das bremst zu sehr. Deshalb wurde diese Karte im Gigabyte 965P-DS3 vermessen. Obwohl dieses Mainboard einen echten PCIe 16x-Slot hat, lief hier die S18 nur mit PCIe 8x - immer noch besser als auf dem Asrock-Board. Die S27 zeigte dieses Verhalten übrigens nicht, sie lief auf beiden Boards so, wie sie sollte.

Für alle Ati-Karten kam der zum Beginn des Tests aktuelle Catalyst 6.9 zum Einsatz (Ausnahme: die X1650 XT läuft mit dem 7.1, der 6.9 unterstützt den RV560 noch nicht), für alle Nvidia-Karten der Forceware 92.91. Für die S3-Karten wurde der Treiber 15.20.07L benutzt.

Folgende Karten nahmen am Test teil:

ATI:
Radeon 9500 (275/270, 4x1, 256 Bit, 128 MB, AGP)
Radeon 9500 Pro (275/270, 8x1, 128 Bit, 128 MB, AGP)
Radeon 9550 (250/200, 4x1, 128 Bit, 128 MB, AGP)
Radeon 9600 Pro LE (400/200, 4x1, 128 Bit, 256 MB, AGP)
Radeon 9600 XT (500/325, 4x1, 128 Bit, 128 MB, AGP)
Radeon 9700 Pro (325/310, 8x1, 256 Bit, 128 MB, AGP)
Radeon 9800 Pro (380/340, 8x1, 256 Bit, 128 MB, AGP)
Radeon X700 Pro (425/430, 8x1, 128 Bit, 128 MB, PCIe)
Radeon X800 XT (500/500, 16x1, 256 Bit, 256 MB, PCIe)
Radeon X1300 Pro (600/400, 4x1, 128 Bit, 256 MB, PCIe)
Radeon X1600 Pro (500/400, 4(12 Pixelshader)x1, 128 Bit, 256 MB, AGP)
Radeon X1650 XT (575/675, 8(24 Pixelshader)x1, 128 Bit, 256 MB, PCIe) Catalyst 7.1 (6.9 erkennt die Karte noch nicht)
Radeon X1800 XL (500/500, 16x1, 256 Bit, 256 MB, PCIe)
Radeon X1800 XTPE (700/800, 16x1, 256 Bit, 512 MB, PCIe)

Nvidia:
GeForce FX 5600 XT (230/133, 2x2, 64 Bit, 128 MB, AGP) *autsch*
GeForce FX 5600 (325/200, 2x2, 128 Bit, 256 MB, AGP)
GeForce FX 5700 Ultra (475/450, 2x2, 128 Bit, 128 MB, AGP)
GeForce FX 5800 Ultra (500/500, 4x2, 128 Bit, 128 MB, AGP)
GeForce FX 5950 Ultra (475/475, 4x2, 256 Bit, 256 MB, AGP)
GeForce 6200 TC (350/300, 4x1, 64 Bit, 128 MB onboard+384 MB System-RAM, PCIe)
GeForce 6600 (300/250, 8x1, 128 Bit, 128 MB, AGP)
GeForce 6600 GT (500/500, 8x1, 128 Bit, 128 MB, PCIe)
GeForce 6800 LE/XT (300/350, 8x1, 256 Bit, 128 MB, AGP)
GeForce 6800 (325/350, 12x1, 256 Bit, 128 MB, AGP)
GeForce 6800 GS (425/500, 12x1, 256 Bit, 256 MB, PCIe)
GeForce 7600 GS (400/400, 12x1, 128 Bit, 256 MB, PCIe)

S3:
GammaChrome S18 (400/350, 4x1, 128 Bit, PCIe)
Chrome S27 (700/660, 4(8 Pixelshader)x1, 128 Bit, PCIe)

Bei den S3-Karten gilt zu beachten, dass hier kein Antialiasing unter OpenGL (Quake 3, Quake 4, Prey) unterstützt wird.
Die Quake 4-Timedemo sowie die Prey-Timedemo froren mit beiden Karten immer an der selben Stelle ein. Bei Quake 4 konnte ich das Problem beheben, indem ich die Multi Core-Unterstützung des Spiels deaktivierte, doch bei Prey ist das nicht möglich, deshalb auch keine Prey-Werte.

Bei den Spieletests habe ich einerseits versucht, welche zu finden, die auch auf den kleinsten Karten noch annehmbar laufen, die aber andererseits auch noch eine gewisse Praxisrelevanz haben, die also auch noch aktiv im Internet gespielt werden. Die Demos liefen immer mindestens dreimal durch. Mit folgenden Spielen wurde getestet:

Quake 3 (1.32 mit demo four)
UT2004 (3369 mit Primeval)
Far Cry (1.33 mit HardwareOC Far Cry Benchmark 1.6 und der Demo Ubisoft-Research)
Quake 4 (1.3 mit playnettimedemo id_demo001)
Prey (1.1 mit HardwareOC Prey Benchmark und der Demo HWzone_co_il.demo)

Quake 3 wurde immer mit maximalen Details gebencht, zuerst in 1024x768, dann mit 4xAA und 16xAF und zuletzt in 1280x1024 mit 4xAA und 16xAF (AA und AF immer via CP).
UT2004 wurde immer mit maximalen Details gebencht, zuerst in 1024x768, dann mit 4xAA und 16xAF und zuletzt in 1280x1024 mit 4xAA und 16xAF (AA und AF immer via CP).
Far Cry wurde immer mit maximalen Details gebencht (Ultra-Einstellung), zuerst in 1024x768, dann mit 2xAA und 8xAF und zuletzt in 1280x1024 mit 2xAA und 8xAF (AA und AF per Benchmark-Tool).
Quake 4 wurde zuerst in 640x480 mit 'low details' gebencht, dann in 1024x768 mit 'medium details' und zuletzt in 1280x1024 mit 'high details' und 2xAA (AF wird schon durch die Details aktiviert).
Prey wurde zuerst in 640x480 mit 'medium details' gebencht, dann in 1024x768 mit 'medium details' und zuletzt in 1280x1024 mit 'high details' und 2xAA/8xAF.

Auf Transparency AA bzw. Adaptive AA sowie HQAF wurde bei allen Karten verzichtet, da dies das Ergebnis verfälscht hätte, weil das nicht von allen Karten unterstützt wird.

UPDATE 29.01.2007:
- Radeon X1300 Pro-Werte ergänzt
- Radeon X800 XT hinzugefügt
- GeForce FX 5600 hinzugefügt
- GeForce 6200 TC 128 MB hinzugefügt
- GeForce 6800 GS hinzugefügt

UPDATE 03.02.2007:
- Radeon X1800 XTPE hinzugefügt

UPDATE 27.03.2007:
- Grafikkartenbezeichnungen vereinheitlicht
- Radeon X1650 XT hinzugefügt
- GammaChrome S18 hinzugefügt
- Chrome S27 hinzugefügt

===================================

Ich danke misterh für die Bereitstellung der beiden S3-Karten. :)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Quake 3

Quake 3, maximale Details, 1024x768, kein AA/AF:
attachment.php

Hier tut sich nicht viel, praktisch alles ab der X700 Pro ist CPU-limitiert.

Quake 3, maximale Details, 1024x768, 4xAA/16xAF:
attachment.php

Die S3-Karten unterstützen kein Antialiasing unter OpenGL, daher die Nullwertung.

Quake 3, maximale Details, 1280x1024, 4xAA/16xAF:
attachment.php

Die X1300 Pro und die X1600 Pro sind hier im Bereich der Radeon 9600 XT angesiedelt und können nicht einmal eine Radeon 9700 Pro erreichen. Die GeForce FX-Karten haben hier eine durchaus konkurrenzfähige Performance und brauchen sich nicht vor ihren Rivalen zu verstecken. Die GeForce 6600 und die Radeon X1600 Pro liegen gleich auf. Die S3-Karten wurden wieder mit Null mangels Antialiasing bewertet.
 
Zuletzt bearbeitet:
Unreal Tournament 2004

Unreal Tournament 2004, maximale Details, 1024x768, kein AA/AF:
attachment.php

Absolute CPU-Limitierung bei der Auflösung 1024x768, so kennen wir unser Unreal Tournament 2004.

Unreal Tournament 2004, maximale Details, 1024x768, 4xAA/16xAF:
attachment.php

Hier sieht es auf den ersten Blick wie ein Messfehler aus. Wie können die Nvidia-Karten nur so wenig Leistung bei 4xAA und 16xAF verlieren im Vergleich zu ihren Ati-Pendants? Weitere Messungen wurden angestellt mit verschiedenen AA- und AF-Graden. Doch die Ergebnisse bestätigten sich. Offensichtlich hat Nvidia hier also kräftig Optimierungsarbeit geleistet.
Die S3-Karten brechen unter AA-Einsatz überdurchschnittlich weg. Das liegt daran, dass nicht das ressourcenschonendere Multisampling wie bei Nvidia und Ati eingesetzt wird, sondern das forderndere Supersampling.


Unreal Tournament 2004, maximale Details, 1280x1024, 4xAA/16xAF:
attachment.php

Das gleiche Bild wie gerade eben. Schon etwas merkwürdig, doch weitere Messungen bestätigen das Bild: die Nvidia-Karten verlieren von AA- zu AA-Stufe immer ein klein wenig Performance, gleiches gilt für das AF. Es wurde also wirklich 4xAA und 16xAF angewendet.
Warum hier die S18 schneller als die S27 ist, bleibt ein Rätsel. Doch diese Werte sind reproduzierbar und unterscheiden sich immer nur höchstens um ein Zehntelprozent. Die S27 bleibt auch langsamer, wenn sie in einem echten PCIe 16x-Slot läuft. Vielleicht kann jemand etwas dazu sagen.
 
Zuletzt bearbeitet:
Far Cry

Far Cry, maximale Details, 1024x768, kein AA/AF:
attachment.php

Der Action-Kracher aus dem Jahre 2004, als Radeon 9800 Pro und GeForce FX 5950 Ultra das High-End-Segment darstellten, bringt selbst jetzt noch aktuellere Karten ins Schwitzen. Die Radeon X1600 Pro kann hier ihre 12 Pixelshader voll ausspielen und sich von ihrer Schwesterkarte, der X1300 Pro, mit knapp 50% Vorsprung absetzen. Selbst die Radeon X700 Pro hat einen beachtlichen Vorsprung vor der Radeon 9800 Pro dank der Unterstützung von Pixelshader 2.0b seitens Far Cry. Das katastrophale Abschneiden der GeForce FX-Karten ist der sehr schlechten Pixelshader 2.0-Leistung der FX-Serie zuzuschreiben.

Far Cry, maximale Details, 1024x768, 2xAA/8xAF:
attachment.php

Auf Grund ihrer Rohleistung kann sich die GeForce FX 5950 Ultra ein klein wenig verbessern. Der Vorsprung der Radeon X1600 Pro vor ihrer kleinen Schwester, der X1300 Pro, schmilzt schon wieder dahin. Auf Grund ihrer geringen Pixelfüllrate kann sie ihre Pixelshader-Stärke nicht mehr ausspielen. Die FX 5600 brachte leider nur Grafikfehler zustande, daher keine Wertung.

Far Cry, maximale Details, 1280x1024, 2xAA/8xAF:
attachment.php

Das gleiche Bild wie eben. Anhand des Vergleichs zwischen Radeon 9500 und Radeon 9550 sieht man gut, was ein größeres Speicherinterface bringt, wenn es an Pixelfüllrate mangelt: gar nichts. Die FX 5600 hatte wieder Treiberprobleme (Grafikfehler).
 
Zuletzt bearbeitet:
Quake 4

Quake 4, low Details, 640x480, kein AA/AF:
attachment.php

CPU-limitiert ab ungefähr GeForce 6600 GT. Die GeForce FX-Karten kommen gut mit, offensichtlich setzt Quake 4 kaum auf größere Pixelshader-Effekte.
Die Chrome S27 könnte hier sicher höhere Werte erzielen, doch leider stürzt das Spiel mit aktiver Multicore-Unterstützung auf S3-Karten ab.

Quake 4, medium Details, 1024x768, kein AA/AF:
attachment.php


Quake 4, high Details, 1280x1024, 2xAA:
attachment.php

Trotz ihrer 128 MB RAM und ihres 128-bittigen Speicherinterfaces kann die GeForce FX 5800 hier fast mit der FX 5950 Ultra mithalten. Offensichtlich limitiert hier etwas Anderes. Die FX 5600 lieferte hier wieder wunderbare Grafikfehler.
 
Zuletzt bearbeitet:
Prey

Prey, medium Details, 640x480, kein AA/AF:
attachment.php

Anhand der Leistung der GeForce-FX-Reihe erkennt man schon, auf was es in diesem Spiel ankommt: Shaderpower! Die gute Leistung der Radeon X1600 Pro im Vergleich zur X1300 Pro bestätigt dies.
Die beiden S3-Karten bleiben bei Prey leider außen vor, da das gleiche Problem wie bei Quake 4 mit aktiver Multicore-Unterstützung auftritt: das Spiel friert ein.

Prey, medium Details, 1024x768, kein AA/AF:
attachment.php


Prey, high Details, 1280x1024, 2xAA/8xAF:
attachment.php

Immer noch, trotz der weitaus überlegenen Rohleistung der GeForce FX 5950 Ultra: kein Land zu sehen gegen die kleinste Ati-Karte. Die Radeon X1600 Pro kommt sogar in dieser fordernden Einstellung zu einem guten Ergebnis. Zum Ergebnis der GeForce FX 5600XT gibt es nichts weiter zu sagen, diese 0,8 fps erweckten in mir den Wunsch nach einem Hammer. Und die FX 5600 erzeugte wieder nur chaotische bunte Pixel.
 
Zuletzt bearbeitet:
Erkenntnisse

Welche Erkenntnisse haben wir nun gewonnen? Da wäre zuerst einmal der Vergleich GeForce 6600 GT mit Radeon 9800 Pro. Beim Erscheinen der Nvidia-Karte waren beide meist gleichauf, doch nach ein paar Jahren Treiberentwicklung kann sie sich gut absetzen, mittlerweile ist die GeForce 6600 (ohne GT) in der Nähe der Radeon 9800 Pro.
Die Radeon X1600-Reihe ist so ziemlich das genaue Gegenteil der GeForce FX-Reihe: wenig Rohleistung, aber viel Pixelshader-Leistung. Dieses Ungleichgewicht rächt sich genau so wie bei den FX-Karten: in manchen Fällen (UT2004) ist sogar die X1300 Pro schneller als die X1600 Pro auf Grund ihrer größeren Pixelfüllrate.
Die GeForce FX-Karten sind für grafisch anspruchsvolle Spiele wirklich kaum noch zu gebrauchen.
Die X1650 XT hat theoretisch 73 % mehr Pixelshader-Leistung als die X1800 XL (575*24 zu 500*16), doch kann sie diesen Vorteil nirgendwo ausspielen - ähnlich sieht es beim Vergleich von R520 (X1800-Reihe) zu R580 (X1900-Reihe) aus, wie viele Reviews im Netz zeigen.


Wer meint, seine Grafikkarte gehört unbedingt mit rein, der möge mir bitte seine Karte leihweise zur Verfügung stellen. :)
 
Zuletzt bearbeitet:
Super Arbeit, großes Lob. Das sieht man was alte Karten noch können (bzw. nicht können).
 
Ich fänd eine Relation zur aktuell dicksten Karte bzw. einer aus dem HighEnd-Bereich sehr gut, denn mir persönlich fehlt oft das Gefühl dafür, wie stark die Midrangekarten leistungstechnisch abzustufen sind, wenn man Highend betrachtet.
 
Echt super. Würde dir gern mal meine X1900GT Rev. 1 @ 660/810 zum testen schicken aber dann hab ich keine Karte mehr. ^^

Aber echt gut gemacht.
 
@Lord:

Dann schick ihm doch eine 8800 GTS/X :-)
Mich wunderts überhaupt wo er so unglaublich viele Grafikkarten her hat. Meine Hochachtung hast du auf jeden Fall Archon, steckt sicher sehr viel Arbeit dahinter!
 
Sehr schöne Tests, zeigen mal deutlich wie sehr die Grafikkarten stärker geworden sind.
Eine Frage hätte ich da noch, wie groß war dein Budget, das muss doch Unsummen gekostet haben.
 
hehe danke für den Treat, da freue ich mich auf meine gt 6600 die stadt einer radeon 9800 pro kommt gleich 100 mal mehr *gggggggggg*
 
die 6600Gt ist immernoch ne Hammer gute karte bei 1024!
da kann die 9800pro wenn sie noch leben sollte nicht drann!:shot:

bei mir lebt sie noch, aber nicht mehr lange.

wenn noch eine 8800 gts / gtx in der liste wäre, könnt ich sehen, wieviel mehr power ich in ein paar monaten haben werden.


schöner thread :angel:
 
Sehr schöne Tests, zeigen mal deutlich wie sehr die Grafikkarten stärker geworden sind.
Eine Frage hätte ich da noch, wie groß war dein Budget, das muss doch Unsummen gekostet haben.
Nun ich habe so Oktober-November rum den 3dcenter-Marktplatz leergekauft. :d
So 30-50 Euro rum habe ich meist für die kleineren Karten bezahlt, bis zu 100 Euro für die 6800er. Aber mich hat die Sache eben einfach mal interessiert, und so einen Test habe ich bisher nicht im Internet gefunden.
bei mir lebt sie noch, aber nicht mehr lange.

wenn noch eine 8800 gts / gtx in der liste wäre, könnt ich sehen, wieviel mehr power ich in ein paar monaten haben werden.


schöner thread :angel:
Die 8800er Karten laufen nicht auf dem Asrock 775Dual-VSTA. :(
hast du das alles selber zusammen gestellt ? wenn ja dannn...... BOAH hast du langeweile :d

Danke ! :d
Na klar habe ich das alles selber gemacht. :)
 
schöner vergleichstest, gefällt mir

wünsch dir viele rfolg beim verticken der karten, wo du doch jetzt gezeigt hast, welche was taugen und welche nicht ^^

mfg
 
Hi, kleiner Tippfehler glaub ich.
Die Radeon 9500 hat bei dir 256bit SI.
Falls die karte keine Speicher in L-Form hat und du die restlichen Pipes und das 256bit SI freigeschaltet hast, wovon ich mal nicht ausgehe, da in der Aufzählung 4pp stehen, dürfte das ein kleiner Fehler sein.

:wink:
 
Kein Tippfehler, das ist schon richtig so. Der Speicher ist L-förmig angeordnet, also 256 Bit-Speicherinterface. Und eben ganz normal vier Pipes aktiv, wie bei jeder Radeon 9500. Mit dem Pipe-Mod (also freischalten der anderen vier Pipes) wäre das eine vollwertige Radeon 9700.
 
Aber wird das 256bit SI nicht erst aktiv wenn auch alle PP´s aktiv sind?
Lasse mich aber gern eines besseren belehren.
 
Alle Achtung super Arbeit ...! Cooles Ding....
 
super liste!!!
würde dir gerne noch meine x1800xt senden, aber dann hätt ich nix mehr.. außerdem is ja wakü dran ;( (oder doch: :d)

auf jeden fall vielen dank für die arbeit. hätte nicht gedacht, dass z.b. die 6800gs so weit oben ist.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh