[Performance-RoundUp] XFX 7900GS 600M vs. X19x0 vs. 79x0

y33H@

Enthusiast
Thread Starter
Mitglied seit
14.05.2007
Beiträge
2.704
Inhalt

1) Einleitung
2) Technische Details
3) Testsystem
4) Benchmarks und Performancerating
5) Schlusswort




1) Einleitung

Aktuell bietet der Markt bis 150€ eine Menge an verfügbaren Karten, welche um die Gunst des Käufers buhlen. Doch wo bekommt man die meisten Leistung, und das auch noch möglichst günstig? "Kauf dir eine X1950Pro, die gibts mit Versand als leise Version (zB die Powercolor) ab 120€" lautet meistens die Antwort. Doch in den letzten Wochen ist eine der schon gerne als veraltet und langsam verschrieenen Geforce 7900GS Karten ins Licht der Zocker gerückt, die (recht laute) XFX 7900GS 600M, erhältlich für 105€. Ob sie der X1950Pro Paroli bieten kann und wie sie sich gegen allerhand andere GPUs schlägt, zeigt das folgende RoundUp.


2) Technische Details


specsnewgtvk3.jpg

Die X19x0 GPUs kommen mit gewaltiger Shaderpower und hohem Stromverbrauch daher, liegen aber in Sachen GTex/s und Bandbreite teils deutlich hinter der Konkurrenz. Die 7900GS und 7900GT differenzieren sich nur in der Anzahl der Pixel Pipelines und den Vertex Einheiten, hier ist ein Vergleich besonders interessant. XFX poliert mit dem auf satte 600MHz erhöhten Chiptakt das Manko der 7900GS - die vergleichsweise niedrigen GFLOP/s - aus und bietet zudem die größte Speicherbandbreite.​


3) Testsystem





  • 7900GS/256 (450/660)
  • 7900GT/256 (450/660)
  • XFX 7900GS 600M/256 (600/800)
  • 7950GT/512 (550/700)
  • X1950GT/256 (500/600)
  • X1950Pro/256 (575/690)
  • X1900XT/512 (621/720)

  • Intel Core2Duo E6300 @ 2.4GHz
  • 2 x 1024Mb DDR2-667 CL5
  • Intel 965P Chipsatz
  • Windows XP Professional SP2 32Bit
  • Forceware 162.18 (Hohe Qualität, Optimierungen aus)
  • Catalyst 7.10 (A.I. Standard, Optimierungen aus)



4) Benchmarks und Performancerating

Verwendete Benchmarks:

  • 3D Mark 06 v1.0.2 free
  • Call of Duty 2 v1.3 (Echtzeit-Demo)
  • Crysis SP Demo (integrierter GPU-Benchmark)
  • FEAR v1.07 (integrierter Benchmark)
  • Half Life² - Lost Coast (Echtzeit-Demo)
  • Prey v1.1 (Timedemo)
  • Unreal Tournament 3 Demo Beta (Deathmatch mit 5 Bots)
  • World in Conflict Demo (integrierter Benchmark)

Verwendete Settings (alle bei maximalen Details):

  • 1024*768
  • 1280*1024
  • 1280*1024 mit AA/AF (UT3 mangels AA mit 16:1 AF; Crysis ohne AA/AF, da sonst unspielbar)




3D Mark 06

3dmark060up.jpg

Futuremarks synthetischer Klassiker darf natürlich nicht fehlen. Zwar verfügt er über keine reelle Spieleengine, so dass die Ergebnisse teils mit Vorsicht zu genießen sind, bildet aber einen guten Maßstab um schnell und einfach eine Leistungsprognose abgeben zu können. Die CPU erreicht hierbei einen Score von 2066 Punkten.

3dmark06newgtgj2.jpg


Die 7900GS, 7900GT und X1950GT sind abgeschlagen, die X1950Pro kratzt an der 5000 Punkte Marke und verfehlt somit knapp das Treppchen. Die 7950GT kann sich gerade einmal 2% von der XFX absetzen, die X1900XT ist der klare Sieger.




Call of Duty 2

cod28oz.jpg

Das Release von Infinity Wards zweitem Streich ist zwar nicht ganz so lange her wie der zweite Weltkrieg, der Shooter bietet aber noch immer eine detaillierte Optik und fordert insbesondere die Grafikkarte. Die Timedemo zeigt den Angriff der Briten auf das kleine Küstenstädtchen Al Daba und zehrt mit der Darstellung von volumetrischem Rauch, heftigen Explosionen und massivem Sperrfeuer sehr an den Ressourcen der GPUs.

cod2newgtil7.jpg


Ohne AA/AF setzen sich die Radeons an die Spitze, gefolgt von der 7950GT und der kaum langsameren XFX. Zieht die grafische Qualität an, rücken aber alle Karten näher zusammen, praktisch ist 1280*1024 mit 4xAA und 8:1AF aber nur auf der X1900XT halbwegs flüssig spielbar, unter 45fps sind einfach zu wenig für diesen flotten Shooter. Nur dank den 512Mb lässt die 7950GT die XFX knapp hinter sich, kein Wunder, die Timedemo schluckt 290Mb VRAM.​




Crysis

crysisjwk.jpg

Warum stirbt man in Crysis trotz Nano Suit schneller als man Maximum Armor sagen kann? Weil die grafische Qualität derartig grandios und brillant ist, dass man die Gegner vor lauter Staunen schlicht vergisst. Denn die Macher von Far Cry ziehen in Crysis alle Register, die in Sachen bombastischer und phänomenaler Inszenierung nur denkbar sind. Von HDR Rendering, Depth of Field, Motion Blur und Parallax-Occlusion-Mapping über ein unglaublich realistisches Pixelnass und eine lebensechte Vegetation samt Soft Shadows bis hin zu einer Physik, die es erlaubt, nahezu alles in seine Einzelteile zu zerlegen, bietet der wohl am meisten erwartete Shooter aller Zeiten jede erdenkliche technische Facette, die ein Spiel aktuell überhaupt bieten kann. Dröhnende Explosionen mit Hitzeflimmern sowie volumetrischem Rauch und hämmernde Schüsse aus den AK-47 der gerissenen KI-Recken perfektionieren das auch spielerisch umwerfende Produkt aus Deutschland. Doch Crysis lässt nicht nur die Sehnerven kapitulieren, sondern bringt problemlos auch die schnellste verfügbare Hardware ans absolute Limit - das ist der Preis, den man für maximalen Grafikgenuss zahlen muss. Die SinglePlayer Demo bringt den hier genutzten GPU-Benchmark mit sich, welcher die InGame Performance gut abbildet - das eigentliche Spiel läuft allerdings des öfteren rund 20% langsamer als der GPU-Bench..

crysis_gpucep.jpg


Einzig die X1900XT erzielt in 1280*1024 noch einigermaßen spielbare Werte mit mittleren Details, Besitzer einer der beiden X1950er müssen sich mit 1024*768 zufrieden geben. Es fällt auf, dass "middle" rund doppelt so schnell läuft wie "high", die Leistungsfresser sind aber schnell gefunden: Senkt man ausgehend von allem auf "high" die für die optische Brillanz sehr entscheidenden Shader und die Schatten auf "middle" (mittlere Schatten sehen kaum schlechter aus als auf "high"), springen die fps um 60%, ergänzt man noch mittlere Objektdetails, sind es gar über 80% mehr fps - die restlichen Optionen sollte man auf "high" lassen, gerade eine verringerte Physik trübt den Spielspaß unverhältnismäßig stark.
Maximale Optik bzw. "very high", welches sonst nur unter DX10 läuft, halbiert die Framerate ausgehend von "high", um diesen Detailreichtum flüssig darzustellen muss ein 8800GTX/Ultra Doppel her, die 8600er Reihe ist selbstredend absolut untauglich für DX10.

! Maximale Details, d.h. "very high", wurden per editierter game.cfg erzielt, diese game.cfg und weitere Benchmarks von CPUs und (V)RAM sowie zusätzliche Bilder und Infos finden sich in Post#26





FEAR

fearv1l.jpg

Wer Angst vor kleinen Mädchen hat, sollte Monoliths Schocker im Regal stehen lassen, die Schreckmomente sorgen für eine drastisch erhöhte Pulsfrequenz. Die Grafik lässt das Blut zwar ebenfalls in Wallung geraten, aber nicht aus Angst, sondern vor allem dank der Soft Shadows und den wahnwitzigen Partikeleffekten - nie war der Einsatz der Schrotflinte auf surreale Art und Weise schöner und effektvoller als mit aktivierter Zeitlupe, raumkrümmenden Explosionen samt Druckwelle und sirrenden Kugeln, die satt in Gegner und Wand einschlagen - bröckelnden Putz inklusive.

fearnewgtuq4.jpg


Die Lith-Tech-Engine frisst Shaderpower zum Frühstück, sämtliche Karten sortieren sich über alle Auflösungen hinweg exakt nach ihrer GFLOP Leistung ein, die X1950GT bildet die Ausnahme. Klarer Spitzenreiter ist die X1900XT, die den kleinen Bruder um satte 29% abhängt. Eben diese X1950Pro liegt bis zu 11% vor der drittplazierten 7950GT und 15% vor der X1950GT, die XFX hat das Nachsehen und reiht sich 10% hinter der 7950GT ein. Spannend ist der Vergleich der 7900GS und 7900GT, letztere verfügt über ein Pixel-Quad und einen Vertex Shader mehr, ist aber ansonsten identisch. Die 20% mehr theoretische GFLOP/s werden in 12% mehr fps umgemünzt. Auch in FEAR gilt, nur die X1900XT schafft es, die hohe Auflösung mit Kantenglättung und anisotroper Filterung einigermaßen flüssig zu bewältigen - deaktiviert man die Soft Shadows, springen bei allen Karten rund 30% mehr fps heraus, nur die 7900GS und 7900GS bieten weiter kaum spielbare Leistung.​





Half Life² - Lost Coast

hl2_lczla.jpg

Die verlorene Küste glänzt im wahrsten Sinne des Wortes - Valve verwendet hier erstmals HDR in der Source-Engine. Zusammen mit hochauflösenden Texturen ist Lost Coast recht anspruchsvoll und stellt anschaulich die Leistung der kommenden Episode Two dar. Die Timedemo deckt die komplette Szenerie ab, los geht es unten bei dem alten Fischer, über die umkämffte Steilwand bis in den lichtdurchluteten Innenhof.

hl2newgthi6.jpg


Valves Source Engine liegt den Radeons, das ist altbekannt, doch aufgrund der ebenfalls bekannten und für einen Shooter relativ hohen CPU-Limitierung kann sich die gerade die X1950Pro nicht weit absetzen, die X1950GT liegt sogar minimal hinter der XFX. Doch gerade die 7900GT gewinnt einen klaren Vorsprung vor der 7900GS, die XFX und die 7950GT trennen nur wenige fps zugunsten der 512Mb Karte - die Demo verlangt nach 270Mb VRAM.​




Prey

prey7kl.jpg

Der innovative Shooter rund um den Indianer Tommy, der seine Freundin und sich vor Aliens rettet, basiert auf Doom 3 Engine von id Software, welche erstmals im namensgebenden Horrorspiel zum Einsatz kam. Stencil Shadows und sehr organische Strukturen machen die Hatz durch fremde Welten optisch zu einem Genuss, die verwendete Timedemo führt den Cherokee durch den ersten Level, einige Gänge mit Licht und Schatten
sowie zwei Kämpfe mit kleineren Aliens, zeigen das Potential der OpenGL Engine.

preynewgthu7.jpg


Erwartungsgemäß kann sich die Geforce Riege gegen die X1950Pro gut behaupten und in Führung setzen, die X1950GT ist allerdings genauso wie die 7900GS etwas abgeschlagen. Human Head Studios Werk ist nicht allzu shaderlastig, daher kann sich die 7900GT kaum von der 7900GS absetzen, die XFX aber spielt ihre Rohpower aus und erkämpft sich erstmals den zweiten Platz, jedoch muss sie mit AA/AF Federn lassen. Prey ist zwar selbst mit der schwächsten Karte, der X1950GT, noch bei bester Qualität flüssig spielbar, für kommende Titel mit der Doom 3 Engine sollte es aber eher eine 7950GT oder schneller sein.​





Unreal Tournament 3

ut3sht.jpg

Double Kill, Multi Kill, Monster Kill - das neue Unreal Tournament 3 lässt ein Grinsen übers Gesicht wandern. Das Spielprinzip, die Waffen und der Sound ähneln dem hochgelobten Vorgänger, neu ist die bombastische Unreal Engine 3. Diese bietet dank des Deferred-Shading Renderers, Virtual-Displacement-Mapping, grandiosen Texturen und sanften Schatten eine phänomenale Optik, geht allerdings überraschenderweise nicht allzu Hardwarefressend zu Gange - wohl auch deswegen, weil in der Demo mittlere Details und Texturen das Höchste der Gefühle sind. Auf der Map Shangri La müssen sich fünf Masterfull-Bots vermöbeln lassen - drei Minuten reichen um ihnen zu zeigen, wer's wirklich drauf hat.

ut3newgthd1.jpg


UT3 ist eine Bank für die Radeons, vor allem die X1900XT prescht mit bis zu 39% Vorsprung der X1950Pro davon, welche wiederum deutliche 20& vor der X1950GT und ebenso deutliche 25% vor der XFX landet. Die 7950GT muss sich der XFX um 1-2fps geschlagen geben, ist der normalen 7900GS aber um 45% voraus. Mit minimalen Details kratzt die X1900XT bereits an der Obergrenze von 64fps - mehr lässt UT3 aufgrund eines Framelocks ohnehin nicht zu.​




World in Conflict

wicxdi.jpg

Der kalte Krieg ist vorbei? Mitnichten, World in Conflict macht ihn mit sehenswerten, herrlichen rauchigen Explosionen, grandioser Beleuchtung und knackigen Texturen heiß und aktuell wie nie zuvor. Zusammen mit der ebenfalls gelungenen Physiksimulation ist diese Engine ein harter Brocken für das komplette System.

wicnewgtxb2.jpg


Der kalte Krieg wird heiß und die Russen stürmen die USA. Und genauso wie die Russen die sonst übermächtige USA überrennt, zeigen die Geforces den bisher oft übermächtigen Radeons wo Hammer und Sichel hängen. Die X1950GT ist in 1024*768 die langsamste Karte, die XFX ist 23% schneller, muss sich aber um ein fps der X1900XT beugen - praktisch ist mit allen Karten aber ohnehin nur die kleinste Auflösung flüssig. Vor allem der "langsame" Prozessor verhindert höhere Ergebnisse, denn wenn die Atombombe einschlägt, verharren alle GPUs bei rund 10fps und staunen ob der Zerstörungsgewalt. Die beiden 512Mb Karten erreichen prozentual gesehen deutlich "höhere" minimum fps, der Benchmark benötigt über 340 Videospeicher - das können die nur mit 256Mb ausgestatteten Karten nicht lokal decken.​




Performancerating

Hier werden nun sämtliche Ergebnisse gemittelt und man kann das durchschnittliche Potenzial der jeweiligen GPU ablesen - der 3D Mark und Crysis bleiben außen vor.

ratingnewgtgf2.jpg


Das Resultat ist eindeutig, die XFX ist einer 7950GT absolut ebenbürtig, beide müssen sich aber um bis zu 12% der X1950Pro geschlagen geben, zur X1900XT fehlen 39%. Letztere kann sich um maximal 24% vom kleinen Bruder X1950Pro lösen, die langsamste X19x0, die GT, ordnet sich maximal 11% hinter der Pro-Version ein. Die normale 7900GS unterliegt aufgrund der fehlenden Funktionseinheiten der 7900GT um rund 9%, die von XFX aufgedonnerte Version schnellt mit 20% weit davon. Auch die 512Mb der 7950GT machen sich dezent bemerkbar, die minimum fps sind mit fordernden Settings etwas höher. Das die Unterschiede nicht deutlicher ausfallen, liegt vor allem an den beiden Spielen UT3 und WiC, hier bremst der verwendete Prozessor alle Karten aus und limitiert die Benchmarks.


5) Schlusswort

XFX hat eine interessante Karte in petto, die Radeon X1950Pro ist rund 15€ teurer, jeodch 12% schneller. Die leicht schlechtere Bildqualität der Geforce verblasst nahezu, denn für anisotrope Filterung und Kantenglättung fehlt ohnehin oft genug die Power, gerade bei aktuellen Titeln. Als Manko bleibt eindeutig der laute Lüfter, ein Zalman VF-700Cu sorgt hier für Ruhe, aber auch einen 15€ höheren Preis - hierfür bekommt man schon eine leise Palöit X1950GT/512. Wer ein klein wenig sparen möchte, ein schwaches Netzteil und schlechte Ohren hat und ohnehin nur in 1024*768 spielt, kann zur XFX greifen, der Rest hält sich an die übliche Antwort: "Kauf dir eine X1950Pro (oder X1950GT^^)".

cYa

Kritik und Feedback wie immer erwünscht!
An dieser Stelle geht noch ein Dankeschön an Felix "BurnoutHerbert" E., John V. und Tom W. für die Bereitstellung ihrer Grafikkarten!​
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nich geoced sind die 7900er nicht allzu gut, z.b. habe ich 6700 punkte in 3D mark 06 mit meiner 7900GT @660/850, bei ca. 2000 CPU punkten.
 
Jo, passt - die 7950GT @ GTX kommt bei mir auf fast das Gleiche Ergebniss.

cYa
 
Kann man die XT etwa nicht übertakten?

:shot:

Guter Test.
 
ein schöner test, ich bin auf die kleinen dx10er gespannt :)
 
Also eine 7900GTX/GTO oder 7800GTX/512 (= quasi ne 7950GT) kann eine X1900XT in aktuellen Spielen kaum schlagen, die Shader "taugen nix".
Und ich hatte eine 7900GS, eine 7950GT und drei 7900GT da, nur die 7950GT war auf 650MHz GPU-Takt zu bringen, die andren kapituliereten vorher. Auch die 7900GS wollte keine 600/800 machen, also musste eine 7900GT herhalten - OC auf 600/800 und ein Pixel-Quad und ein Vertex via Rivatuner deaktiviert.

cYa
 
So Jungs,

Die Diagramme haben nun aussagekräftigere Farben, eine Legende und mein Wasserzeichen.
Die 8600GTS (und somit die 8600GT) hat sich für Freitag angekündigt - d.h. ab Sonntag/Montag gibts neue Benches, mit ein wenig Glück die HD2600XT noch drauf, zudem versprochen noch die X1950GT.

cYa
 
Guter Test thx, Hab mir eine XFC 7900 GS geholt für 92 euro. Also laut ist die mega wie ein staubsauger in games hehe aber hab noch nen zalman hier rumliegen werd ich ma draufbaun. Finde die gut zum übergang
 
Also, die 86GTS (und somit die GT) ist da und eine heruntergetaktete X1950Pro simuliert die X1950GT, bis Montag sind alle 3 wohl in den Benches drin.

cYa
 
hast dir echt viel mühe gegeben,klasse, für mich aber leider 1,5 jahre zu spät
 
hast dich aber bei einem der bilder vertan unter Ut3 steht world in Conflickt ^^
 
Ist schon geändet, zudem ist die X1950GT nun auch drin.

cYa
 
Das nenne ich mal einen schönen und übersichtlichen Test! Bin schon auf die nächsten gespannt... :)
 
Der ist ja noch nicht mal fertig :d
8600 und HD2600 fehlen, bei CB (meine Heimat^^) läuft ne Umfrage ob noch Titel wie Crysis, CoD4 u.a. dazu kommen sollen.

cYa
 
Hey,
in ein paar Internet Foren steht, dass die 7900GS 600M einen GT Chip benutzt, um das Lager an GT Chips leer zu bekommen.
Deshalb würde ich, wie bereits genannt, einfach mal testen, ob man diese bei der 600M freischalten kann.

Gruß
Dennis
 
Klasse Test!
Ich werde die Gelegenheit nutzen und hier meine Tests mit ner 2600XT DDR3 dazu posten. Diese dürfte sich wohl im bereich der 7900gs einordnen.
Dieser Test hilft sicher einigen Leuten, die sich eine der attraktiven Karten im 100 euro Segment anschaffen möchten!

Schon mal ein großes Lob!

Edit:
Viel konnte ich nicht testen, da ich ja nicht weiß was genau du gemessen hast.

Trotzdem hier mal die Werte des 3Dmark und des WiC Benchmarks.
Mein System: AMD X2 2600 MHZ (260x10), bei 2GB DDR333; nf4 Board und Sapphire HD2600 XT mit Cat. 7.10.

3Dmark06 V1.0.2 free
SM2 - SM3 - CPU - Gesamt: 1559 - 1982 - 1957 - 4490

Wie man sieht ist meine CPU leicht unterlegen. Die Werte trotzdem angemessen.

WiC, Einstellung auf "Very High".

1024x768 (ohne AA/AF): Average - Min - Max: 19 - 10 - 52
1280x1024 (ohne AA/AF): A - Min - Max: 18 - 8 - 41
1280x1024 (4xAA/4xAF): A - Min - Max: 9 - 5 - 20

Man sieht gut das die neue Mittelklasse Karte bei aktivem AA/AF wohl keine Konkurrenz zu den High-Ends der letzten Generation darstellt. Obwohl die Werte natürlich nur Hausnummern darstellen zeigt sich doch eine Tendenz.
 
Zuletzt bearbeitet:
schöner Test, ich hatte eine 7900GS Golden Sample auf 600/800, wenn ich da nur geschrieben habe, das ich an eine 1950pro rankomme, wurde ich hier im Forum von einigen als Spinner und Lügner dargestellt! << schön das du das jetzt mal mit diesem bench wiederlegst!

Mom glaubt auch keiner, das eine 8600GTS mit OC an einer 1950pro vorbeikommt!
 
Du bist der Mann des Tages. Das ist echt der Wahnsinn. Super Testbericht. Dem kannste jeden ans herz legen, der momentan keine graka für 200-300€ kaufen will.
Danke , Danke, Danke!!!
 
Freut mich, dass es euch gefällt :d
Die 8600GTS und GT kommen wohl bis nexte Woche drin, desweiteren gibs Benches von Timeshift, CoD4 und - tata - Crysis.

cYa
 
Genau nach soeinem Bericht habe ich gesucht, Danke!
Wie leise wäre dend die XFX 600M mit einem Zahlmann Kühler? Ich will ne wirklich sehr leise Karte einbauen in meinen neuen Rechner ;)
 
Mir ist ein VF-x00 auch bei 5v noch zu "laut", normalsterbliche dürften ihn aber praktisch nicht hören :d

cYa
 
@ Tinpoint

Hier wars zu erst oben :d Wie üblich, Post Recycling^^

So hier alles zu Crysis, die GPU Benches sind auch oben drin


Warum stirbt man in Crysis trotz Nano Suit schneller als man Maximum Armor sagen kann? Weil die grafische Qualität derartig grandios und brillant ist, dass man die Gegner vor lauter Staunen schlicht vergisst. Denn die Macher von Far Cry ziehen in Crysis alle Register, die in Sachen bombastischer und phänomenaler Inszenierung nur denkbar sind. Von HDR Rendering, Depth of Field und Motion Blur über ein unglaublich realistisches Pixelnass und eine lebensechte Vegetation samt Soft Shadows bis hin zu einer Physik, die es erlaubt, nahezu alles in seine Einzelteile zu zerlegen, bietet der wohl am meisten erwartete Shooter aller Zeiten jede erdenkliche technische Facette, die ein Spiel aktuell überhaupt bieten kann. Dröhnende Explosionen mit Hitzeflimmern sowie volumetrischem Rauch und hämmernde Schüsse aus den AK-47 der gerissenen KI-Recken perfektionieren das auch spielerisch umwerfende Produkt aus Deutschland. Doch Crysis lässt nicht nur die Sehnerven kapitulieren, sondern bringt problemlos auch die schnellste verfügbare Hardware ans absolute Limit - das ist der Preis, den man für maximalen Grafikgenuss zahlen muss. Die SinglePlayer Demo bringt den hier genutzten GPU-Benchmark mit sich, welcher die InGame Performance gut abbildet - das eigentliche Spiel läuft sogar meist etwas flüssiger.

crysis_gpucep.jpg

Einzig die X1900XT erzielt in 1280*1024 noch recht gut spielbare Werte mit mittleren Details, Besitzer einer der beiden X1950er müssen sich mit 1024*768 zufrieden geben. Es fällt auf, dass "middle" rund doppelt so schnell läuft wie "high", die Leistungsfresser sind aber schnell gefunden: Senkt man ausgehend von allem auf "high" die für die optische Brillanz sehr entscheidenden Shader und die Schatten auf "middle" (mittlere Schatten sehen kaum schlechter aus als auf "high"), springen die fps um 60%, ergänzt man noch mittlere Objektdetails, sind es gar über 80% mehr fps - die restlichen Optionen sollte man auf "high" lassen, gerade eine verringerte Physik trübt den Spielspaß unverhältnismäßig stark.




Optikvergleich und Bildformat



_normal0tj.bmp
_widef3n.jpg

Betrachtet man die Screenshots, fallen bei "low" sofort die fehlenden Schatten, die teils weggestrichene Vegetation und die stark vereinfachte Beleuchtung auf. Mit mittleren Details sind die Schatten bereits nahezu vollständig vorhanden, sämtliche Pflanzen erfreuen das Auge und nette Lichtspiele schmeicheln der Netzhaut. "High" bietet erstmals das volle LOD, alles wirkt zudem geglättet und einfach feiner, zudem ist die ganze Szenerie sichtlich realistischer ausgeleuchtet. Den absoluten Overkill bieten die (leider) unspielbaren maximalen Details, die entsprechend editierte game.cfg befindet sich im Anhang. Alles gleißt im morgendlichen Licht, einzelne Sonnenstrahlen brechen zwischen den Palmwedeln hindurch und die man fühlt sich wirklich vom Sonnenaufgang geblendet. Das Wasser erhält Soft Partikel und wirkt, als ob es gleich aus dem Monitor schwappen würde - Reizüberflutung könnte man sagen. Jeder Nutzer eines CRTs oder eines TFTs mit einer Grafikkarte mit deren Treibern man die Skalierung beeinflussen kann, sollte unbedingt mit einer 16:9 Auflösung wie zB 1280*720 (HDTV 720p) spielen. Nicht nur, dass die genannte Auflösung gut 15% schneller läuft als die üblichen 1280*1024 Bildpunkte, zusätzlich hat man einen viel größeren horizontalen Blickwinkel, ohne das oben und unten Details verloren gehen - ein realistischeres Spielvergnügen ist so möglich, denn ein solcher Blickwinkel entspricht viel mehr dem unserer Augen im echten Leben. Außerdem werden HUD und Waffe kleiner und stören weniger, wer sich diese taktischen (man sieht nicht nur mehr, sondern auch zB die Gegner früher) und Spielspaß fördernden Vorteile entgehen lässt, ist selbst schuld.



(V)RAM Verbrauch

crysis_ramxhb.jpg

Alle Besitzer eine 256Mb Karte können sich beruhigt zurück lehnen - mit mittleren Details werden nur knapp 200Mb des kostbaren Speichers benötigt. Hohe Details schlucken deutlich über 300Mb, hier können nur Karten mit 512Mb oder mehr noch punkten - die 8800GTS/320 hat einmal mehr das Nachsehen. Jedoch erscheint der VRAM Verbrauch im Vergleich zur Beta zu niedrig, warum dem wohl so ist, greift der letzte Absatz nochmals auf. Keine Kompromisse kann man beim normalen RAM machen, mit nur 1024Mb muss mit Nachladerucklern gerechnet werden, zwei Gigabyte sind Pflicht, nur wer sich auf mittlere Details beschränkt, dem reichen auf noch 1,5Gb. Das finale Spiel dürfte aber sicherlich noch einige Momente bereithalten, in denen 512Mb VRAM und 2Gb RAM nicht mehr ausreichen, allerdings wird dann ohnehin die GPU limitieren. Wie gehabt, wurden zur Ermittlung dieser Werte der E6300 @ 2.4GHz und die X1900XT/512 benutzt.



CPU- und GPU Limitierung bzw. Skalierung


Neben den obligatorischen 2Gb RAM kamen wieder einmal die X1900XT/512 und ein unterschiedlich schnell getakteter E6300 zum Einsatz, neben dem GPU-Benchmark durfte auch der CPU-Benchmark ran.

crysis_cpusd9.jpg

1GHz mehr Takt bringen bei niedrigen Details zwar bis zu 28% mehr fps, doch da schon 1.86GHz für eine absolut flüssige Framerate ausreichen, ist das praktisch egal. Dreht man alle Regler eine Stufe nach oben, kann sich der E6300 @ 2.4GHz von dem normalen E6300 um 44% absetzen, die mit 2.8GHz getaktete CPU bringt es im CPU-Benchmark auf mehr als das doppelte an Bildern pro Sekunde - bei einer Taktsteigerung von nur 29% respektive 51% mehr ein überaus erstaunliches, aber reproduzierbares Ergebnis. Der GPU-Benchmark fällt bei "middle" dagegen sichtlich GPU lastiger aus, hier rücken die Prozessoren eng(er) zusammen, bei "low" kann sich die Radeon entfalten und beschleunigt die fps um bis zu rund 30%. Das Crysis im Endeffekt aber zumindest mit der X1900XT/512 absolut Grafikkarten abhängig ist, zeigen die hohen Details - auch im CPU Benchmark gibt es praktisch keine Unterschiede zwischen den unterschiedlich schnellen CPUs. Eine schnellere Karte, zB der 8800 Serie kann hier jedoch noch etwas mit den beiden höher getakteten CPUs skalieren. Auffällig über alle Benchmarks und Settings hinweg verwundert die Tatsache, dass beide CPU Kerne bei egal welchem Takt nur mit rund 70% ausgelastet sind, nur in wenigen extrem fordernden Augenblicken werden über 90% Leistung benötigt, ein fiktiver SingleCore E6300 mit 1.86GHz (ein Kern via boot.ini deaktiviert) liegt "nur" etwa 20% hinter seinem Bruder mit zwei Herzen, allerdings ruckelt es öfters bedenklich. Nutzer eines älteren 939 Systems mit einem flotten 4000+ oder auch FX-55 können mit einer X1950Pro also guten Gewissens Crysis spielen - Unreal Tournament 3 dagegen verkommt auf einem SingleCore zu einer üblen Ruckelpartie, Spielspaß kommt hier nicht auf.


Da bei Crysis schon zwei Kerne nicht voll ausgelastet werden, stellt man sich unwillkürlich die berechtigte Frage, wie denn dann die Engine von vier Kernen profitieren soll (und die Demo scheinbar nicht mal Quad-Core fähig ist)? Voll ausgelastet wird dagegen die Grafikkarte, unverständlich warum kein SLI oder CF unterstützt wird (in der Demo) - maximale Qualität flüssig spielbar ist auf einer Single-GPU unmöglich. Auch die Texturen lassen etwas zu wünschen übrig, hier treibt man wohl wieder unnötige Spielchen mit dem Kunden, wie bei CoD4 und UT werden augenscheinlich nur maximal mittlere Texturen zur Verfügung gestellt, obwohl der dazugehörige Regler voll auf Anschlag steht. Die erschreckend niedrige Performance ist bei der Hammer Optik ja noch irgendwo verständlich, eingeschränkte bzw. fehlende Unterstützung für Multi-GPUs und CPUs sind neben den nicht maximal aufgelösten Texturen jedoch einfach Dinge, die potentielle Kunden von einem Kauf abhalten könnten - das muss nicht sein und sorgt für Unmut.
 
Zuletzt bearbeitet:
Neue Bilder, verbessertes Layout :)

cYa
 
oh sehr interessant, da ist mir einer wohl zuvor gekommen, aber halb so schlimm :)

habe was ähnliches vor in nächster Zeit, allerdings mit
- GF6 Serie (6600er+6800er)
- GF7 Serie (7600er+7800er+7900er)
- GF8 Serie (8600er+8800er)
- X800er
- X1800er
- X1900er
- HD2900er

und was noch so in Zukunft rauskommt, dh. ich habe durchaus vor Karten zu behalten und stets zu benchen, außerdem benche ich in 1280/1650/1920 Auflösungen.

Naja egal, zu erst einmal: Sehr gut gemacht :bigok:

Zum anderen die Frage, wie erstellst du die Diagramme, mit welchem Programm? Habe hier nur Excel 2007, kann das schon so schöne Diagramme?

Danke
 
@ Jlagreen

Ich beschränke mich auf die Mittelklasse, einzig die 8800GT/512 kommt - wer eine der obigen Mid-Ranges hat, für den ist die ideal.

Ich nutze Exel 03, Photoshop und Freeware wie Image Viewer. So hoheAuflösungen wie 1680/1920 sind imo unsinnig bei aktuellen Titeln und Low- bzw. Midrange. Keine Single-GPU packt Crysis in 1680*1050 @ high. Und alle Gf6 sowie X8x0 kannste in 1280*1024 imo knicken.

Vorschlag, wenn du das umsetzten möchtest, ich helfe dir im Sinne von, wir tauschen Karten aus?
Ich bekomm zB einfach keine HD2600XT - ich habe jetzt mal alternate angemailt :)

so long
cYa
 
Zuletzt bearbeitet:
naja ist bei mir noch ein wenig um Aufbau und es gibt durchaus noch user mit sehr alten Karten, ich will eher auch nen generellen Vergleich der Grakas 2004-2007 (2008), um zu sehen, wie die Entwicklung war.

Da ich vorhabe die getesteten Karten zu behalten, verfolge ich eher den Weg High-End der letzten 3 Jahre zu kaufen und die kleineren Karten wenn möglich zu simulieren. Ist bei NV recht gut möglich, da man mit Rivatuner Pipes abschalten kann, bei ATI muss ich schauen, ob eventl. Bios flashen oder runtertakten hilft.

Die ganz aktuellen Karten will ich noch ned aufnehmen bzw. erst noch die Releases im November abwarten.

Die HD2600XT habe ich auch (noch) nicht, leider :(. Und btw. höhere Auflösungen sind sehr sinnvoll, nicht unbedingt für Crysis, aber andere Games. Es gibt mittlerweile viele Gamer mit 22"+ Monitoren und bei denen ist es häufig so, dass Interpolation sich eben negativ auswirkt. Da ist eben die Frage, ob man mit 1680 Auflösung ohne AA gleich schnell ist wie mit 1280 Auflösung mit AA.

und btw. ich habe grad ne X800GTO drin und habe damit bisher problemlos UT3, CoD4 und Call of Juarez gezockt in 1280. Dh. so schlecht sind die Karten noch gar ned ;). Klar mit Abstrichen in Quality (vor allem Shader2.0), aber für nen Gelegenheitsspieler sehr interessant, da ne GTO für <50€ zu haben ist.

Insgesamt netter Roundup von dir, wirst du denn auch aktuell halten? Also in 6 Monaten mit neuen Treibern oder verkaufst du die Grakas wieder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh