Half-Life 2 Performance Revealed

Original geschrieben von Robbenmeister
scheisse, und da hole ich mir ne 5900 um u.a. dieses Spiel bald zu zocken...

Aber ich glaube nicht, daß das Nvidia auf sich sitzen lässt. Ich denke, es wird in Kürze Performance-Patches für die FY-Reieh herauskommen.

HL2 ist vielleicht "das" Vorzeigespiel des Herbst-Winters, da kann Nvidia nicht untätig rumsitzen...

Da wird NVIDIA extrem viel patchen müssen, genau genommen einen Patch rausbringen der die ganze Chipstruktur umstellt, das Problem ist die grottenschlechte CineFX Engine. Lesenwert ist folgender 3DCenter Artikel zu diesem Thema, wie immer ein ausgezeichneter Artikel ;)



Original geschrieben von Gabber19
Die AA-Bugs kamen von daher, dass man keine allgemeine Routine genommen hat, sondern eine welche auf der Ati am besten läuft, das hat bei der GFX zu Bildfehlern geführt.

Nee, das Problem lag daran dass Valve als erste Spieleschmiede die neuen DX9 AA Optionen nutzt. Bei DX8 gibts nur FSAA=on und FSAA=off. DX9 bietet Leveleinstellungen für FSAA, sogar für TexturAA (man lädt einfach eine Textur als FullScene, Antialiased sie und passt sie dann ein). NVIDIA hat da aber bei der Umsetzung geschlampt, wie allgemein beim FSAA ;)

Was man halt nicht vergessen darf: DX9 (natürlich nur auf den Direct3D Part bezogen) wurde nach ATI Specs definiert und somit wird mit dem Erscheinen von "echten" DX9 Games (heutige DX9 Games nutzen ja nur DirectSound 9, DirectPlay 9 und DirectInput 9) die miserable Shaderleistung der FX Serie immer gravierender ins Auge fallen.

btw. erinnert mich dass an die Diskussionen zum Erscheinen der FX 5800 Ultra und 5900Ultra, als die NVIDIA Jünger immer sagten: Ja wartet nur bis echte DX9 Games kommen, dann wird sich die größerer Befehlslänge der FX auszahlen und ATI dumm gucken. Pustekuchen ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In meinen Augen muss eine Engine, die Akzente setzen will, wohl oder übel die Messlatte etwas höher ansetzen.

Im übrigen besteht sehr wohl auch für minder potente Systeme die Möglichkeit, auf ein "adäquates" Performanceniveau zu gelangen, beispielsweise durch Selektion alternativer Renderingpfade und/oder Reduzierung der Detailstufen, innerhalb des Games.

Ferner könnte man die Argumentation auch andersherum führen und behaupten, das H² den elitären High-End Grafikkarten erst eine Existenzberechtigung beschert, da bis dato wenig Gebrauch vom mehr oder minder brach liegendem Potential gemacht wurde.

Desweiteren ist die hardwareseitige Minimalvoraussetzung keineswegs unverschämt...
 
@ backblech

Wenn es nach MS geht, dann schon:

Jedenfalls wenn es nach Microsoft geht. So hat Microsoft in einer Pressemitteilung veröffentlicht, dass man an Half-Life 2 zukünftig alle Action-Spiele messen muss, alles nur, wenn es nach Microsoft geht, weil in dem Spiel komplett auf DirectX 9 gesetzt wurde.
So spricht Dean Lester, General Manager Windows Gaming und Graphics bei Microsoft, von der neuen Genre-Referenz: "Wir betrachten Half-Life 2 als den neuen Benchmark für die Art von spannenden Spielen, die mittlerweile auf der Windows-Plattform entwickelt werden können. DirectX 9.0 trägt dabei einen großen Teil zur Entwicklung derartiger State-of-the-art-Spiele bei."
So bietet das noch in diesem Monat erscheinende Spiel einzigartige grafische Effekte, wie zum Beispiel ein verbessertes Bump Mapping und zahlreiche neue Lichteffekte, die einzig und allein auf DirectX 9 beruhen. Dies kommentierte auch Gabe Newell vom Half-Life-Entwickler Valve: "DirectX 9.0 hat uns im großen Umfang dabei geholfen, einen würdigen Nachfolger zu Half-Life zu entwickeln, der Windows-Spielern genau das gibt, was sie erwartet haben - eine unnachahmliche Erfahrung. Wir sind glücklich darüber, dass unsere Partnerschaft mit Microsoft einen Titel hervorgebracht hat, auf den wir alle stolz sein können."
Ob die Lobeshymnen, die hier vorab gesungen werden, stimmen, werden wir Ende September alleine herausfinden können.

(Quelle: Computerbase)
 
ich hoffe nur wirklich, das HL2 ein bahnbrechendes Spiel wird. so wie seinerseits HL oder Unreal.

Aber das es mal einen hochgesteckten Messpunkt bzw. "Überforderndes" Spiel gibt, ist zu begrüßen. Warum haben wir brachiale Rechnepower, wenn wir sie nicht richtig ausnutzen können?

Warum können Spiele z.b. nicht mal mittlerweile auf DVD rauskommen, mittlewrweile ist das doch Standard (un der, der es spielen kann (bzgl Rechenkapazität), hat ja auch ein DVD-Laufwerk).

Warum soll es nicht mal ein Übersiel geben, das die Grafikhardware komplett fordert?

Auch die ~60fps einer 9800pro bei 1024x768 wie in den Benches sind ja nun nichts berauschendes. Das ohne AA & AF und auf dieser "relativ" niedrigen Auflösung - da spiele ich schon lange nicht mehr..

Andererseits muß es, um verkaufbar zu sein, auch auf älterer / langsamerer Hardware laufen - alternative Renderingpfade, wählbare Details etc. sind da von Nutzen. Die Programmierer müssen ja von was leben - die vielleicht max. 5% HighEnd-User bringen denen kein Butterbrot.
 
Abgesehen von den Problemen der FX stinken auch die reinen ATI Benches. Guckt euch mal den Abstand zwischen 9600pro und 9800pro an. Bie ca. 90% mehr Rohleistung und Shaderleistung liegt die nur so knapp vorne ??

Die 9200 hat Fehler.

Imo kann man momentan nur folgern, dass der genutzte Build der Engine buggy sein muss.
 
oder aber es wurde eine eher schwache CPU+Aufbau benützt, denn zum restlichen Test-System fehlen mir die Informationen.

Aber schaut mal hier - denn dieser Test ist doch um einges aussagekräftiger: http://www.anandtech.com/video/showdoc.html?i=1863

Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs.

(Quelle: Anandtech)

Dies sollte deine Frage beantworten.
 
Zuletzt bearbeitet:
Original geschrieben von Gerd Weller
oder aber es wurde eine eher schwache CPU+Aufbau benützt, denn zum restlichen Test-System fehlen mir die Informationen.

Aber schaut mal hier - denn dieser Test ist doch um einges aussagekräftiger: http://www.anandtech.com/video/showdoc.html?i=1863

Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs.

(Quelle: Anandtech)

Dies sollte deine Frage beantworten.

Nur ist die Radeon 9800pro da ca. 90% stärker

Radeon 9600pro = 400x4x3 = 4800 MOps/s
Radeon 9700pro = 325x8x3 = 7800 MOps/s
Radeon 9800pro = 380*8*3 = 9120 MOps/s

Das reicht nicht als Erklärung.
 
Immer schön drauf achten nicht DX8 (8.1) Werte mit DX9 Werten zu vergleichen ;)
 
Also ich erklär euch das mal :d

Nvidia Karten bescheissen sich einen besseren FPS Wert bei PS 2.0 weil sie Partial nur mit 16 Bit anstatt 24 Bit (ATI) rechnet.

Da es aber bei HL2 um die Full PS 2.0 Precision geht und Nvidia (entgegen den DX9 Bestimmungen) 32 Bit anstatt 24 Bit verwendet (selber Schuld) sind sie ensprechend langsamer, weil HL2 entsprechend den DX9 Spezifikationen entwickelt wurde. Deshalb kommt dieser Mixed Mode zum Einsatz. Der aber bewirkt, dass bei Nvidia Karten somit keine High Dynamic Range Effekte mehr möglich sind.

Umd nochmals Zusammenzufassen: HL2 wurde nicht auf ATI Chips optimiert, sondern wurde lediglich nach DX9 Standards entwickelt. Da aber der Nvidia Chip nicht die korrekten DX9 Spezifikationen in Sachen PS2.0 aufweist, muss HL2 extra angepasst werden. Wohin gegen für ATI von Anfang an alles in Ordnung war und somit auch keine Optimierung vorliegt.

Bei Doom III sieht es wiederum anderst aus. Hier wird von vorneherein auf Nvidia optimiert umd diesen Karten eine bessere Leistung zu bescheren! In Doom III werden erweiterte Fähigkeiten des Nvidiachips speziell angesprochen(erweiterte Befehle in PS). Diese jedoch gehören nicht zu den DX9 standards. Deshalb hat ATI hier das nachsehn, weil sie diese nicht in ihrer GPU haben.

Hier könnt ihr das ganze auf THG nachlesen:

http://www.de.tomshardware.com/business/20030912/index.html
 
Das stimmt schonmal gar nicht so:

Um DirectX 9 Konformität zu gewährleisten wird eine
96Bit Präzision vorausgesetzt.

Der MixedMode Rendering Pfad für NVIDIA Karten rechnet hierbei nicht mit kontinuirlicher 128Bit Präzision sondern mit teilweiser 64Bit Genauigkeit.

Wie bereits schon angedeutet wurde liegt der Hund in der Komplexität der CineFX Engine begraben. Der Shader Core der in der CineFX Engine als Universal FPU fungiert besitzt bei der ProTakt Leistung eklatante Nachteile gegenüber ATI die dedizierte Einheiten für Textur- und Arithmetik-Operationen benutzen.
Weitere Bottlnecks sind in der Effizienz der Architektur zu suchen Bei dem Compiler den ATI als empfohlen deklariert (DirectX SDK compiled) kommt eine hohe Verwendung von TempRegistern zum Einsatz und das geht genau conträr zu der Empfehlung von NVIDIA.
NVIDIAs Empfehlung geht dahin das möglichst viele Quads in die Pipeline geladen werden da sonst jetwede architektonischen Bottlenecks extrem zum tragen kommen.

Es besteht aber noch durchaus Möglichkeit hier positiven Einfluß zu nehmen.
 
Zuletzt bearbeitet:
Eben, die GFX ist NICHT schlecht, es ist der RenderingPfad der "NVidia-Freundlich" ist.

Locutus, wieso schreibst du zuerst "nicht Ati-Optimiert" und nacher "andersherum .. NV-Optimiert" ?

Also gibst du zu es HL2 IST Ati-Opt. (was von mir aus gesehen eher "schicksal" ist.

Wir werden sehen ob der Deto 50 da ein wenig was dran ändert.

Desweiteren würde es mich wundernehmen ob der Mensch zw. 64/96/128 Bit Renderings unterscheiden kann, weiss das jemand?

Beim Ohr sind es 20Bit, bei den Augen ?
 
Das menschliche Auge kann im Alter zwischen 16 und 29 bei optimaler Gesundheit circa 5 Mio Farbnuancen und etwa 100 Grautöne unterscheiden. Auf einem Monitor circa 10.000 Farben.
 
Zuletzt bearbeitet:
Zitat:
Eben, die GFX ist NICHT schlecht, es ist der RenderingPfad der "NVidia-Freundlich" ist.
Zitatende.

Also dieses Kommentar macht jawohl überhaupt keinen Sinn.

Zitat:
Desweiteren würde es mich wundernehmen ob der Mensch zw. 64/96/128 Bit Renderings unterscheiden kann, weiss das jemand?

Beim Ohr sind es 20Bit, bei den Augen ?
Zitatende.

Du wirst sehr wohl innerhalb des Games Unterschiede zwischen einer kontinuirlichen 64Bit Floating Point Berechnung oder einer 128Bit Floating Point Präzision sehen können.
Wie Dir ja bekannt sein dürfte handelt es sich um Fließkommazahlen und nicht um Integerwerte somit erhöht die Präzision auch die Qualität der Interpolation sei es nun linear, bilinear oder trilinear.
 
Zuletzt bearbeitet:
@Prince: Lies erst mal den Artikel von THG bevor du so ein scheiss verzapfst!

@gabber19: Lies erst mal den Text von mir genau durch. Wenn du ihn nicht verstehst kann ich nix dafür. Und deine antwort zeigt es mir!
 
Zuletzt bearbeitet:
@Loctus

Tsss, kein Wunder.
Ein THG-Leser. Was soll man auch hier für Erwartungen stellen!?
THG wird niemals in der Lage sein, den Rezipienten offenzulegen, wie komplex der Sachverhalt wirklich ist.

Es sei Dir an dieser Stelle- wie Avenger auch schon bereits sagte -der Artikel von 3DCenter nahegelegt.
 
prince, ich glaub gabber19 meinte das ironisch -

nun, die wunderwaffe dets. 50 kommt bald. nvidia "möchte" alle reviews mit diesen treibern ausgeführt sehen und versprechen einen boost.

naja, ich will ja nich behaupten dass Ati nie "gecheatet" hat, aber Nvidia tut dies in letzter zeit ziemlich oft...
 
hmm wenn Du sonst so seine Postings hier liest dann könntest Du auch zu einem anderen Schluß gelangen. ;-)

Nochmal @THG Freak Loctus

Zitat aus den 3DCenter News:

Die Ergebnisse dieser Benchmarks sind geradezu niederschmetternd für nVidia, in der Kategorie "DirectX9 mit voller Präzision" (was für nVidia den 128-Bit-Modus und nicht die Vereinfachung über den 64-Bit-Modus bedeutet)

...

Valve hat zum normalen DirectX9-Pfad noch einen "Special Mix Mode for NV3X" programmiert, um die Eigenheiten der CineFX I/II Engine besser zu unterstützen und mehr Performance aus den nVidia-Chips herauszuholen. Dafür wurden allerdings auch geringfügige Einschränkungen bei der Bildqualität in Kauf genommen, so läuft der NV3X-Pfad beispielsweise nicht immer mit der vollen 128-Bit-Genauigkeit, sondern teilweise nur als 64-Bit-Genauigkeit (obwohl für DirectX9 eigentlich 96 Bit Mindestvorschrift ist).
 
Werde mir sofort den Artikel von 3DCenter zu gemüte führen. Aber so schlecht wie du nun THG wieder hinstellst sind se nun auch wieder nicht.
 
Frag mich was die Leutz immer vom Deto50 erwarten....gab doch erst letztens auf ner großen Seite eine Detonator History....beim Deto20 gabs damals auch nen massiven Schub...der dann beim 23er wieder weg war weil eben bei NVIDIA bisher jeder Schub durch IQ Abstriche gemacht wurde und anschließend wieder von Release zu Release die IQ hochgesetzt wurde. Der Deto50 gibt nach ersten Zahlen einen Boost von 15% bei HL2.....bin mir aber ziemlich sicher dass spätestens beim Deto52.x die Performance wieder auf Prä-Deto50 Niveau liegt, weil dann die IQ Abstriche die dafür gemacht wurden wieder rausgenommen wurden ;) Solange NVIDIA nicht wie ATI explizit beim Treiberrelease realistische und konkrete Zahlen ausgibt sondern nur "up to 7x faster"....solange kann man fest davon ausgehen dass es keine echten Verbesserungen gibt, sondern bei einem Hauptrelease (also 30, 40, 50 etc) an der IQ Schraube gedreht wurde um Aufmerksamkeit zu erlangen und anschließend wird wieder IQ hoch->Performance runter gemacht....bis zum nächsten Hauptrelease.
 
Zuletzt bearbeitet:
This is NVIDIA's Official statement: "The Optimizations for Half-Life 2 shaders are in the 50 series of drivers which we made available to reviewers on Monday [Sept. 8, 2003].

ANY Half-Life 2 comparison based on the 45 series driver are
INVALID.

NVIDIA 50 series of drivers will be available well before the release of Half-Life 2".

Einen gewissen "Feinschliff" mag NVIDIA durch den neuen Deto realisieren können, doch ist der Grad zwischen Optimierungen, die sich einzig und allein mit der besseren und spezifischeren Zentrierung des Treibers auf die FX Architektur konzentrieren und jenen Optimierungen, die sich höhere Performance durch mindere Bildqualität erkaufen äußerst schmal.

Vor allem für NVIDIA.
 
Vor allem da die Det 50 bescheissen, das ist ja auch der Grund warum Valve alle Det 50 Ergebnisse gelöscht hat und die Det 45 Series Treiber benutzt hat.
 
@all

wenn man Valve glauben schenken darf, so wurde dieses Spiel wirklich nicht auf einen Chip optimiert, sondern entspricht schlicht und einfach den DX9.0 Specs. (weshalb auch Microsoft wohl vom Ergebnis sehr angetan ist).

(Quelle: http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/002.htm)

@ zeahawk und Prince

auch den Forummitgliedern (welche besonders in Bezug auf Grafikkartenhard- respektive Software als sehr kompetent erscheinen) ist noch nicht klar, warum die R9600Pro so überaus gut im Vergleich zur 9800Pro abschneidet. Manche denken es wäre "a buggy game", Anandtech jedoch erklärt sich die sehr gute Shaderleistung (denn zum Teil ist die 9600Pro gleichauf einer 9700Pro) damit, daß die Speicherbandbreite in dem Fall wohl nicht so wichtig ist und somit wohl der relativ hohe GPU-Takt zum tragen kommt. Aber auch dieses wohl reine Spekulation!!
 
@Gerd

*lol*

Schau mal über was wir die ganze Zeit reden :-/
Die ganze Zeit wird über die unterschiedliche Shaderarchitektur gesprochen.


Als "buggy" kann eine Prebuild sicherlich nicht bezeichnet werden, muss man ihr doch greade diese negativen Sideeffects zugestehen.
 
einige Leute vom 3dcenter würden Valve und ich zitiere wörtlich "wieder zurück ans Zeichenbrett" schicken. Ich meine im derzeitigen Treiberstadium (der Deto 50 steht ja noch aus - von dem her sehe ich ähnlich wie wahrscheinlich du auch unter Berücksichtigung mancher "HL2-Optimierungen" nicht sooo schwarz für NV, wie es sich im Moment darstellt) konnte man ein ähnliches Abschneiden der Highend-GraKa´s erwarten. Wirklich überraschend ist jedoch das Abschneiden der 9600er im Vergleich zur 9800er.
 
Es gibt absolut keinen Grund NVIDIA aufgrund dieser Meldung zu diskreditieren.
Ich will Valve nicht unterstellen das man versucht NVIDIA systematisch zu demontieren, doch muten die Meldungen und die Art und Weise, wie die Results der ATI Produkte zelebriert und ganz im Sinne von investigativer Public Relation in den Vordergrund geschoben werden, etwas merkwürdig an...

Hier spielt Kalkül auf jedenfall eine massive Rolle und das Valve angeblich erst den Deal mit ATI unter trockene Tücher gebracht hat, nachdem diese Ergebnisse publiziert wurden, halte ich für marketing-wirksame Platitüden.
 
Aber vielleicht will Valve ja nur aufzeigen, daß es keiner (ATI-) Highend Karte benötigt, um spielbare FPS zu erlangen (ironisch gemeint)....

Eine Frage hätte ich aber noch: Ist es möglich die Peak-Shaderleistung per Software zu drosseln (ähnlich einem FPS-Limiter) ??
 
Zuletzt bearbeitet:
Lass mich versuchen die Frage anderweitig zu beantworten, weil ich glaube das es darauf hinausläuft:

Es ist aufgrund der unterschiedlichen Architekturen und der hohen Programmierbarkeit selbiger sicherlich möglich, Programmcode zu entwickeln, der zum einen sehr gut für die Architektur A oder eben weniger gut für die Architektur B konzipiert ist.
Du kannst eine komplexe mathematische Aufgabe einfach lösen, wenn Du die entsprechende Formel parat hast und ersparst Dir somit Arbeit oder Du löst sie eben weniger effizient auf einem Umweg.
Das Ergebniss ist letztlich dasselbe, doch der Weg dahin ist unterschiedlich lang.

Dieses Gleichnis lässt sich prinzipiell analog auf H² übertragen.

Valve "wäre" und ich formuliere das ganz absichtlich im Konjunktiv, da ich nicht soweit gehen möchte es zu unterstellen, in der Lage den Shadercode so zu generieren, das letztlich die
FX Architektur nicht an ihre physikalischen Grenzen stößt respektive Shadercode künstlich zu verlangsamen wobei dieses Szenario sicherlich am unwahrscheinlichsten ist.
 
Zuletzt bearbeitet:
genau Prince, nur machen sie das nicht extra, es kommt von daher, dass die NV anders funtzt als Ati.

Das heisst es läuft tip top, weil Ati die richtigen Formel parat hat.

Bei NV müssen die Daten anders vrogelegt werden sonst muss sie "im Formelbuch blättern".

Wenn NV nun beim Deto 50 das Gedächtniss der FX um die richtigen Formeln erweitert ist die Sache gegessen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh