Half-Life 2 Performance Revealed

Thread Starter
Mitglied seit
24.08.2003
Beiträge
101
...

- Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game

- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath

- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra

- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.

Quelle: AnAndtech
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
und hier Pics von der Präsentation :

http://www.techreport.com/etc/2003q3/valve/index.x?pg=1

Mit Statements von Valve zu vielen sachen (otimierungen, etc.) und Bechmarks :)

PS : 4600 is schneller als die 5600 Ultra in DX8 modus - und 5600 Ultra in DX9 liefert keine spielbaren Frameraten :eek:

PPS : Scheint dass der Pries von gebrauchten 9500/9600/9700 karten nicht besonders fallen wird :(
 
scheisse, und da hole ich mir ne 5900 um u.a. dieses Spiel bald zu zocken...

Aber ich glaube nicht, daß das Nvidia auf sich sitzen lässt. Ich denke, es wird in Kürze Performance-Patches für die FY-Reieh herauskommen.

HL2 ist vielleicht "das" Vorzeigespiel des Herbst-Winters, da kann Nvidia nicht untätig rumsitzen...
 
Das finde ich ja interessant...besonders die Tatsache, dass die 9600 Pro eher der direkte Konkurent einer FX5900 ist, als ATI's Flagschiff. Und das trotz Optimierung.

EDIT:
@Robbenmeister
Das gleiche hat ATI auch mal bei Q3 gemacht...aber sowas geht denke ich nur auf Kosten der Optik...und wer will HL2 schon mit Grafikeinbußen spielen....auch wenn's nur 30fps wären (durchgängig) würde ich es auf vollen Details zocken.
 
Zuletzt bearbeitet:
Gut gut, dann werde ich keine probleme mit meinen PC bei Half Life haben, besonders nicht wenn noch die Wasserkühlung auf CPU und Graka kommt.
 
Klar, die neuen 50er Detos schrauben die quali noch unauffälliger runter und wenn man ein screenshot macht wird mal kurz auf normal quali zurückgestellt um beim IQ vergleich gut auszusehen :fresse: und dabei bin ich eigentlich nVidia Fan :[

Ich würd sagen nVidia hat bei den NV38 deutlich an der DX9 performance gewerkelt ... nenn nicht siehts düster aus ... und ich bleib bei meiner 4600 :d
 
Ja, aber Half-Life ist in Bälde draußen. Es gibt noch keinen NV40, vielleicht zu Weihnachten den NV38, der aber auch nur ein aufgebohrter NV35 ist (Takt höher). Und half-Life2 kommt mit Benschmark. Und es wird das Spiel, auf dem die jetzige und kommende Graifkkarten gebencht werden.

Nvidia *muss" reagieren - sonst ist es ein Fiasko. Das die FX5900 schnell ist, stehet außer Frage (hab ja selber eine), aber sie muß auch unter HL2 schnell sein - rein aus Prestigegründen! Wenn Sie sogar von einer Ti4600 geschlagen wird - bei nicht merklichem Bildqualitätsverlust -, das wäre schon mehr als peinlich...

Zuerst das AA-Probelm, jetzt das evtl. Performance-Problem. Ich glaub, Nvidia hat dieses Jahr schön ins Klo gegriffen (denke da an FX5800 usw)
 
also ich muß mal sagen, dass die ti4600 bis heute die beste karte war die ich jemals hatte. :)
 
4600 :shot: 5600 Ultra

:hail: 4600

und :hail: MX460 - die schnellste GeForce 2 aller Zeiten :d

Meine nächste Kate wird wohl ne ATi ... ich wat aber noch bis HL2 raus is ... vorher besog ich mir dick Festplatten ;)
 
hast du jetzt eine neuere (aktuelle Generation)?

Ich fand die TI4x auch schon sehr gut und zu ihrem Erscheinen wirklich konkurrenzlos (ATI konterte ja eher später mit dem Radeon 9x).

der vergleich zu aktuellen Karten hinkt aber, obwohl man wohl jetzt noch nicht den performanceüberschuß der ATI / Nvidia - Highend-Karten braucht. Aber vielleicht bald?

wenn ich lese (1.Post): 60fps bei 1024x768 - wahrscheinlich ohne jedwedes AA unf AF, da erscheinen mir die jetzigen und bald kommenden performance-Boliden nicht mehr so abwegig.

Vielleicht habe wir jetzt mal wieder ein Situation, wo ein Spiel da performance, die geboten wird, wirklich braucht! (Und nicht nur zu den "eyecandy-maßnahmen!)
 
Und ich rede von der 5600 NICHT 5900 ;)

Das ist ein vergleich von 140€ Karte gegen 200€ karte - nicht 140€ gegen 400€ ... :eek:

EDIT - Die benchmarks sind immer die selben - von der "offiziellen" Valve Präsentation
 
Zuletzt bearbeitet:
Abwarten und Tee trinken.

Es gab ja mal Gerüchte, das HL2 nur mit Ati GraKas rauskommt.

Die AA-Bugs kamen von daher, dass man keine allgemeine Routine genommen hat, sondern eine welche auf der Ati am besten läuft, das hat bei der GFX zu Bildfehlern geführt.

bei 3DCenter ist nachzulesen, dass die GFX sehr anfällig für die Programmierung ist.

Deswegen lässt sich auch bei NV durch Treiber OHNE Quali-Verlust einiges herausholen..
wer das nicht glaubt soll den Artikel bei www.3dcenter.de durchlesen und er solle erleuchtet sein :d
 
Es dürfte interessant werden zu sehen wie NVIDIA auf diese unerfreuliche Kunde reagieren wird.

Wie man Newell`s Remarks entnehmen kann, dürfte es NVIDIA schwer fallen Performanceimprovements zu realisieren ohne der visuellen Qualität des Spiels Tribut zu zollen.
Durch die Brisanz die bereits die 3DMark2003 Debatte ausgelöst hat, sind aber nun viele Konsumenten "sensibilisiert" worden und daher sollte sich NVIDIA gut überlegen, in welche Kategorie die Optimizations fallen werden...

Good or Bad :-)

P.S:
Man sollte allerdings auch beachten das ATI doch hier in einem auffällig positiven Licht dargestellt wird nicht zuletzt vielleicht auch aufgrund der Kampagne die in den USA anlaufen wird.
(H2 + Radeon 9800XT in einem Bundle.)
 
Zuletzt bearbeitet:
ein glück hab ich hier noch ne 9800pro rumliegen :) seit gestern...nein, ich bin auch kein bonze...s war ja ma ne 9800se...
war bisher eigentlich immer nvidia-lover, aber seit ich das softmodding für mich entdeckt hab, mag ich ati auch ganz gern...
ich denk nich, dass nvidia wirklich so mies is wie die's da sagen...hl2 für ati programmiert (leienhaft gesagt)...dann sowieso der coop-mode mit ati...irgendwie wollten die doch nur den großen rivalen vom thron stoßen...immerhin schwankt er ma heftig...nvidia kommt wieder...bin ich mir ganz sicher...
 
@ Prince of Persia (klingt doch besser der "4.")

Es gab auch einen Bench mit ´nem Beta Deto 50.x . Die Ergebnisse wurden allerdings wegen zu argem "Cheatings" nicht zugelassen. Da ich noch auf Arbeit bin und hier sämtliche "verdächtigen Seiten" geblockt werden, reiche ich den Link nacher btw. morgen nach.
 
Übrigens @ Prince of Persia IV , HL2 soll in einem Bundle mit der 9800XT (ehemals 9900Pro genannt) ausgeliefert werden...

Sorry @ Anarchy, hab mich verlesen. ( 5900/5600 ;) )
 
@UnknownUser

Das Paket lautet z.B. wie immer (!!) eigentlich: Hercules 9800XT Retail. Enthalten sind: das Spiel HL2, die TreiberCD incl. dem Hercules Tuner und Treibern sowie eines zugegbenermaßen extrem gut aussehenden Grafics Accelerator :)
 
Accelerator stimmt hier leider nicht ganz denn als Beschleuniger wurden weitläufig die damaligen ADD-On Karten bezeichnet zum Beispiel eine Monster3D von Diamond.

Graphics-Generator wennschon obwohl das scheisse klingt insofern bleiben wir doch bei der konventionellen Beschreibung ;-)
 
Deshalb verwenden Sie wohl den Accelerator öfters werbetechnisch... (ph. "the fastest graphics accelerator ever blubber blubber"....). Eigentlich wollte ich mit meiner Aussage nur die unglaubliche Schönheit der neuen Hercules ausdrücken (denn die sehen halt mal echt mal ge.. aus...)
 
Das nennt man wohl Hardwaregeil :d

@topic, bei 3DCenter steht was schönes, man solle HL2 nicht zu ernst nehmen, es ist nur EIN Spiel.
Doom III Engine kommt in dutzenden von Spielen zum Einsatz :coolblue:

Der John mal wieder, verkauft seine Produkte bevor sie da sind :d
 
Aber exakt selbiges erhofft sich auch Valve von der H²-Engine.
Man rechnet vielleicht sogar mit einem lukrativeren Geschäft aufgrund von Lizensierung, als mit dem eigentlichen Absatz durch H² alleinig.
Wenn die H² Engine sich etablieren wird und davon kann wohl unweigerlich ausgegangen werden so wird diese oder zumindest Derivate dieser Engine ebenfalls in zahlreichen anderen Games vorzufinden sein.

Die Aussage von 3DCenter ist ergo nicht zutreffend.
Um nur ein Beispiel zu nennen sei hier mal Vampire: Bloodlines genannt.
 
Zuletzt bearbeitet:
um das nur mal kurz anzumerken: es wird nicht gerade einfach werden, eine engine zu vermarkten, die auf einem nicht unbedeutenden teil von aktuellen grafikkarten - sagen wir mal - relativ bescheiden performen wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh