Half-Life 2 Performance Revealed

Es wird sich erst herausstellen inwieweit der Deto50 in der Lage ist an der Situation etwas zu ändern, undzwar in einem Ausmaße das für die Kunden von NVIDIA hinnehmbar ist.
("Authentische Optimierungen")

Außerdem war das nur ein abstraktes Gleichnis.
Die Komplexität der ganzen Zusammenhänge erschließt sich einem dadurch sicherlich nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf das wollte ich jetzt gar nicht raus. Vielleicht nur ein Indiz für den relativ bescheidenen Vorsprung der 9800 vs. 9600er.
 
Wenn ich das richtig hier lese, wie auch anderswo, unterhält man sich hier über eine Benchmark-Präsentation von HL2(Valve) auf einer ATI...-Show. :hmm:
Dass alleine halt ich für sehr fragwürdig.
Was ist, wenn der Benchmark einen "Bug" hatte, der zufälligerweise gerade die NVFX-Karten benachteiligt?
Shadertechnologie hin oder her.

Ist es nicht so, dass in HL2, wie auch in MP2 und DE2 die Havok-Engine einen nicht unerheblichen Teil einnimmt? Demnach würden diese Games, was zumindest den physikalischen Teil der Umsetzung angeht, auf allen NV-Karten der neueren Generation schlechtere Ergebnisse erzielen, als mit diversen ATI-Karten.

Kann ich mir ehrlich gesagt nicht vorstellen. Eine solche Marktpolitik der Game-Entwickler halte ich für sehr diffizil.
Das ATI-Karten in vielen Anwendungen die Nase vorn haben möchte ich an dieser Stelle ja auch nicht von der Hand weisen.
Letztendlich geht es ja auch darum, na ja, ob NV wirklich so an der Zukunft vorbei entwickelt.

Wenn sich dies im nächsten Halbjahr bewahrheiten wird, was ich mir nicht vorstellen kann, dürfte NV auf dem GraKa-Markt nix mehr zu suchen haben.

Irgendwie bin ich froh, immer noch mit meiner GF3TI200 hier "einigermaßen" zurechtzukommen.
Letztendlich lass ich mich nur durch das Game selbst überzeugen und nicht durch irgendwelche Benchmarks.

Bin gespannt auf die Diskussionen im Oktober. Und ... die Gamekracher sind doch sowieso erst 1 Jahr nach erscheinen mit der dann zur Verfügung stehenden Hardware akzeptabel spielbar.
 
hm, anandtech.com hat eigene benchmarks gemacht, lies dir einfahc mal alle artikel durch, die hier so gepostet wurden. vor allem, was die entwicklung von HL2 angeht.
 
Nein, auch anandtech hat nur ein System verkauft bekommen, die haben gar keine unabhängige Grafikkarten-Abteilung. ;) Die haben die Benches von THG gekauft, wie dies auch schon bei Doom III der Fall war. :d
 
hmmm
Ati-Show?
hmmm

*diesesThemadenGulirunterspühlundsichaufDoomIIIfreueegalobNVoderAtischnelleristhauptsachekeinebenchpresentationaufatishow*
 
Eine Frage stelle ich mir jetzt allerdings.

nVidia wurde seit der GF2 von fast allen Softwareherstellern im Spielebereich, technisch besser unterstützt als die Konkurrenten.

Valve hat mittlerweile die unumgänglichkeit für eine ATI Optimierung gesehen, da sehr viele, die einen für H² spielbaren Rechner haben, ATi Technik nutzen.
Deshalb hätte sich das Thema für sich erledigt. Valve will halt nicht am Markt vorbei entwickeln!

Die einzige Frage ist allerdings, warum nVidia so unsagbar schlecht abschneidet.
Vielleicht haben die nicht nur Probleme mit dem Shader bei einer 5200, sondern auch mit denen im High-End Bereich?!
 
Die Benches sollen lediglich einen Vorgeschmack auf die Anforderung der Engine geben, ohne "optionale Parameter" wie anisotrope Filterung oder AntiAliasing. (FSAA fand ohnehin keine ausreichende Unterstützung in den *.DEM Files)

Da Valve auch mit Argusaugen die Art und Weise wie gebencht wird beobachtet bzw. das komplette "Environment" stellt ergibt sich folgendes Bild:

Sämtliche Benchmarks dürften bei einer Resolution von 1024x768 sowie 1280x1024 bei 32Bit gerenderten Texturen sowie trilinearer Filterung gemacht worden sein.
 
Zuletzt bearbeitet:
wollt nur mal kurz bemerken auch eine Gf 4 ti 4200 schlägt eine fx 5600 locker in dx 8 und bei dx 9 liefert die fx 5600 zu wenig frames!
Mfg Tobiman
 
- The new detonators are far from a high quality IQ set

- but after reading all the articles recently such as here coming from good sources and experiencing this ourselves first hand,
I can no longer recommend an nvidia card to anyone
 
najo, ich kann valve verstehen, also dass sie diese treiber nicht verwenet haben, um die HL2 benches zu machen.

ich spare es mir, div. nvidia-pressemitteilungen zu quoten, nuff said ;) es ist traurig genug.

ich bin zwar kein fan von FSAA usw. da es mir um für mich spielbare framerate geht. trotzdem ziehe ich es vor, nicht alle IQ zu opfern, für ein paar mehr FPS. und wenn ich dies tue, dann FREIWILLIG. nur lässt nvidia einem diese wahl nicht mehr.

edit: es ging mir um den aspekt der bewußten täuschung der käufer.
 
Da dürfte es NVIDIA wohl begrüßenswert finden das sich das Release von H² laut Mutmaßungen (die ironischerweise von NVIDIA selbst stammen) auf nächstes Jahr verschiebt. (Februar!?)
 
ironie oder keine @ performer ? :p

also ich bin z.B. CS-geschädigt, alles unter 100fps konstant "ruckelt" :/ d.h. versuch ich immer, die FPS so hoch wie möglich zu halten :) die optik sollte nich unter "default"-settings fallen, also z.B. stichwort "lego-quake" :) ( obwohls da nich um fps geht )
 
ja, die reviews des beta 51.75 häufen sich :) und quasi alle stellen performanceverbessrungen auf kosten der bildqualität fest.

naja, nvidias PR-abteilung wird das schon wieder krummreden.
 
Der 51.75er filtert nur noch die Basis Textur (Stage 0) trilinear und mit voller (je nach Selektion) Anisotropie.

Alle Texture Stages oberhalb von 0 werden nur noch pseudo trilinear also mit einem MipBand zwischen den TexturÜbergängen gefiltert.
Hinzu kommt das die Anisotrope Filterung ebenso oberhalb der Basistextur um den Faktor eines AnisoLevels dezimiert wird.

Ob NVIDIA die Legitimation für dieses Verhalten wohl in dem Verhalten seitens ATI anno Cat 3.2 suchen wird???

Wie wird dann wohl ATI retunieren....??
Besser als jede Soap :-)
 
wow prince der IV, bist du irgendwie so programmierer bei nvidia / ati oder so? :) du hast den durchblick!

btw, ist das nun "der beste treiber" den nvidia je geschrieben hat? ich will nich alles aus den PR-statements wiederholen, ist das wirklich ein "cheat"?
 
@Performer

Schlechter.

fürchte da ist noch Erklärungsbedarf.
Schlechter nur unter Berücksichtigung der Anisotropie. Allerdings filtert ATI oberhalb der Base Texture blank bilinear NVIDIA "immerhin" noch pseudo-trilinear.
Bildqualitativ eine interessante Gewichtung

ATI: Oberhalb der Base Textur AF Level + blank bilinear
NVIDA: Oberhalb der Base Texture dezimiertes AF Level um den Faktor 1 + pseudo-trilinear

Zugunsten ATI spricht allerdings das sich jederzeit die Driverdefaults über den aTuner disablen lassen. Diese Möglichkeit besteht bei dem neuen Deto hingegen nicht.

@Zealot

Zumindest kann man dieses Verhalten wohl kaum als eine Optimierungen unter Maßstäben der Konformität einer solchen abbuchen.

Wiegesagt im Grunde genommen zieht NVIDIA "nur" mit ATI gleich obwohl NVIDIA hier bedingt durch die anisotrope Filterung noch einen nachlegt.
Und so wird es sich wohl auch weiter entwickeln...

Diese "Psuedo-Optimierung" des 51.75er Detos gilt aber nur für die Direct3D API.
 
Zuletzt bearbeitet:
NACHTRAG: Die Reduzierung der anisotropischen Filterung in der Direct3D API beläuft sich nicht auf den Faktor 1 (Level) sondern bleibt stetig bei 2x oberhalb der Basis Textur.
 
oh, es sieht echt böse für nvidia aus, auch wenn sie nen vorteil bei doom 3 haben, aber ich bin mal gespannt, ob die jetzigen cpu's da überhaupt ausreichen werden ;-)....

wobei mich jetzt mal benches mit nem p4 mit angeschaltetem HT und ohne HT interessieren, da es bei diesem spiel ja einiges ausmachen soll. die physik z.b. soll parallel in nem anderen thread berechnet werden und hier rechne ich schon mit minestens 10-20%, je nach optimierungsgrad...

aber nach einigen news soll ds spiel nicht mal vor ende des jahres kommen und bis dahin gibts genug prescotts und a64'er und die nächsten graas stehen auch schon vor der tür und dann dürfte das spiel eh kein problem mehr darstellen^^
 
Der DETO 51.75 macht eigentlich nur das, was ATI seit dem CAT 3.2 (glaube ich macht).
Es ist nur verwerflich, dass dem User nicht die Möglichkeit gegeben wird diese Optimierungen abzustellen. Es sollte in allen Treibern (von ATI + NV) eine max. Quality option geben, die alle Optimierungen abschaltet und die beste Bildqualität bringt.

Ich befürchte ATI wird mit dem CAT 3.8 eine neue Runde bei den "Optimierungen" einleiten. (die nennen es ja auch einen der wichtigsten CAT releases seit langem)

Hinsichtlich HL2. Es kann nicht der finale Build der Engine gewesen sein. Laut Aussage von Valve soll AA mit den DEM files nicht laufen. AA sollte aber im Spiel funktionieren. (auch wenn ich da noch Sorgen wegen der Performance habe)

Die Erklärung von Anand hinsichtlich der Shaderleistung kann nicht funktionieren. Also entweder sind bei benutzten Demos zu extrem shaderlastig, dass hier eine Ausnahmefall konstruiert wurde und deshalb die Erklärung stimmt, oder aber da ist was nicht in Ordnung. Die Bandbreite ist ja nicht erheblich. Der höhere Takt der R9600 ergibt aber keine höhere Rohleistung, da die nur 4 Pipelines hat , eine 9700 oder 9800 aber 8.

Sollten sie für die Demo wirklich so shaderlastige Szenen genommen haben, dann sind die Ergebnisse der FX Karten auch nicht unbedingt representativ für das geamte Spiel.

Auf Grund der ungewöhnlichen Benchmarkermittelung (Benchmark service von Valve auf gestellten PCs) bin ich mit endgültigen Wertungen noch vorsichtig.
 
Original geschrieben von Prince der 4te
@Gerd

*lol*

Schau mal über was wir die ganze Zeit reden :-/
Die ganze Zeit wird über die unterschiedliche Shaderarchitektur gesprochen.


Als "buggy" kann eine Prebuild sicherlich nicht bezeichnet werden, muss man ihr doch greade diese negativen Sideeffects zugestehen.

Richtig, nur sollte man dann schon darauf ermittelte Benchmarks auch nicht als representativ für das finale Spiel bezeichnen.
 
@Seahawk

Falsch.

Aber selbst wenn es richtig wäre was Du sagst wäre das in keinster Weise eine Legitimation für das Verhalten von NVIDIA.

Wie ich bereits geschrieben habe werden alle Texture Stages oberhalb der Base Texture mit dem Deto 51.75 nicht mehr trilinear sondern nur noch pseudo trilinear gefiltert.
Alleine diese Tatsache aber würde NVIDIA noch besser darstehen lassen da ATI seit Cat 3.2 alle Texture Stages < 0 bilinear filtert.

Das Alleinstellungsmerkmal bei NVIDIA ist jedoch das die anisotrope Filterung ebenfalls involviert ist.
Hier wird autonom von der selektierten Filterstufe statisch auf AF Level 2 zurückgeschaltet oberhalb der Basis Textur.

Von einer Patt Situation kann also nicht gesprochen werden.

FSAA stand auch in keinen der Benches zur Disposition.

Im übrigen ist das alles hier reine Spekulation und keiner behandelt die Benchmark-Werte derartig als würden sie unweigerlich den letztendlichen Stand der Dinge definitiv reflektieren.

Selbst NVIDIA lässt den Results eine repräsentative Bedeutung zukommen hat man doch so explizit darauf hingeweisen das die Benches nicht mit der H² optimierten 51.75er des Detonators durchgeführt wurde.
Die Shaderleistung im übrigen ist sehr wohl Indikator für die Performancediskrepanz zwischen ATI und NVIDIA diese wird mit dem Deto 51.75 auch nachhaltig verbessert.
 
Ja für die Unterschiede zwischen NV und ATI ist die Shaderleistung eine Erklärung, aber nicht für den geringen Unterschied zwischen 9600pro und 9800pro. (bei höheren Auflösungen nimmt der Unterschied ab - also keine CPU Limitierung wahrscheinlich)

Hinsichtlich des Deto 51.75 hast Du Recht. Hatte mich bei meinem Post noch nicht richtig in das Problem eingelesen.
 
Der Unterschied zwischen 9600 Pro und 800 Pro ist ja auch nicht in allen Szenarien verschwindend gering.

Die e3techdemo und e3bugbait setzen zumindest in 1024 x 768 eindeutige Akzente und dort stimmen die Relationen auch.
 
interessanter review auf computerbase über ATI und NV strategien.
überhaupt der satzt gefällt mir:

Momentan sieht es jedoch bei allen Spielen, die bisher für die Grafikausgabe die DirectX9-Schnittstelle nutzen, danach aus, als seien diese Maßnahmen noch auf taube Ohren bei den Spieleentwicklern gestoßen. Selbst Spiele, die ursprünglich auf der Xbox, die ja bekanntlich einen nVidia-Chip in sich birgt, entwickelt wurden, laufen auf ATis Flaggschiff zumeist deutlich schneller, als sie es auf der FX5900 Ultra tun.

like hl2 & tomb raider angel of darkness ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh