Half-Life 2 - LOST COAST VIDEO !!!

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
o_6229.jpg

o_6228.jpg

o_dirtroadneu.jpg
 
Lasst euch von Valve nicht zu früh heiss machen ;)
Ich bin echt mal gespannt, ob's wirklich noch dieses Jahr kommt.
 
warum nicht ? lost coast soll demnächst released werden ... par wochen verzögerung sicher, aber sicher noch dieses jahr
 
Vor allem diese lichteffekte mit dem unschärfe effekt. ist das echt ingame zu 100% oder auch wieder vorgerändert? Wurde bei LOST COAST jetzt offiziell die grafik noch verbessert oder wie darf man das verstehen? habe mich damit noch nicht beschäftigt....
 
soweit ich das mitbekommen habe ist es diesmal mit "echtem" hdr - korrigiert mich bitte wenn ich falsch liege ;)
 
wieso soll es nicht die hl2 engine sein?
bei der neuen u3 engine sind solche effekte ja auch drin, wenn die videos halten was sie versprechen.
und bei farcry ist das ja zum teil auch schon möglich.
 
Sieht sehr stark nach HDR aus ...
Bedeutet das daß die Stinker bei Valve die Engine endlich auch für nVidia Karten anpassen / optimieren ?
HL2 / CS:S war ja ein derber Scherz wo man einfach auf die GeForce FX 5xxx User gay-gackt hat und dort einfach in den DX8.1 (Shader 1.1-1.4) Modus zurückgeschalten hat. Durch Tricks konnte ich das auch im DX9.0 Modus mit allen Details auf meiner FX5900 spielen - aber die Performance war recht mies.

Vielleicht ist der Vertrag mit ATI nun doch endlich abgelaufen :d
 
@Bucho, falls jetzt hdr integriert ist aber die engine immer noch nicht für nvidia optimiert ist, könnte es nicht sein, dass man mit ner nv karte dann ziemlich schlechte performance hat? Ich meine, weil nv karten sind bei hl2 sowieso net so stark und dann noch hdr dazu.......? :confused:
 
Bucho schrieb:
Sieht sehr stark nach HDR aus ...
Bedeutet das daß die Stinker bei Valve die Engine endlich auch für nVidia Karten anpassen / optimieren ?
HL2 / CS:S war ja ein derber Scherz wo man einfach auf die GeForce FX 5xxx User gay-gackt hat und dort einfach in den DX8.1 (Shader 1.1-1.4) Modus zurückgeschalten hat. Durch Tricks konnte ich das auch im DX9.0 Modus mit allen Details auf meiner FX5900 spielen - aber die Performance war recht mies.

Vielleicht ist der Vertrag mit ATI nun doch endlich abgelaufen :d

Naja nur weil HL2 jetzt HDR bekommt, glaube ich nicht, dass die für Nvidia optimieren. Hat ja mit HDR nichts zu tun. HDR läuft auch mit ATI Karten wunderbar. Bitte nicht mit PS3.0 verwechseln.
 
Morp schrieb:
@Bucho, falls jetzt hdr integriert ist aber die engine immer noch nicht für nvidia optimiert ist, könnte es nicht sein, dass man mit ner nv karte dann ziemlich schlechte performance hat? Ich meine, weil nv karten sind bei hl2 sowieso net so stark und dann noch hdr dazu.......? :confused:

Naja dann hätten die HDR nicht mit in das AddOn reingepackt denn derzeit ist das nur auf GeForce 6xxx Karten machbar.
Wobei - eventuell kommt das Game ja eh erst wenn auch schon die neuen ATIs mit R520 Kern da sind und die dann halt weiter auf ATI optimieren.
Daß die das HDR da reinpacken und dann nicht für GF 6 Karten optimieren und das noch vor den neuen ATIs rausbringen würde der Effekt ja keinen Sinn machen.

EDIT: @locutus2002
Also echtes Hardwaremäßiges HDR ist aber derzeit nur auf GF6 Karten möglich. Natürlich gibt es Spiele die das Softwaremäßig auch machen (mit Overbright / Gamma Schwellwerte usw.)
Nur dann denke ich daß die das schon in das HL2 reingepackt hätten.
 
Zuletzt bearbeitet:
natürlich ist das HDR, das ist der einzige sinn von dem ganz lost coast ;)
 
Jup hab auch mal gelesen das es HDR haben wird. Gefällt mir auf jeden Fall ziemlich gut.
Bin mal gespannt ob es auf meiner guten alten 9800Pro noch vernünftig läuft. Hab HL2 auf 1280*1024 mit 4*AA und 8*Aniso spielen können (1280*1024 muss ich wegen dem TFT bei 1024*786 konnte ich mit 6*AA und 16*Aniso spielen und es lief noch etwas flüssiger)
Von daher könnte es schon noch ordentlich laufen allerdings hat Painkiller in der aufgepeppten Demo teilweise ziemlich geruckelt. Das Spiel lief Vorher einwandfrei.
In der Demo war doch auch nur HDR die Neuerung oder gab es da auch Nvidia optimierte bzw PixelShader 3.0?
Diese optimiererei nerft, teilweise zwingen den rechner die blödesten Effekte in die Knie nur weil die Graka nicht dafür ausgelegt ist. Bei Painkiller ging es bei mir immer von total flüssig zur Diashow über sobald diese komischen Typen mit den Blitzen auf dem Kopf kamen.
 
Ja das mit der Optimiererei der Spiele an die Karten ist ne Sauerei !
Splinter Cell 3 - nVidia ... nur Shader 1.1 oder 3.0. Ich meine was soll das ? Mit Shader 2.0 bzw. 2.0+ kann man optisch gleichwertige Effekte wie die 3er darstellen und die meisten Leute haben wohl noch Shader 2 Karten (nVidia FX 5xxx, Radeon 9500-9800 und X800).
Wenn schon dann sollte es so wie früher sein - die Spiele sollen halt ne Menge technische Sachen unterstützen und nVidia und ATI sollen Ihre Treiber dafür optimieren.
EDIT: Painkiller war glaub ich für nVidia optimiert ... müsst mal nachschauen
 
in splinter cell 3 hat nur nvidia shader 3.0... der rest (also alle ati karten) nur shader 1.1...
 
leute nu vermischt hier mal keine fakten, optimierung ist ein weitlaufender begriff und kein hersteller "optimiert" seine engines zum nachteil irgendwelcher grafikkfirmen, sondern nur gegenteilig: bestmögliche leistung überall wo es geht.
sachen wie shader techniken hat mit optimierung nichts am hut, dass sind schlichtweg zusätzliche features.

@kaiser "also alle ati karten" - alle karten die keinen 3.0 unterstützen. SC bietet nur 1.1 oder 3.0
 
Ich sag nur: Mmmh, lecker, da wird sich meine Graka freuen, oder wird sie schwitzen :shot:
 
kaiser schrieb:
in splinter cell 3 hat nur nvidia shader 3.0... der rest (also alle ati karten) nur shader 1.1...

Sag ich doch ... Splinter Cell 3 hat nur Shader 1.1 oder 3.0.
Wobei letzteres derzeit nur von GeForce 6 Karten nützbar ist.
ALLE anderen (egal ob Radeon X800 / 9800 oder auch GeForce FX 5900) schauen durch die Röhre da sie grafisch zwar mit Shader 2.0 ein Splinter Cell 3 schaffen würden das fast so aussieht wie mit Shader 3.0 - aber mangels Implementierung das Spiel nur mit Shader 1.1 anzeigen.

b1-66-er schrieb:
leute nu vermischt hier mal keine fakten, optimierung ist ein weitlaufender begriff und kein hersteller "optimiert" seine engines zum nachteil irgendwelcher grafikkfirmen, sondern nur gegenteilig: bestmögliche leistung überall wo es geht.
sachen wie shader techniken hat mit optimierung nichts am hut, dass sind schlichtweg zusätzliche features.

@kaiser "also alle ati karten" - alle karten die keinen 3.0 unterstützen. SC bietet nur 1.1 oder 3.0

Doch - auch Shader haben mit Optimierungen was zu tun. Denn es gibt zwar die Shadersprachen - jedoch auch programmspezifische Pfade und Einstellungen.
Und sicher optimieren die Hersteller Ihre Engines für bestimmte Grafikkarte. Je nach dem mit wem sie bei der Entwicklung zusammenarbeiten. Nachdem Valve / Vivendi mit ATI diverse Abkommen getroffen hat haben ATI sicherlich diverse Unterstützungen geleistet - woraufhin die Entwickler Ihre Engine getestet und "feingeschliffen" haben. Anscheinend hatten sie aber nicht die Unterstützung von nVidia (bzw. nicht das Interesse daran) daß das Spiel auch auf FX Karten mit optimaler Qualität angemessen läuft.
Warum extra für was programmieren wo kein Geld / Unterstützung dabei rausschaut ?
Fakt ist daß eine FX5900 in HL2 einen eigenen Programmtechnischen Renderpfad benötigen würde, um DX9.0 in halbwegs erträglichen FPS zu darzustellen. Ich konnte das nur lösen indem ich mit einem Programm dem HL2 vorgaukelte daß meine Karte eine Radeon 9800 ist und das Programm schaltet die Floating Point Genauigkeit der GeForce von 32Bit auf 16Bit (ATI hat 16 und 24 Bit).
Somit lief das Spiel mit voller Grafikpracht mit etwa 50-75 % der Leistung einer Radeon 9800. In vielen anderen Spielen ist der Unterschied zwischen Radeon 9800 und FX 5900 aber wesentlich geringer - was darauf hinauskommt daß die Engine einfach NICHT für eine FX 5xxx Karte optimiert wurde bzw. kein Render Pfad dafür geschrieben wurde.
Ob ein Spiel schnell genug läuft mit den Details sollte jeder für sich selbst entscheiden können und nicht schon vom Programm ausgegrenzt werden. Man kann ja auch Splinter Cell 3 mit ner GF 6200 mit Shader 3 / HDR / max Details spielen. Nur wenn's nicht schnell genug ist soll der Anwender da was runterschalten können.
Mit ner FX5200 kannst ja auch DirectX9 Spiele spielen - nur halt etwas lahm.

Und "bestmögliche Leistung überall wo es geht" - hah ... wäre Splinter Cell 3 auf ner X800 mit Shader 2.0 zu langsam? - denke nicht.
Wie schon meine FX5900 für mich nicht zu langsam im HL2 mit DX9 ist.
 
Zuletzt bearbeitet:
auf keinen fall, ich hab vor ner zeit mal n artikel über D3 gelesen, nachdem es ne krasse leistung von Carmack war, die engine überhaupt auf ATI karten anständig zum laufen zu bekommen (denn jeder weiss wohl dass nvidia in sachen opengl vorne liegt).

und HL2 kannst mit ner 9200 karte genauso knicken, trotz ATI und trotz DX9 ... wenn mal manche modelle ausgenommen sind, so wie die FX serie, dann ist das ne andere sache - denn HL2 läuft auf GF6xxx karten problemlos.
 
b1-66-er schrieb:
auf keinen fall, ich hab vor ner zeit mal n artikel über D3 gelesen, nachdem es ne krasse leistung von Carmack war, die engine überhaupt auf ATI karten anständig zum laufen zu bekommen (denn jeder weiss wohl dass nvidia in sachen opengl vorne liegt).

und HL2 kannst mit ner 9200 karte genauso knicken, trotz ATI und trotz DX9 ... wenn mal manche modelle ausgenommen sind, so wie die FX serie, dann ist das ne andere sache - denn HL2 läuft auf GF6xxx karten problemlos.

Also Doom3 ist ja ursprünglich (zu GeForce 4 Zeiten) als die allererste Demo zu sehen war auch noch auf einer ATI 9700 Pro Karte gezeigt wurden. (Die Karte war damals noch gar nicht am Markt)
Weiß noch daß da die Aussage war (This is a P4 Machine with a next gen ATI graphics card).
Und nVidia hat erst sehr spät mit ID Software eine enge Kooperation zur Vermarktung gehabt. Wie ich recht erinnere war die allererste geleakte Alpha Version von Doom3 sogar eine Version die ATI zum testen hatte.

Ne Radeon 9200 kann kein DX9 ... da das im Prinzip eine Radeon 8500 ist und die nur DX 8.1 (und somit Shader 1.x kann) Effekte kann. Deshalb ist die da nicht so gut - egal wie viel man optimiert. Ist leistungsmäßig etwa auf GeForce 3 Ti500 Niveau.
Und das HL2 rennt auf den GF 6 Karten problemlos /schnell da für diese keine extra Arbeit notwendig gewesen ist denn die haben einen Shader 2.0 Modus mit 24 Bit Genauigkeit und einige Features besser / mehr als die FX5xxx Serie.

Und warum sollten einige Engines nicht für viele Grafikkarten optimiert sein ? Wenn die keinen / wenig Support und keine Unterstützung (sei es technisch / finanziell) bekommen warum sollten die Entwickler sich mühe geben ?
Und daß die absichtlich sowas nicht machen kann auch mal vorkommen ... hab' grad letztens gelesen warum Gran Turismo 4 bei einem Review nicht eine sehr hohe Wertung - sondern nur eine hohe bekommen hat und warum sehr viele Fans enttäsucht bzw. verärgert über das Entwicklungsteam ist. - Der Grund: Das Spiel unterstützt diverse Eingabegeräte da es nur mit einem Lenkrad optimal zu spielen sein soll. Angeblich ist derzeit das beste Wheel für die PS2 irgendein Momo Racing Wheel mit Force Effekten. Allerdings wird GENAU dieses Wheel nicht unterstützt - und das wurde extra so umprogrammiert daß es nicht funktioniert. (Sprich es hat funktioniert - und es wurde extra rausprogrammiert). Warum ? Damit die Leute Sony Lenkräder kaufen.
 
Zuletzt bearbeitet:
liest hier eine die pcaction?
ich hab nur das neue cover gesehen und da ist was von hl2 zu lesen ;)
ich glaub da geht es um lost coast und das addon.
 
kaum zu glauben mit welcher hardware soll man das spieln könn

 
naja valve selber hat ja irgendwas von mindestens 3Ghz, 1GB ram und irgend ner graka erzählt ... auf jeden highend ... was ja nicht so dramatisch ist, gute optik kostet viel geld
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh