Ageia PhysX PPU

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
h-h-e schrieb:
Ich meinte ein Core der CPU, nicht der GPU. Soll doch auch schon Ende 2006 / Anfang 2007 soweit sein mit den Quads ;)

Selbst wenn es theoretisch Möglich wäre , mal ehrlich , die CPU-Leistung
ist so erbärmlich in der Weiterentwicklung gegenüber möglichen Bandbreiten ,
Grafiklösungen etc. , da wäre ich strikt gegen auch nur etwas davon was an
Ressorcen zu klauen :hail:

Greetz Koyote008
 
Zuletzt bearbeitet:
Was in Games fehlt:

-Realistische weitsicht,
-Realistische Wolken und Wettereffekte,
-Hochauflösende photorealistische Texturen,
-Realistische Haare und Haut bei Spielfiguren,
-Realistische Physik das volle Programm, den was ist ein Shooter ohne Einschusslöscher etc pp, :stupid:

Die Hardwarehersteller sollen mal in die Gänge kommen und die Softwarefuzzis erst recht! :motz: :grrr: :fire:
 
Koyote008 schrieb:
Selbst wenn es theoretisch Möglich wäre , mal ehrlich , die CPU-Leistung
ist so erbärmlich in der Weiterentwicklung gegenüber möglichen Bandbreiten ,
Grafiklösungen etc. , da wäre ich strikt gegen auch nur etwas davon was an
Ressorcen zu klauen
So schlecht ist die gar nicht. Wenn man mal wissenschaftliche Anwendungen auf der CPU und auf ner GPU rechnen lässt ist der Unterschied nicht allzu dramatisch im Moment noch. Der große Vorteil von CPUs ist halt die gute Cacheanbindung. Da wird vieles (nicht alles!) an verlorener Bandbreite zum Hauptspeicher wieder gut gemacht. Das Problem ist nur, das die Entwickler wirklich mal SSE einsetzen. Und das im ganz verschärftem Maße. Dann ist es zwar halt nicht mehr möglich Battlefield auf nem 386er zu zocken, aber
:wayne:

Der Trailer is schon ganz nett. Ich denk mal auf nem Quad SLI mit 7800GTX und nem Dualcore sollte das in 1024x768 in Echtzeit möglich sein. HDTV Auflösung is aber für die Variante noch ziemlich utopisch.

MfG
SpaceTrucker
 
SpaceTrucker schrieb:
So schlecht ist die gar nicht. Wenn man mal wissenschaftliche Anwendungen auf der CPU und auf ner GPU rechnen lässt ist der Unterschied nicht allzu dramatisch im Moment noch. Der große Vorteil von CPUs ist halt die gute Cacheanbindung. Da wird vieles (nicht alles!) an verlorener Bandbreite zum Hauptspeicher wieder gut gemacht. Das Problem ist nur, das die Entwickler wirklich mal SSE einsetzen. Und das im ganz verschärftem Maße. Dann ist es zwar halt nicht mehr möglich Battlefield auf nem 386er zu zocken, aber
:wayne:

Der Trailer is schon ganz nett. Ich denk mal auf nem Quad SLI mit 7800GTX und nem Dualcore sollte das in 1024x768 in Echtzeit möglich sein. HDTV Auflösung is aber für die Variante noch ziemlich utopisch.

MfG
SpaceTrucker



Ich finde schon :wink:

Wird Zeit das ich nen knackigen Dualcore mir zulegen kann , gerade
im SLI kann man davon profitieren.

Auf AM2 gehe ich eh nicht mit , lieber Wakü fürs DFI und nen Sockel 939
Dualcore der abgeht , mich stört es nicht wenn ich da hinterherhänge.

Irgendwie genau deshalb weil die CPU Upgrades schon teuer sind , habe
4x Anläufe gebraucht um nen 3,0 Ghz SanDiego mit akzeptabler VCore
zu haben , setze ich auf coole Entlastung der CPU duch Physik PPU-s

und in der Summe ist es bestimmt auch rentabel , zumindest wenn nicht
mehr als 2x Engine am Start sind , dann halt ne Nvidia und ne Physik-X .

Ich glaube sollen auch 512MB Karten bald kommen !? Und der Speicher ist
ja mal arm getaktet , obs auch OC-Tool für die Karten gibt !?

+hrhr+ :fresse:

Greetz Koyote008
 
Darauf hab ich ja gewartet, die ersten oc gedanken kommen...

...und bald sind im wakü bilder thread die ersten ageia karten zu bewundern. :coolblue:

Aber muss Koyote zustimmen, hab auch nen ähnlichen Plan.

Also ich investier auch lieber in mein jetziges System als mir nen neues AM2 zusammenzuschustern. Ageia müsste sonst wahrscheinlich ausfallen bei den angesetzten Preisen. :(

Bin gespannt wieviele der kommenden Titel effektiv von solchen Lösungen profitieren werden, ich denke mal nach der E3 sind wir alle ein bischen schlauer.
 
SinSilla schrieb:
Darauf hab ich ja gewartet, die ersten oc gedanken kommen...

...und bald sind im wakü bilder thread die ersten ageia karten zu bewundern. :coolblue:

Aber muss Koyote zustimmen, hab auch nen ähnlichen Plan.

Also ich investier auch lieber in mein jetziges System als mir nen neues AM2 zusammenzuschustern. Ageia müsste sonst wahrscheinlich ausfallen bei den angesetzten Preisen. :(

Bin gespannt wieviele der kommenden Titel effektiv von solchen Lösungen profitieren werden, ich denke mal nach der E3 sind wir alle ein bischen schlauer.



Ist ja das Problem , das DFI Board ist gut (hätte mal lieber das Expert nehmen sollen) , und mit komplett Wakü fast Ideal , zumindest für SingelCore CPU´s .

Und nen 3,0 Ghz SingleCore werkelt ganz ordentlich , ist natürlich aber bei
solchen zusätzlichen Aufgaben beschnitten , eine Dualcore macht auch nicht
alles einfacher bei einem Gamer PC.

Und wozu 250€ für nen Dualcore zupacken und 50€ fürs Boardwechsel und
50€ Speicherwechsel und die ganzen Tücken bis man wieder zufrieden ist die auch oft doppeltes Geld kosten ....

Dann lieber dieses verdammte Kärtchen und die Hardware mal nutzen die man
hat der Gedanke beflügelt mich ungemein.

Das einzige wo ich das Geld gerne ausgebe ist für nen Graka-Wechsel wenn
es sich lohnt , vor allem bequem und auch überschaubar.

Greetz Koyote008
 
ich halte physik-beschleunigung für ein sehr sinnvolle sache. ob die havok engine dann auf der zweiten graka rechnet oder ageia über eine separate PCI karte, ist mir banane.

was mir nicht passt: die angesetzten preise (299-399€) sind utopisch und der steckplatz (PCI) antiquiert. für 99.90 auf PCIe x1 (oder x4) wäre das ganze schneller umzusetzen.

PCI slots hätte ich keine frei - und auch keine möglichkeit einen frei zu bekommen.


(..)

mfg
tobi
 
2007 werden Quadcores auf den Markt kommen.
Wieso sollte man eine Zusatzkarte hineinpacken, wenn man aus heutiger Sicht dann drei schlafende Cores hat ?

Die Bandbreite wird nicht einfach verdoppelt, im Endeffekt müssen ja Polygone zur Grafikkarte gebracht werden. Und die sichtbaren Objekte haben gleiche / ähnliche Koordinaten für das visuelle und das physikalische Modell.

So eine Zusatzkarte zeugt einfach von der Faulheit / Ideenlosigkeit der Hersteller.
 
wenn die leistung durch die anzahl der CPU cores linear steigen würde, könnte man es so sehen: heutige single-cores handlen vielleicht 100 physik-instruktionen. zwei cores schaffen 200. vier cores schaffen 400..

ne physikbeschleuniger-karte schafft 1000. egal, welche CPU man einsetzt.

man sollte nicht vergessen, dass die CPU auch noch die graka(s) füttern muss, dass KI auf der CPU berechnet wird und dass auch der (system)verwaltungsaufwand an der CPU hängenbleibt.

sie zu entlasten ist "der weg". anständiges auslasten der multicore-cpus steht erst mit vista zu erwarten. unter XP ist das leider komplett: stokelei.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Berion schrieb:
"laut ASUS wird die hauseigene PhsX-Karte das einzige Modell mit !!!2156!!! Megabyte Speicher sein - quasi die High-End PhysX-Karte."

asus_physx2.jpg


der vergleich:

http://physx.ageia.com/footage.html

wenn das kein fake ist, werd ich mir gleich so eine geile karte kaufen! :banana:

:fire: A S U S P O W E R :fire:

Scheiße, das CellFactor ist ja mal böse! Da spielt die PhysX-Karte ihre ganzen Trümpfe aus!

SinSilla schrieb:
Naja, also die Physikspielereien sind ja ganz nett in dem Video, aber so überdeutlich als bloße werbung für ageia missbraucht. Dieses Feature hat doch scheinbar NULL Sinn in dem Game, jaaahaa man kann mit seinen "magnetgranaten" und "megahänden" alles verschieben und umherwirbeln. Aber warum?? :hmm:
Is ja "logisch" das man hunderte meterhohe Kistenstapel überall auf der Map verteilt...was da wohl drin is?
Nun gut, aber cool siehts auf jeden fall aus! ;)

Doch, das macht Sinn...
Mit dem fetten Container kann man z.B. seine Gegner platt machen ohne Munition zu verbrauchen... also ganz sinnfrei ist das net... :-)
 
Zuletzt bearbeitet:
Gabber19 schrieb:
Die Bandbreite wird nicht einfach verdoppelt, im Endeffekt müssen ja Polygone zur Grafikkarte gebracht werden. Und die sichtbaren Objekte haben gleiche / ähnliche Koordinaten für das visuelle und das physikalische Modell.

So eine Zusatzkarte zeugt einfach von der Faulheit / Ideenlosigkeit der Hersteller.
Naja, die Bandbreite von PCIe 16x sollte noch die paar nächsten GraKa Generationen abkönnen. Das sollte mal nicht das Problem sein. Und wenns doch mal eng wird gibts dann direkt Grakas mit HyperTransport Interface :drool:
Und für Inteluser gibts dann welche mit FSB :fresse: :lol:

Faulheit der Hersteller is das nicht. Ageia will halt nur die Kohle alleine einsacken.

MfG
SpaceTrucker
 
JohnDo schrieb:
Was in Games fehlt:

-Realistische weitsicht,
-Realistische Wolken und Wettereffekte,
-Hochauflösende photorealistische Texturen,
-Realistische Haare und Haut bei Spielfiguren,
-Realistische Physik das volle Programm, den was ist ein Shooter ohne Einschusslöscher etc pp, :stupid:

Die Hardwarehersteller sollen mal in die Gänge kommen und die Softwarefuzzis erst recht! :motz: :grrr: :fire:

Also realistische Weitsicht halte ich nicht für sooo wichtig. (kommt ganz auf's Spiel an) Sicher ist es nett (z.B. bei Oblivion) - jedoch wenn man da herumtweaked damit auch viele Objekte & Details & Texturen in der Ferne erkennbar sind sink die Performance ganz schön. Dazu sind halt die heutigen Systeme noch zu schwach ...

Realistische Wolken und Wettereffekte gibt es doch auch schon ... Wolken halt bei Flugsims und Wettereffekte bei einigen FPS, RPGs und Rennsimulationen. Sicher - perfekt ist es noch nicht ... aber schon ganz gut.
Realistische Wolken bei einem FPS z.B. finde ich eher unnötig (obwohl Crisis soll es ja schon haben :stupid: )

Hochauflösende Texturen - gibt's ja auch schon Einiges ... allerdings sind viele Objekte / Maps so komplex daß da eine Unmenge an Texturen vorhanden sind die sich wieder auf Speicher (Sys und Graka) auswirken.
Aber mit der Zeit wenn dann mal 4 bzw. 8 GB Standard bei Systemspeicher und 1 GB Standard bei Grakas ist und die ersten Spiele mit mehreren DVDs bzw. HD-DVDs oder Blue Ray Disc da sind wird sich da sicher auch was ändern. Wenn man sich die Texturen von Half Life 1 und Half Life 2 ansieht hat sich da ja auch gewaltig was getan.

Realistische Haare und Haut ... find' ich teils auch schon sehr gut ... da sollten die eher an den Bewegungen / der Mimik bzw. eben auch an der Physik / den Ragdollmodellen arbeiten.

Phsyik / Einschusslöcher ... ja - da will ich auch das volle Programm.
Die Umgebung sollte möglichst "veränderbar" sein ... sprich bei Shootern sollte man Gebäude / Fauna / Mobiliar / Fahrzeuge etc. zerstören / verformen können - genau so auch in Rennspielen / RPGs usw.
Deshalb hoffe ich auch sehr daß das mit diesen Physik Karten bzw. zusätzlichen Features der Grafikkarten deutlich besser wird.

Und an der KI sollte auch noch ordentlich gefeilt werden - was ja auch leichter wird wenn solche Karten die CPU durch die Physikunterstützung entlasten.
Bei ordentlichem Schierigkeitsgrad ist die KI z.B. in FEAR schon sehr nett ... in Oblivion z.B. eher mies. (Im Nahkampf jedoch ganz OK)


SpaceTrucker schrieb:
Naja, die Bandbreite von PCIe 16x sollte noch die paar nächsten GraKa Generationen abkönnen. Das sollte mal nicht das Problem sein. Und wenns doch mal eng wird gibts dann direkt Grakas mit HyperTransport Interface :drool:
Und für Inteluser gibts dann welche mit FSB :fresse: :lol:

Faulheit der Hersteller is das nicht. Ageia will halt nur die Kohle alleine einsacken.

MfG
SpaceTrucker

Dann wäre aber das Grafikbus Interface in der CPU ... und somit sind dann viele Features / Möglichkeiten von der CPU abhängig. SLI / Crossfire / Multi Grafikkarten (mehrere nebeneinander verwenden) / Grafikkarten über alten Bus (PCI/PCI-E (dann schon alt ?)/ etc.) usw.
Somit muß man dann im schlimmsten Fall die CPU & Graka wechseln wenn man ne neue Graka will.
Da lob' ich mir schon eher die Kompatibilität der Northbridges ... und daß der FSB nicht so DER bremsende Faktor ist zeigen doch wohl schon recht nett die Benches der P-M und die ersten Benches der Core Duos (Yonah) und die nächste Intel Generation die Conroes / Meroms / Woodcrests.

Aber bzgl. Ausnutzung der aktuellen Features bin ich auch Deiner Meinung.
Viele Programme sind halt auf "play it safe" programmiert anstatt diverse Erweiterungen voll auszunützen.
Aber das wird wohl immer so sein - denn da müssten die Entwickler glaube ich zu viel optimieren / tweaken was zu viel Zeit / Geld in anspruch nimmt. Da packt man lieber eine höhere Sysanforderung drauf bevor man das macht.
Wenn ein Spiel / Prog "fertig" ist muß es halt raus um Geld zu verdienen.
 
Zuletzt bearbeitet:
Das eigentliche Problem heutiger Spiele ist doch die Sterilität der Umgebung.
In der Regel leidet die Spielerfahrung darunter das die Umgebung durch fehlende Sounds, Animationen und interaktionsmöglichkeiten nicht glaubhaft wirkt. Und genau das brauche ich um in ein Spiel einzutauchen.

Dinge die bei erster Betrachtung erstmal sinnlos klingen (voluminöse Wolken in Crysis z.B.) tragen einiges zur Atmosphäre bei und sind definitiv ein Schritt in die richtige Richtung.

Es bringt ja nichts brachial die primären Aspekte eines Spieles zu optimieren, das drumherum muss gleichermassen mitentwickelt werden. Phys-X oder jegliche Konkurenzentwicklungen sind bei mir deshalb sehr willkommen.

In letzter Zeit konnte man in etlichen Spielen "Full-Screen-Fx" bestaunen, Shaderoperationen die sich auf den kompletten Look des Spiels auswirken.

Das Zusammenspiel all dieser neuen Möglichkeiten verschafft uns jetzt schon Spiele die sich ähnlich wie ein Film anfühlen und die auch so aussehen.

Habt ihr die Condemned Demo gezockt? Selten hab ich mich so nah dabei gefühlt wie dort...warum? Weils einfach stimmig ist, die Animationen Sounds etc passen zueinander und der Blur verleiht dem ganzen nochmal etwas Filmflair.

Ich will das Kompletttpaket und keine halben Sachen!
 
bassmecke schrieb:
Ich spiele keine Shooter, und in Mafia will ich lieber nicht noch auf die Flugbahn der Kugeln achten müssen.


Noch realistischer? Ich hab GTR deshalb geknickt und spiele lieber NFS. Wenn ich realistische Fahrphysik will, fahr ich Auto. Ich will doch Spaß beim spielen haben und nicht Extremphysik stundenlang erlernen.In so einem Game wäre man ja ohne Force-Feedback Lenkrad und Pedalerie aufgeschmissen...das will doch keiner...




Danke, dass ist schon eine sehr fachmännische und tiefgründige Antwort ;)

Wenn ich die beiden Posts zusammenfasse, wird die Karte für mich nur noch überflüssiger ;)

mensch du kannst do nich von dir auf andre schliessen

grade spiele wie gtr oder lockon werden davon profitieren
es gibt auch noch leute die sowas genau deswegen spielen

ich denke das man viel zu lange drauf gewartet hat

apropo auf das mobo löten

man sieht ja was mit dem sound passiert ist

der onboard sound kann mit meiner audigy nicht im geringsten mithalten
 
"Will nicht auch noch auf die Flugbahn der Kugeln achten müssen."

Dann musste Arcadegames zocken oder auf Konsole umsteigen.
Zielen muss man schon...um mehr musst dich doch nich kümmern?
 
ich hab letztes mal super mario bros gespielt und war begeistert.. es fehlt heutigen games nicht an optik, sondern an ideen. und das was schon lange abgeht ist detailreichtum.. (real wirkende welt, die nicht nur so aussieht, als hätte sie auf deinen char gewartet...)
 
Wie krass...

Gamestar.de / CoolTechZone schrieb:
Eine weitere trendsetzende Errungenschaft könnte sein, dass die GPU Physik in Spielen berechnen kann. So soll der R600 laut internen Aussagen von ATI bereits in der Lage sein, die Aufgaben einer PhysX-Karte vollständig zu übernehmen. Sollte dies entsprechend in die Tat umgesetzt werden, könnten harte Zeiten auf Ageia zukommen.
 
Jaja, der R600 ist eine GPU, das wirkt sich bestimmt auf die Leistung der Grafikkarte aus, also eher stumpfsinn in meinen Augen.:stupid:
Die sollten eine PPU auf die PCB der GPU dranlöten, dann wär ich zufrieden...

mfg Nakai
 
Öhm, kannst du nochmal erläutern was du zu sagen versuchst?
Der R600 ist eine GPU...ja sicher ist er das :confused:

€: Langsam wird mir klar was du sagen willst...es ist ja nichtmal sicher das die Physikeinheit in der GPU integriert sein wird oder als zusätzlicher Chip seinen Weg aufs PCB findet. Das einzige worüber ich mir sorgen mache ist die Wärmeentwicklung bei so einer Lösung..naja und die offene Frage von welchem Speicher die einheit leben will, also ich möchte nichts von meinem Grakaspeicher dafür opfern.
 
Zuletzt bearbeitet:
im ersten halbjahr 2007 werden die ersten titel erwartet, die diese technik bereits einsetzen. er meint wahrscheinlich die havok FX engine, die auf einer SM3 tauglichen grafikkarte dann physics via pixelshader berechnet.

soweit ich das mitbekommen habe, muss man dafür dann aber eine zweite graka einbauen. also in meinem fall würde ich dann die untere karte statt für SLi, für die physics verwenden und würde das 3D rendering von der oberen karte erledigen lassen.

(..)

mfg
tobi
 
Ist das alles kompliziert...also insgesamt 3 verschiedene Varianten?

- Ageia Phys-X PCI Karte, vermutlich Nvidia optimiert.

- ATI R600 (und aufwärts), integrierte Physikeinheit, noch namenlos

- NV G80 (und aufwärts), integrierte Physikeinheit, "Havok-Fx" (nur mit 2 Karten nutzbar (bezweifel ich aber irgendwie))
 
Mal ganz ehrlich? Ich will keine "realistischen" Spiele.
Zumindest nicht in allen Bereichen.
 
Werd mir die karte vorerst net kaufen.
Scheiss Geldmacherei...
Zurzeit sind nicht mal gute Games angekündigt - außer vielleicht Sacred 2...

Und wo will man denn bei Sacred 2 großartig Physik berechnen?
Und bei UT 2007??!

Ich rieche da wieder PR Marketing (wie bei HDR)...
 
Zuletzt bearbeitet:
Auch ne Ansicht, aber die neuen Technolgien ermöglichen doch auch total abgefahrene Szenarien, sie werden doch nur glaubwürdiger.

Und HDR ist kein Marketinggag, und du musstest dir ja auch keine HDR Extra Karte kaufen, die Funktion wurde irgendwann implementiert und wird heutzutage von fast jedem Spiel genutzt.
 
Zuletzt bearbeitet:
also ich denke das ich mir leiber zum weihnachtsgeld 2 G80er hole als die physikkarte, denn die Grafikkarten beschleunigen nicht nur bestimmte spiele sondern alle für die es SLI treiber gibt und auch sonst ältere, und das sind viel mehr. ausser dem wo soll das denn hin führen? AT-XL oder wie? bei mir wären das dann im PCIE 16-1 ne graka. der PCIe1er durch kühler belegt. im 4er die physickkarte. direkt darunter 2. graka. der erste PCI durch graka belegt und 2. PCI für Soundkarte. toll also grad noch einen PCI frei, vlt für Tokenring adapter oder SCSI-Controller. aber wo soll eigentlich die wärme hin? "Arctic Cooling Physic-Silencer" oder wie? das muss noch ordentlich über dacht werden!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh