Ageia PhysX PPU

Also ich finde den Preis nicht zu hoch.. Dieser wird sicherlich noch sinken.. Wenn dann auch noch mehr Hersteller.. Das wird schon :)

Aber was mich stört.. Warum zum Teufel klatschen die da so nen kleinen drecks Lüfter drauf? :[
Also da wünsch ich mir doch was passives..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Berion schrieb:
schaut euch den trailer hier an ^^

CELLFACTOR

http://www.gametrailers.com/top20.php

ich freu mich wie ein kleinkind auf diese phys karten :bigok:

sowas habt ihr noch nie gesehen!!! endlich wiedermal eine pc-revolution.

der soundtrack ist auch geil ^^.

Naja, also die Physikspielereien sind ja ganz nett in dem Video, aber so überdeutlich als bloße werbung für ageia missbraucht. Dieses Feature hat doch scheinbar NULL Sinn in dem Game, jaaahaa man kann mit seinen "magnetgranaten" und "megahänden" alles verschieben und umherwirbeln. Aber warum?? :hmm:
Is ja "logisch" das man hunderte meterhohe Kistenstapel überall auf der Map verteilt...was da wohl drin is?
Nun gut, aber cool siehts auf jeden fall aus! ;)
 
Preis hin, Preis her... wer so etwas haben möchte gibt auch 300 Eus dafür aus...

Die ganzen Demos, auch auf der Homepage von Ageia, gefallen mir wirklich gut und ich denke, dass das auch Sinn macht die Berechnungen auf eine eigens dafür gedachte Recheneinheit auszuführen aber wie bereits gesagt mcht es kein Sinn diese über PCI anzubinden... ich finde sowas könnte man doch dierekt auf der Graka oder besser gleich in der GPU unterbringen, spart die zusätzliche Karte und man hat nicht das Problem mit der Anbindung...


Greets
 
@SpaceTrucker
Nette Rechnerei ... jedoch denke ich daß PCI erst mal vollkommen ausreichen wird. Die Karte rechnet ja wirklich nur die reine Physik - und muß somit "nur" die Objektpositionen sowie Verformungen der Modelle (falls möglich - bei Steinen z.B. unnötig denk ich) berechnen und diese an die Engine und somit die Grafikkarte zurückliefern.
Grafikkarten sind ja auf AGP bzw. PCI-E weiterentwickelt worden eigentlich nur wegen den Texturmassen und weil der Port direkt zur Northbridge angebunden ist und sich die Bandbreite nicht noch mit anderen Geräten teilen muß.
Also ich denke die haben die als PCI rausgebracht weil 1. die Bandbreite (noch) ausreichend ist und 2. eigentlich jeder einen PCI Slot hat.
Es wird aber sicher nicht lange dauern (falls die Karte den erwarteten Erfolg hat) bis PCI-E Karten rauskommen.

Zum allgemeinen Sinn der Karte - ich denke daß die Idee nicht schlecht ist. Jedoch hängt der Erfolg der Karte doch in erster Linie von Ihrer Unterstützung ab. Die ersten Demos sehen sehr nett aus und ich denke daß es ein guter Schritt in Richtung "Noch realeres Gameplay" geht - aber wenn die Karte nicht genutzt wird war es leider nur eine "gute Idee".

Vom Preis bin ich auch nicht so richtig geschockt denn der ist bei neuen Produkten (bzw. komplett neuen Produktarten) immer ziemlich hoch. Wenn jedoch der Markt mehrere Produkte anbietet und die Nachfrage groß genug ist wird der sicherlich stark sinken.
Ich wäre bereit so zwischen 100 und 150 EUR auszugeben wenn die Karten wirklich gut unterstützt werden.

@bassmecke
Ich verstehe Deine Kritik, jedoch sollte die nicht gegen den Gedanken / die Idee hinter der Karte gehen sondern eventuell gegen die Ausführung. Ich hoffe auch falls die Karten Erfolg haben daß die Chips in die Grafikkarten oder CPUs integriert werden.
Die Idee dahinter ist jedoch daß der CPU viel Rechenarbeit abgenommen wird und die Kapazitäten wesentlich höher liegen denn eine aktuelle CPU reicht vielleicht um eingeschränkt ein wenig Physik zu berechnen und in Spiele zu integrieren - jedoch kann die Karte das um ein vielfaches schneller und vor allem viel mehr davon.
Und wie auch schon SpaceTrucker meinte kann man ja die Karte sicher sehr vielfältig einsetzen. Bei Rollenspielen wie Du als Beispiel genannt hast könnte es jetzt z.B. Bäume / Büsche und Gräser sein die je nach Wind korrekt und gleichmäßig sich bewegen (nicht nur zufällig wie in den meisten Spielen derzeit Obilion z.B.) UND die CPU müsste das nicht berechnen.
Oder Ballistische Waffen wie Bogen / Armbrust / Schleudern / Wurfwaffen u.ä. könnten damit berechnet werden (sieht ja derzeit in Oblivion auch sehr nett aus) - das würde die CPU auch weiter entlasten.
Bei Kämpfen könnten die Gegner bzw. man selbst je nach Schlag / Stich / Hieb / whatever reagieren wie z.B. zur Seite / zu Boden / nach Hinten gestossen werden bzw. das Schild oder die Waffe zur Seite / weg geschlagen werden. Bei (schon wieder) Oblivion ist das teils ja schon recht nett integriert - doch es sieht oft blöd aus wenn ich einen Goblin von der Seite / Hinten einen Hieb bzw. Schlag mit einer Axt oder einen Warhammer verpasse und der bekommt nur etwas schaden / schreit kurz / bewegt sich aber gar nicht bzw. ganz wenig.
Das könnte hier auch sehr viel Spaß machen viele Physikeigenschaften einzubauen.

Und bei Rennsimulationen muß das ja noch nicht bedeuten daß das Spiel dadurch schwerer wird. Jedoch fühlt es sich sicher besser an bzw. macht mehr Spaß wenn das alles etwas realer wirkt bzw. die Fahrzeuge / Umgebung sich realistischer verhalten. Beim NFS MW finde ich es z.B. schon mal sehr lustig und gut daß es viele Objekte auf / neben der Strasse gibt die man umfahren bzw. dadurch mitschleifen / wegstossen kann. Bei FlatOut haben die das auch sehr nett eingebaut. Mich hat das immer genervt daß wenn man mit 250 Sachen in eine Laterne oder eine Parkbank brettert bei vielen Spielen man einfach von 250 auf 0 stoppte - und man zurückschieben und wieder anfahren musste. Man muß deswegen ja noch lange nicht gleich kaputt sein (zwecks Arcade Spielen) - aber wenn man sich spektakulär überschlägt oder zurückgestossen wird oder die "festen" Objekte ab einer gewissen physikalischen Kraft auch nachgeben / weggestossen werden oder einfach nur die Fahrt verändern wäre das sicher genial und würde viel Spaß machen.

Für mich steht auf jeden Fall fest - die Karte ist ne nette Idee und wenn sie wirklich ordentlich unterstützt wird / etwas billiger wird bzw. mal wo integriert wird werde ich sie mir kaufen.

Als große Endfrage stellt sich für mich jedoch in den Raum wie die Spiele dadurch beeinflusst werden bzw. das Gameplay - denn wenn man jetzt so eine Karte NICHT hat sollte sich ja das Spiel nicht großartig verändern was ich mir jedoch schwer vorstellen kann, daß es nicht so ist. (denn bei vielen Spielen wie z.B. Rennspielen oder Shootern müsste sich ja das Gameplay doch recht stark verändern)
 
Zuletzt bearbeitet:
@Bucho
Wo du gerade erwähnst das die PhysX Karte ja auch die Modellverformungen berechnet fällt mir auf, dass ja mit DirectX 10 Vertextexturen einzug halten sollen. Dadurch sollte das Datenvolumen deutlich ansteigen. Das macht PCIe dann auf jeden Fall erforderlich. Aber bis dahin dauerts ja noch was länger. Andererseits wirds dann mit Vertextexturen auch einfacher Modellverformungen auf der Graka zu rechnen weil dann die Vertexshader noch mal in ihrem Befehlssatz aufgestockt werden.

MfG
SpaceTrucker
 
Vertextexturen ?
Ist da nicht schon was in DirectX 9.0 bzw. Shader Model 3.0 implementiert ?
Wird das so groß erweitert in DX 10 ?

Wie dem auch sei - die Texturberechnungen / bearbeitungen / effekte werden sicherlich weiterhin nur von der Grafikkarte gemacht. Deshalb glaube ich daß die PCI Performance schon noch eine Weile genügen wird um die PhysX Karte zu unterstützen.
Ich gehe auch nicht davon aus daß jetzt auf einmal in einem Spiel mit der Karte an die 10 000 Objekte gleichzeitig per Frame berechnet werden. Nach wie vor bedeuten mehr Objekte auch mehr Speicher / Verwaltungsaufwand für die CPU und Mainmemory sowie mehr Renderarbeit der Grafikkarte.
Aber ich rechne schon damit daß sich da so gut um die 100 größere Objekte und einige Kleine (nur kleine Partikel für Funken / Staub / Steine usw.) in Spielen sehr gut aussehen und auch locker berechnet werden können.
 
Bringen wird die Karte ja auf jedenfall was denk ich, is zwar wirklich noch ein bisschen teurer, aber die ganzen Berechnungen werden ja dann von der Karte und nich mehr von der CPU berechnet, was doch schon sehr viel Leistung bringt und z.B. für bessere KI genutzt werden kann.
 
Bucho schrieb:
Vertextexturen ?
Ist da nicht schon was in DirectX 9.0 bzw. Shader Model 3.0 implementiert ?
Wird das so groß erweitert in DX 10 ?
Nein, das wird wohl doch etwas anders. In DirectX 9 ist nur die Verarbeitung von Vertexstreams vorgesehen (das heisst jeder Vertex einzeln für sich). Was genau Vertextexturen sind könnte man ja mal nachschauen, genau weiss ich es auch nicht.

Bucho schrieb:
Nach wie vor bedeuten mehr Objekte auch mehr Speicher / Verwaltungsaufwand für die CPU und Mainmemory sowie mehr Renderarbeit der Grafikkarte.

Das mehr an Verwaltungsaufwand ist eigentlich nicht der Rede Wert, wenn man schon so ne extra Karte einführt. Schließlich sendet ja nicht der Prozessor die Befehle für jeden Partikel zu berechnen, dass der von diesem Ort weg fliegt, sondern er sendet einmal einen Befehl an die PhysX Karte der sagt, dass soundsoviele Objekte von der Stelle weg fliegen, weil da grade ne Granate explodiert ist. Also wäre quasi die Berechnung für ein Partikel auf der CPU quasi gleich zu setzen mit beliebig vielen auf der PhysX Karte, natürlich nur bezogen auf die CPU Last.
Der Hauptspeicher dürfte fast gar nicht belastet werden, da ja die PhysX Karte ihren eigenen Speicher hat. Da brächte eine Kopie der Daten im Hauptspeicher nur ein zusätzliches Synchronisationsproblem.

MfG
SpaceTrucker

EDIT: hab mal schnell was gesucht:
http://developer.nvidia.com/object/using_vertex_textures.html
also ist es doch schon im Vertexshader 3.0 integriert. Allerdings sind die Restriktionen noch sehr streng, was das lesen von Texturdaten im Vertexshader anbelangt. Ich nehme an, dass diese dann mit DirectX 10 weiter gelockert werden.
 
Zuletzt bearbeitet:
-scarface- schrieb:
Hi,

bisher keine Titel die mich interessieren, dazu noch eine Karte, wird mit sli und ner soundkarte zeihmlich eng und unansehnlich. Natürlich son kleiner nerviger Popelüfter drauf. Ich denke es heisst abwarten bis das ganze wirklich was bringt und fix auf den grakas integriert ist.

grüsse Peter


Nachdenken , dann antworten !

Der G80 kann in einem Chip schon Dualcore ... also SLI und ist auch so geplant , bedeutet eine Grafikkarte für SLI , 2x Grafikkarten für Quad.

Ergo wenn Du SLI und Physik-X willst ab Ende 2006 , bleibt es optisch
korrekt ;o)

Wenn sich die Physik-X Geschichte durchgesetzt hat , wirst Du den
Chip vielleicht auch auf dem Mainboard wiederfinden und Arbeitet vielleicht
als shared mit Deinem schnellen Arbeitsspeicher , wäre sehr kostengünstig
und sicherlich technisch einwandfrei möglich.

Greetz Koyote008
 
Ich würde mir die Karte erst holen, wenn dadurch die GAmes an 10 bis 18 frames zunehmen mit der Karte. Ansosnten wäre das nur Geldverschwendung.
 
TryOnce schrieb:
Ich würde mir die Karte erst holen, wenn dadurch die GAmes an 10 bis 18 frames zunehmen mit der Karte. Ansosnten wäre das nur Geldverschwendung.

Kommt auf die Basis der Frames an :fresse:

Ne 2. Graka bringt 50-90 % Mehrleistung bei Gamerelevanten
Einstellungen im High-End Sektor.

Also sollte die Physik-X Karte zumindest 30% - 50 % Mehrleistung
bringen müssen , wenn Sie 200 - 300€ kosten soll , finde ich !

Greetz Koyote008
 
Koyote008 schrieb:
Wenn sich die Physik-X Geschichte durchgesetzt hat , wirst Du den
Chip vielleicht auch auf dem Mainboard wiederfinden und Arbeitet vielleicht
als shared mit Deinem schnellen Arbeitsspeicher , wäre sehr kostengünstig
und sicherlich technisch einwandfrei möglich.
Der Chip wird dann aber trotzdem seinen eigenen Speicher haben da ja jetzt nicht umsonst schon GDDR3 auf den Karten verbaut ist. DDR2 wird einfach nicht die Bandbreite haben für sowas.

MfG
SpaceTrucker

Edit:
@Koyote008
Wie willst du die Mehrleistung messen. Du wirst aufgrund der PhysX Karte nicht mehr Frames haben. Du hast nur ne realistischere Darstellung. Und das ist ja bekanntlich Ansichtssache.
 
Zuletzt bearbeitet:
SpaceTrucker schrieb:
Der Chip wird dann aber trotzdem seinen eigenen Speicher haben da ja jetzt nicht umsonst schon GDDR3 auf den Karten verbaut ist. DDR2 wird einfach nicht die Bandbreite haben für sowas.

MfG
SpaceTrucker

Könntest Du natürlich auch wieder Recht haben :hail:

Aber DDR2 ist ja auch nicht von langer Dauer , AMD hatte ja sogar
kurzzeitig überlegt DDR2 zu überspringen.

Dann denken wir beide das es ab Mitte 2007 dann passt , würde
nen Physik-Chip uffn Mainboard als Shared-Ram Lösung extrem cool
finden , weil günstig , und mit Line-Stripps wie Abit es gerne gemacht
hat um die Wärme aufs PCB abzuführen , wäre sicherlich passive Kühlung
auch noch möglich.

Ich spare schonmal :hail:

Greetz Koyote008
 
Koyote008 schrieb:
Kommt auf die Basis der Frames an :fresse:

Ne 2. Graka bringt 50-90 % Mehrleistung bei Gamerelevanten
Einstellungen im High-End Sektor.

Also sollte die Physik-X Karte zumindest 30% - 50 % Mehrleistung
bringen müssen , wenn Sie 200 - 300€ kosten soll , finde ich !

Greetz Koyote008

Also ob / wie viel Frames ein Spiel dann schneller ist ist doch egal.
Ihr denkt da in die falsche Richtung (ich meine natürlich könnte / sollte das Spiel dann auch schneller laufen da die CPU entlastet wird) - aber der Hauptgrund für die Karte ist daß damit vieles möglich wird was bis dato mit einer CPU nicht zu schaffen war.
 
SpaceTrucker schrieb:
Edit:
@Koyote008
Wie willst du die Mehrleistung messen. Du wirst aufgrund der PhysX Karte nicht mehr Frames haben. Du hast nur ne realistischere Darstellung. Und das ist ja bekanntlich Ansichtssache.


Interessanter Denkansatz :wink:


Naja , mit 3D06 kann man es messen , auch wenn es nicht extrem
Aussagekräftig ist.

Glaubst Du denn das man die Features nicht zuschalten kann , wenn kein
Physik-X Beschleuniger am Start ist , oder ich habs falsch verstanden !?

Ich glaube es eigentlich schon , das man es kann , und dann demzufolge messen kann.

Hach ist das spannend :)

Greetz Koyote008
 
Koyote008 schrieb:
Aber DDR2 ist ja auch nicht von langer Dauer , AMD hatte ja sogar
kurzzeitig überlegt DDR2 zu überspringen.

Dann denken wir beide das es ab Mitte 2007 dann passt , würde
nen Physik-Chip uffn Mainboard als Shared-Ram Lösung extrem cool
finden

Wird dann trotzdem eng werden mit der Bandbreite, weil DDR3 auch hinter den Übertragungsraten von aufs Board gelötetem GDDR3 hinterher hinken wird. Das ist einfach elektrisch bedingt, weil man bei Steckmodulen immer ne schlechtere Signalübertragung als bei gelöteten Modulen hat. Bis dahin werden auch die CPUs wieder schneller sein. Zudem ist der Speicherbus ja bei der Von Neumann Architektur und besonders bei der x86 Architektur ja schon immer der Flaschenhals gewesen. Da sollte man den nicht noch weiter belasten.
Sonst seh ichs schon vor mir:
Die Partikel brauchen ewig lange bis sie endlich mal darum fliegen. Genauso als wenn man ne Komposter mit ner sharedRam Graka hat und der Bildaufbau ewig dauert :fresse:

MfG
SpaceTrucker

EDIT:
Ich glaub nicht das man das zuschalten kann, da ja die aufwändigeren Partikel die mit der PhysX Karte laufen ja ganz anders programmiert sind, als zeug was auf der CPU läuft. Und nen Backend was PhysX Programme auf der CPU simuliert hab ich zumindest im SDK von vor 2 Monaten noch vermisst. Zudem kannst du dann wohl kaum auf mehr als 0,1 Bilder pro Sekunde hoffen.
 
Zuletzt bearbeitet:
SpaceTrucker schrieb:
Wird dann trotzdem eng werden mit der Bandbreite, weil DDR3 auch hinter den Übertragungsraten von aufs Board gelötetem GDDR3 hinterher hinken wird. Das ist einfach elektrisch bedingt, weil man bei Steckmodulen immer ne schlechtere Signalübertragung als bei gelöteten Modulen hat. Bis dahin werden auch die CPUs wieder schneller sein. Zudem ist der Speicherbus ja bei der Von Neumann Architektur und besonders bei der x86 Architektur ja schon immer der Flaschenhals gewesen. Da sollte man den nicht noch weiter belasten.
Sonst seh ichs schon vor mir:
Die Partikel brauchen ewig lange bis sie endlich mal darum fliegen. Genauso als wenn man ne Komposter mit ner sharedRam Graka hat und der Bildaufbau ewig dauert :fresse:

MfG
SpaceTrucker

EDIT:
Ich glaub nicht das man das zuschalten kann, da ja die aufwändigeren Partikel die mit der PhysX Karte laufen ja ganz anders programmiert sind, als zeug was auf der CPU läuft. Und nen Backend was PhysX Programme auf der CPU simuliert hab ich zumindest im SDK von vor 2 Monaten noch vermisst. Zudem kannst du dann wohl kaum auf mehr als 0,1 Bilder pro Sekunde hoffen.



:hail:

Gut , dann muss ich die Shared DDR3 Vision @ Mainboard knicken :kotz:

Mit dem nicht zuschalten ohne Beschleuniger nehme ich mal so hin und resümiere das es nicht messbar ist , höchstens das ich ne Timedemo im
Spiel mit der normalen Physik benchen kann wie Sie ohne Physik-X
Beschleuniger ist ... und ohne Physik , weil die Physik dann j a komplett
vom Beschleuniger übernommen wird + Zusatz Features.

Dann hätte ich ja nen Vergleich +hrhr+


Und was ist mit der Havok-Engine ? Worauf läuft das hinaus ?

Das ein Spiel Physik-X ist und das nächste die Physik über die Havok
Engine läuft und ich ne Physik-X Karte brauche für das eine game und
weils ichs beim anderen Game auch nutzen will ne Nvidia Karte haben muss
!?

Einheitlich gehts wohl nicht , oder kann der Physik-X Beschleuniger alle
Engine verarbeiten ?

Fragen über Fragen.....

Greetz Koyote008
 
Koyote008 schrieb:
...

Und was ist mit der Havok-Engine ? Worauf läuft das hinaus ?

Das ein Spiel Physik-X ist und das nächste die Physik über die Havok
Engine läuft und ich ne Physik-X Karte brauche für das eine game und
weils ichs beim anderen Game auch nutzen will ne Nvidia Karte haben muss
!?

Einheitlich gehts wohl nicht , oder kann der Physik-X Beschleuniger alle
Engine verarbeiten ?

Fragen über Fragen.....

Greetz Koyote008

Naja das ist das Problem das ich schon mal angesprochen habe (in den News wo ATI was verläuten ließ daß die auch ne eigene Physikbeschleunigung machen wollen)
So wie's aussieht gibt's dann: Ageia PhysX, Havok + nVidia, ATI + ?

Erinnert mich an die 3D Karten Anfänge ... da gab's Glide (3DFX), Direct3D, OpenGL, MetAL (S3) und Software Rendering :fresse:

Letztendlich hat sich Direct3D durchgesetzt (da in DirectX implementiert) - und OpenGL wird auch noch oft genutzt.

Vielleicht haben wir auch bald ne DirectP (Physics) Schnittstelle im DirectX :rolleyes:

Aber bis dahin wird's wohl noch ne Weile dauern ... und was die Softwareentwickler unterstützen bzw. was aus den verschiedenen Lösungen wird wird sich wohl erst in mind. 1/2 Jahr zeigen.
 
@ Bucho

Naja UT2007 @ Physik-X ist ein Hartes Zeichen.

Nvidia war bei Spieleherstellern durch Investitionsunterstützungen
ATI schon immer WEIT vorraus.

Ich denke mit Havok dekt man dann schon die Hälfte der Games ab,
und mit Physik-X auch nen Grossen Teil.

Mit der Schnittstelle DirectX ist interessant , langsam wird mir wirr im Kopf ,
das dauert aber sicher bis 2008 falls es geht.

Was ATI machen will ist mir Rätselhaft , ATI hat ja versucht Ageia durch
den Dreck zu ziehen ne Zusammenarbeit wirds da wohl schwer geben.

Greetz Koyote008
 
Zuletzt bearbeitet:
Mir fällt da grad was auf. Natürlich ist mit ner PhysX Karte ne Anwendung schneller, da ja die CPU entlastet wird. Is mir doch glatt entgangen...

Koyote008 schrieb:
Und was ist mit der Havok-Engine ? Worauf läuft das hinaus ?

Das ein Spiel Physik-X ist und das nächste die Physik über die Havok
Engine läuft und ich ne Physik-X Karte brauche für das eine game und
weils ichs beim anderen Game auch nutzen will ne Nvidia Karte haben muss
!?

Einheitlich gehts wohl nicht , oder kann der Physik-X Beschleuniger alle
Engine verarbeiten ?

Müssen es denn gleich so komplizierte Fragen sein...
Naja ich versuchs trotzdem mal:
PhysX und Havok FX haben andere Programmierschnittstellen und sind deshalb schon mal grundsätzlich nicht kompatibel zueinander. Von daher müsste eigentlich dasselbe, also die Physikeffekte, 2 mal programmiert werden. Das treibt natürlich die Entwicklungskosten in die Höhe.
Aus softwaretechnischer Sicht würde man es so machen: Man entwickelt nen extra Aufsatz, der weder PhysX noch Havok FX versteht. Das Frontend verarbeitet eine davon unabhängige Sprache was an Physik berechnet werden soll. Als Backend davon kann man dann einfach eine Schnittstelle für PhysX, Havok oder die CPU machen.
Noch mal zusammengefasst für den Nichtinformatiker:
man entwickelt ne Software wo man Physik vorn rein stopft und hinten PhysX
oder Havok FX raus plumst ;)
Das Problem dabei ist, dass das auch wieder Geld kostet, aber halt universell und mehrfach benutzt werden kann. Auch geht dadurch etwas Leistung verloren. Es wird dann nur zwischen 90 und 99% der Leistung abrufbar sein, als wenn man es direkt mit PhysX oder Havok macht. Dieser Verlust ist im allgemeinen aber noch verkraftbar.
Ein großes Problem ist auch noch das PhysX und Havok FX grundsätzlich andere Programmiertechniken haben.
Bei Havok wird es wieder darauf hinauslaufen das man Shader für Grafikkarten schreibt.
Bei PhysX sieht die Sache so aus:
?
(ich hab keine Ahnung :fresse: , weil Ageia einfach viel zu viel davon nicht dokumentiert)

Havok FX wird auch auf ATI Karten laufen, es sei denn nVidia schiebt dem absichtlich einen Riegel vor. Grundlage von Havok FX ist ja Pixelshader 3.0 und DirectX 9 oder höher. Mehr braucht es im Prinzip nicht um sowas zu machen.

Koyote008 schrieb:
Fragen über Fragen.....
Immer her damit :)

MfG
SpaceTrucker
 
Tja .....

das sagt uns das man Physik-X und Havok absolut trennen muss ,

und sich wahrscheinlich ne Nvidia kaufen muss.

Oder eben Softwarelösungen braucht.

Naja ... wird schwieriger wenn es 2-3 Physik-Engine gibt und Hersteller
abhängig.

Öhm , allerdings ist Physik ein wichtiger Bestandteil vieler Games geworden
und ich denke man verzichtet nicht gerne darauf.

hmmmm , aber z.B. später selbst bei heutigen 300€ dann meinetwegen 150€
für ne Physik-X Karte ausgeben , wenn nur 1/4 der Gesammten Games drauf laufen
auszugeben ..... nunja.

Greetz Koyote008
 
h-h-e schrieb:
Kann den Popel mit der Physikberechnung nicht eh einer der 4 Cores beim kommenden Quadcore berechnen :shot: :confused: :shot:


Naja , mein SLI Popelt im 3D06 bei der Stelle ganzschön ... 1-2 FPS +lol+ ,

Havok Engine ja , Physik Engine nein , iss ja der Scheiss mit den verschiedenen Engine.

Quadcore mit zwei Dualcore Grakas iss schon was ;o)

Greetz Koyote008
 
Das wurde schonmal weiter vorne beschrieben das die Verabreitung dann trotzdem zu lange dauern würde da der Speicher da ja mit verwendet werden muss! und die PPU hat eigenen Speicher wo das alles schneller machen kann! :fresse:
 
ramrod1708 schrieb:
Das wurde schonmal weiter vorne beschrieben das die Verabreitung dann trotzdem zu lange dauern würde da der Speicher da ja mit verwendet werden muss! und die PPU hat eigenen Speicher wo das alles schneller machen kann! :fresse:

Doch auf ner Graka ne PPU ... das geht schon :wink:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh