Ageia PhysX PPU

Kommt eigentlich auch eine Karte für die "kurzen" PCIe Slots raus?
Bei mir sind alle PCI voll und die PCIe mit SLi bestückt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Koyote008 schrieb:
Korrekt , und schliesslich soll ja z.B. im SLI eine GPU die Havok Physik
Engine Problemlos rechnen können.

Warum allerdings angeblich die GPU getrennt alleinig rechnen muss ist
mir leider nicht so ganz klar.

Aber da der G80 die Möglichkeit hat zwei GPU in einem Kern zu haben
ist es auch egal und genial zu gleich.
Falls du mit "alleinig rechnen" meinst, das bei 2 GPUs eine die Physik übernimmt, dann ist SLI halt nicht lauffähig, weil bei SLI immer alle GPUs das gleiche zu einem Zeitpunkt tun müssen.
Beispiel:
Für ein Objekt soll Per Pixel Lightning und danach Moition Blur berechnet werden. Im SLI machen dann machen erst beide GPUs das Per Pixel Lightning und danach das Motion Blur. Es ist nicht der Fall das eine GPU das Per Pixel Lightning macht und die Daten dann weiter reicht an die andere die Motion Blur berechnet. Das könnte erst realisiert werden, in dem beide GPUs getrennt arbeiten.

Es stellt sich für mich auch die Frage, in welcher Konfiguration Havok laufen wird.
Als erste Möglichkeit sehe ich, das ich eine Graka extra nur dafür abstelle die Physik zu berechnen. Das war auch die Möglichkeit die ich bisher immer in betracht gezogen habe. Die hat aber einige Nachteile. Sobald die Physiklast mal nicht so hoch ist läuft die eine Graka im Leerlauf. Die könnte aber dazu benutzt werden um mit zu rendern.
Deshalb jetzt die andere Möglichkeit:
Ich hab einfach meine ganzen GPUs und benutze alle gleichzeitig um mal was zu rendern und dann danach mal n paar Partikel zu berechnen. Dies hat den Vorteil, dass das auch auf einer einzigen Grafikkarte lauffähig ist und die GPUs immer voll ausgelastet sind. Das wechseln zwischen Physikberechnung und Rendering sollte keinen Performanceverlust haben (Stichwort Multiple Render Targets).

iNfamous schrieb:
Die 7800er benutzt die 160gflop doch für zig berechnungen, nicht nur für physik.
Sagen wir einfach mal die 7800gtx benutzt 10% der Ressourcen für die Physik also 16 gflop. Dann hätte die Ageia 160 gflop.
Ja. Da ist halt die Frage ob wirklich ne ganze 7800gtx die Physikberechnungen übernimmt oder ob geschedult wird. Denn so wie du sagst könnte ich auch sagen ein 386er berchnet ne Seti Workunit schneller als nen neuer P4. Auf diese Weise kann man halt die Rechenleistung von Chips nicht vergleichen. Deswegen bin ich davon ausgegangen, dass wenn es stimmt was toon geschrieben hat, man davon ausgegangen ist, dass die Graka halt vollständig für Physikberechnungen genutzt wird.

Ich zieh mir jetzt erst mal das PhysX SDK. Mal sehen ob sich da was über Leistungsdaten finden lässt.

MfG
SpaceTrucker
 
So ich hab jetzt mal über das PhysX SDK drüber geschaut und muss sagen so richtig begeistert bin ich nicht.
So wie es aussieht sind die einzigen 2 Sachen, die die Karte berechnen kann Bewegungen von Objekten und Flüssigkeiten (wozu auch Feuer zählt).
Sieht wohl so aus als wird es erst mal nix mit deformierbaren Landschaften.

Das ganze SDK ist meiner Meinung nach sehr inflexibel ausgelegt. Man hat auch peinlich genau darauf geachtet, das man die Karte nur für sowas benutzen kann, so dass ein Einsatz für andere Aufgaben ausfällt.
Da stellt sich für mich die Frage ob es sich lohnt sich derart viel zusätzliche Rechenpower zu holen die dann die meiste Zeit nur vor sich hin gammelt.

MfG
SpaceTrucker

PS: Angaben zur Geschwindigkeit und Rechenleistung hab ich (noch) nicht gefunden.
 
Naja, wenn ich mal so drüber nachdenke. sie kann Bewegungen und Flüssigkeiten berechnen...

Nehmen wir an ein Haus explodiert bei Beschuss, das Rohobjekt muss so oder so von dem entsprechenden Modeler so ins Spiel integriert werden das bereits gewisse Bruchstücke vorhanden sind die sozusagen "lose" aufeinander liegen. Zaubern kann die Karte schliesslich nicht, sie kann ja nicht ahnen ob es sich um Ziegelsteine oder Holz handelt...die Informationen muss sie bekommen. Was bleibt dann noch über? Die Bewegung der Bruchstücke und Partikel...

Das selbe bei Landschaften...du kannst eine Landschaft im Prinzip auch als Flüssigkeit mit einer extrem hohen Dichte ansehen. *g*

Ich denke nicht das das ausserhalb des aufgabenbereichs / fähigkeiten der Karte liegt, es hängt vor allem an den Entwicklungsstudios wieviel Liebe in den Support solcher Karten gesteckt wird.
 
SpaceTrucker schrieb:
Falls du mit "alleinig rechnen" meinst, das bei 2 GPUs eine die Physik übernimmt, dann ist SLI halt nicht lauffähig, weil bei SLI immer alle GPUs das gleiche zu einem Zeitpunkt tun müssen.
Beispiel:
Für ein Objekt soll Per Pixel Lightning und danach Moition Blur berechnet werden. Im SLI machen dann machen erst beide GPUs das Per Pixel Lightning und danach das Motion Blur. Es ist nicht der Fall das eine GPU das Per Pixel Lightning macht und die Daten dann weiter reicht an die andere die Motion Blur berechnet. Das könnte erst realisiert werden, in dem beide GPUs getrennt arbeiten.

Es stellt sich für mich auch die Frage, in welcher Konfiguration Havok laufen wird.
Als erste Möglichkeit sehe ich, das ich eine Graka extra nur dafür abstelle die Physik zu berechnen. Das war auch die Möglichkeit die ich bisher immer in betracht gezogen habe. Die hat aber einige Nachteile. Sobald die Physiklast mal nicht so hoch ist läuft die eine Graka im Leerlauf. Die könnte aber dazu benutzt werden um mit zu rendern.
Deshalb jetzt die andere Möglichkeit:
Ich hab einfach meine ganzen GPUs und benutze alle gleichzeitig um mal was zu rendern und dann danach mal n paar Partikel zu berechnen. Dies hat den Vorteil, dass das auch auf einer einzigen Grafikkarte lauffähig ist und die GPUs immer voll ausgelastet sind. Das wechseln zwischen Physikberechnung und Rendering sollte keinen Performanceverlust haben (Stichwort Multiple Render Targets).

MfG
SpaceTrucker


Das habe ich auch so geschrieben ..... entweder Single & Havok Physik
Engine , oder SLI ohne Havok.

Im SLI ist es dann auch nicht tragisch , wenn das Spiel wenig Elemente hat
oder die Renderingpower mir nicht zusagt nutze ich SLI oder halt Havok.

Alllerdings interessiert mich ob im Quad 2 / 2 GPU´s mit gleicher Verteilung
laufen müssen. Wenn 3/1 nicht möglich ist , finde ich es schon teilweise
verschwenderisch.

Irgendwie wüsste ich gerne mehr.

Greetz Koyote008
 
Natürlich gibt es die Möglichkeit eine Landschaft als Flüssigkeit mit 0 Viskosität darzustellen, das Problem dabei ist aber dass es sich eher um eine Hacker Lösung handelt. Und das sollte eigentlich nicht das Ziel eines SDK sein. Soweit ich das SDK verstanden habe würde das auch die Last auf dem PhysX Prozessor enorm erhöhen, da jedes mal die ganze Landschaft neu berechnet werden muss um nur eine einzige lokale Delle darzustellen. Zudem werden auch im PhysX SDK sogenannte "Szenen" benutzt. Eine Szene umfasst alle Objekte die bearbeitet werden sollen. Wenn man nun Landschaft und sonstige Objekte in eine Szene packt wird die Last noch mal erhöht, da jedes mal Landschaft und Objekte durch den PhysX Chip gejagt werden müssen. Packt man die Objekte und Landschaften dagegen in 2 verschiedene Szenen ist eine interaktion zwischen den beiden nicht mehr möglich. Das ist auch wieder doof.

Zu dem Beispiel mit dem explodierendem Haus:
Wenn ein Objekt erschaffen wird dann werdem ihm Materialeigenschaften zugewiesen. Von daher wäre es wohl möglich der Karte auch Informationen zu geben, ab welcher Belastung zum Beispiel ein Material bricht. In einem bei dem SDK mitgeliefertem Beispiel gibt es auch einen Effekt wo Würfel auf einmal in mehrere Teile zerfallen. Ich bin mir aber nicht sicher ob es sich dabei um einen Bug handelt.

MfG
SpaceTrucker

Edit: Falls noch jemand sich das SDK besorgen will, dann verwendet bei der Registrierung bei Ageia kein Passwort, das ihr sonst irgendwo verwendet da die das als Klartext in ner Bestätigungsemail zurück senden :wall:

Edit2:
@Koyote008
Ich glaube Havok ist derzeit noch in einem zu frühen Stadium um jetzt schon genaue Details sagen zu können. Geduld mein Freund ;)
 
Zuletzt bearbeitet:
@SpaceTrucker

Meine Geduld beläuft sich bis zum Release und käuflichen Erwerb
des G80 , denn dann muss ich die funktionsweise definitiv kennen ,
ob ich mir ein SLI oder Quad System zulege , zumal ich davon
ausgehe das es den G80 als Single und DualGPU in einem Kern geben
wird und letzterer später erscheint.

Ein kleines Quad System & Ageia Karte und den Rest belassen und Power
haben und alle Techniken nutzen können , ist nichts übertriebenes ,
Ein Grosses SLI System mit enormen Untersatz ist nicht günstiger und
in Zukunft uneffektiver evtl. ....

und dies muss ich wissen :)

Greetz Koyote008
 
Also, hab ich alles richtig verstanden:
Eine PPU im SLI System bringt nix, und die Havok Physik braucht unbedingt SLI oder eine GK und eine PPU.
 
@SpaceTrucker / Koyote008
Hmm - also mir ist das schon klar daß dann ein Haus z.B. aus vielen Objekten die aufeinander / ineinander liegen aufgebaut ist. Allerdings erschreckt mich das mit den "Szenen" etwas.
Das würde bedeuten daß z.B. Fahrzeuge und Geschosse die z.B. das Haus zum einstürzen bringen könnten alle in einer Szene berechnet werden müssen um miteinander zu interagieren.
Das könnte bei mehreren Gebäuden / Fahrzeugen / Waffen schon ziemlich belastend für die PPU werden. Und was bleibt dann noch ? Ein Spiel wird ja sonst nicht aus wesentlich mehr bestehen.

Auch die Frage bleibt offen wie gut die Engine dann programmiert ist / wird für das Spiel.
Was z.B. lächerlich aussieht und oft nervt ist wenn z.B. ein Ragdoll Effekt oder ein Objekt nicht ganz zum Stillstand kommt.
Das hab' ich schon oft gesehen bei FarCry, FEAR, Obilion etc.
Letztens erst in Oblivion - da hab' ich einen Zombie erledigt der bei einem Sarg gestanden ist - als er umfiel ist er reingefallen und im Sarg hat er die ganze Zeit hin und her gezuckt.
Bei FEAR hab' ich das auch schon mal geschafft - da hab' ich einen Gegner an eine Tür mit dieser Nailgun geschossen und der hat noch ganz wild gezuckt (wie Headbangen in Zeitraffer :fresse: )

Also da sollten die Programmierer schon Wert drauf legen und quasi nach einer gewissen Zeit / oder nur noch bei ganz wenig Bewegung das Objekt / den Körper einfach erstarren lassen bis zum nächsten "externen" Einfluß.
Aber das stelle ich mir sicher alles einfacher vor als es ist.
 
Bucho schrieb:
Das könnte bei mehreren Gebäuden / Fahrzeugen / Waffen schon ziemlich belastend für die PPU werden. Und was bleibt dann noch ? Ein Spiel wird ja sonst nicht aus wesentlich mehr bestehen.

Natürlich besteht ein Spiel aus wesentlich mehr Elementen die man gar nicht erst alle aufzählen muss, spielt aber auch erstmal keine Rolle.

Denn die eigentliche Frage bzw wichtigste Information, bevor man sich den Kopf über die vorgehensweise zerbricht, ist doch die nach der Leistungsfähigkeit der PPU und dem Leistungsanspruch solcher Berechnungen.

Ohne dieses Wissen kann man doch gar keine Aussagen darüber treffen ob es die PPU packt oder nicht.

Ageia wird sich schon kein Ei legen...man kann ja schliesslich nicht mit nem Luftschloss an einen neuen Markt herantreten, zumindest sollte man das nicht wenn man das vorhaben hat eine neue technologie grossflächig zu etablieren
 
John_Q schrieb:
Also, hab ich alles richtig verstanden:
Eine PPU im SLI System bringt nix, und die Havok Physik braucht unbedingt SLI oder eine GK und eine PPU.
Nein.
Eine PPU im SLI System bringt dann was, wenn die Physikberechnung auch darauf ausgeführt wird. Denn dann steht die ganze Rechenleistung des SLI für das Rendering bereit. Das heisst kann mehr Grafikeffekte haben oder höhere Auflösung oder ...
Havok läuft nur auf SM3.0 fähigen Systemen, was ja de facto jetzt nur Grafikkarten sind. Auf der Havok Seite wird auch geschrieben, dass wenn bei der PhysX Karte SM3.0 Support eingeführt wird, dass Havok dann, aber auch nur dann, PhysX unterstützen wird. (Ich nehme aber an, dass dies nicht passieren wird, da sich ja dann Ageia die Konkurrenz ins eigene Haus einlädt)
Einzige Vorraussetzung für Havok wird eine SM3.0 fähiger Chip sein. Das heisst Havok läuft auf jedem modernen System mit Grafikkarte ab GeForce 6xxx oder ATI X1xxx.

MfG
SpaceTrucker

Bucho schrieb:
@SpaceTrucker / Koyote008
Hmm - also mir ist das schon klar daß dann ein Haus z.B. aus vielen Objekten die aufeinander / ineinander liegen aufgebaut ist. Allerdings erschreckt mich das mit den "Szenen" etwas.
Das würde bedeuten daß z.B. Fahrzeuge und Geschosse die z.B. das Haus zum einstürzen bringen könnten alle in einer Szene berechnet werden müssen um miteinander zu interagieren.
Das könnte bei mehreren Gebäuden / Fahrzeugen / Waffen schon ziemlich belastend für die PPU werden.
So schlimm ist es wohl doch nicht, wie ich erst gemeint habe. Das SDK bietet eine Möglichkeit Objekte in einer Szene zu gruppieren. Dann braucht nur immer eine einzelne Gruppe berechnet werden und nicht gleich die ganze Szene.

Bucho schrieb:
Und was bleibt dann noch ? Ein Spiel wird ja sonst nicht aus wesentlich mehr bestehen.
Ja, die PhysX Karte macht halt da was auch bis jetzt in Games immer angewandt wurde, nur halt schneller bei mehr Objekten. Ich hätte mir allerdings gewünscht, dass auch folgende Sachen möglich sind:
-Schuss mit einem Gewehr auf eine dünne Stahlplatte führt dazu, dass ein Loch in der Stahlplatte ist
-Geländeverformung (ist zwar möglich, aber halt nur als Hackingansatz)
-zerbrechen von Objekten (das PhysX SDK macht es zwar möglich zu berechnen ab wann ein Objekt bricht, aber es gibt keine Möglichkeit zu sagen, wie ein Objektz zerbricht, dazu wird halt immer die CPU gebraucht)
-richtiges verbrennen von Gegenständen (so mit verkohlen und rot glühen und so weiter)

Bucho schrieb:
Auch die Frage bleibt offen wie gut die Engine dann programmiert ist / wird für das Spiel.
Was z.B. lächerlich aussieht und oft nervt ist wenn z.B. ein Ragdoll Effekt oder ein Objekt nicht ganz zum Stillstand kommt.
Das hab' ich schon oft gesehen bei FarCry, FEAR, Obilion etc.
Letztens erst in Oblivion - da hab' ich einen Zombie erledigt der bei einem Sarg gestanden ist - als er umfiel ist er reingefallen und im Sarg hat er die ganze Zeit hin und her gezuckt.
Bei FEAR hab' ich das auch schon mal geschafft - da hab' ich einen Gegner an eine Tür mit dieser Nailgun geschossen und der hat noch ganz wild gezuckt (wie Headbangen in Zeitraffer :fresse: )
Sowas sollte dann mit der PhysX Karte auch nicht mehr vorkommen, da sie Reibung sehr genau berechnen kann und auch ein Mögichkeit bietet kontinuierlich Kollisionen darzustellen

MfG
SpaceTrucker
 
Zuletzt bearbeitet:
SinSilla schrieb:
Natürlich besteht ein Spiel aus wesentlich mehr Elementen die man gar nicht erst alle aufzählen muss, spielt aber auch erstmal keine Rolle.

Denn die eigentliche Frage bzw wichtigste Information, bevor man sich den Kopf über die vorgehensweise zerbricht, ist doch die nach der Leistungsfähigkeit der PPU und dem Leistungsanspruch solcher Berechnungen.

Ohne dieses Wissen kann man doch gar keine Aussagen darüber treffen ob es die PPU packt oder nicht.

Ageia wird sich schon kein Ei legen...man kann ja schliesslich nicht mit nem Luftschloss an einen neuen Markt herantreten, zumindest sollte man das nicht wenn man das vorhaben hat eine neue technologie grossflächig zu etablieren

Sicher kann man noch nichts über die Leistung sagen - aber es hört sich halt ziemlich heftig an wenn die PPU wirklich die ganze Zeit Objektgruppen berechnen muß die eventuell gar nicht mit Aktionen in verbindung kommen.

Und ja - sicher besteht ein Spiel aus mehr Elementen - aber ich meinte die Elemente die halt von der PhysX Karte berechnet werden. Und ich sag' halt jetzt mal daß bei einem Shooter es z.B. halt "nur" ein paar Gebäude und Objekte - sowie Fahrzeuge und Geschosse geben könnte die von der Karte berechnet werden.

SpaceTrucker schrieb:
...

Ja, die PhysX Karte macht halt da was auch bis jetzt in Games immer angewandt wurde, nur halt schneller bei mehr Objekten. Ich hätte mir allerdings gewünscht, dass auch folgende Sachen möglich sind:
-Schuss mit einem Gewehr auf eine dünne Stahlplatte führt dazu, dass ein Loch in der Stahlplatte ist
-Geländeverformung (ist zwar möglich, aber halt nur als Hackingansatz)
-zerbrechen von Objekten (das PhysX SDK macht es zwar möglich zu berechnen ab wann ein Objekt bricht, aber es gibt keine Möglichkeit zu sagen, wie ein Objektz zerbricht, dazu wird halt immer die CPU gebraucht)
-richtiges verbrennen von Gegenständen (so mit verkohlen und rot glühen und so weiter)


Sowas sollte dann mit der PhysX Karte auch nicht mehr vorkommen, da sie Reibung sehr genau berechnen kann und auch ein Mögichkeit bietet kontinuierlich Kollisionen darzustellen

MfG
SpaceTrucker

Hmmm - tja nur ist halt die Frage ob die Karte dann wirklich nur die Sachen in den Spielen berechnet die halt jetzt alle noch von der CPU berechnet werden - oder ob dadurch neue Möglichkeiten eröffnet werden.
Ich meine ein Oblivion oder so mit PhysX Karte würde dann etwas besser laufen da die CPU entlastet wird - aber "verändert" oder "verbessert" im Sinne von mehr Features hat es die Karte dann nicht.
Ich würde mir halt wünschen so wie viele hier schon schrieben und Du auch mit den Einschussloch erwähnt hast daß halt dadurch viel mehr Realität und Möglichkeiten in einem Spiel eröffnet werden.
Eben daß man eine Wand zerschiessen kann oder Objekte mit einem Auto umfahren kann die sich dann realistisch zerstören lassen oder wenn man mit einem Gewehr auf eine Stahlplatte schießt diese Löcher bekommt oder auch einfach nur verformt.

Das Video von Cell Factor sieht zwar nett aus - aber hier gibt es halt auch nur ein paar Objekte die man herumschleudern kann oder die bei Druckwellen auseinander geworfen werden und eine Art Vorhang der sich realistisch bewegt.
Ich will halt was sehen was ohne der Karte nicht so einfach möglich wäre.
Cell Factor mit etwas weniger Objekten und eventuell nicht so genau / flüssig berechneten Objekten wäre ja derzeit auch mit normalen CPUs möglich.
 
Zuletzt bearbeitet:
Mit Cell Factor sprichst du ein wichtiges Spiel im Zuge dieser Diskussion an.

Genau die Szene mit dem Riesenvorhang beantortet einige unklare Aspekte würde ich sagen.

In dem Moment wo der Raumgleiter durch den Vorhang fliegt reisst dieser realistisch ausseinander und es bleibt ein grosses klaffendes Loch in der Mitte des Vorhanges über, mit runterhängenden Stofffetzen etc, während gleichzeitig tausende Kisten umherwirbeln usw.

Also kann die PPU sehr wohl so etwas wie "Einschusslöcher" berechnen, und das ganze scheinbar auch in einer adäquaten Geschwinidkeit.

€: Da müsst ihr wohl erst etwas grübeln hm? ;) Ne, bin beeindruckt wie intensiv ihr euch mit der Materie auseinandergesetzt habt. Umso mehr freu ich mich das mir diese interessante Kleinigkeit wieder eingefallen ist, dank Bucho. :wink: Bin gespannt was ihr dazu zu sagen habt..
 
Zuletzt bearbeitet:
Hallo zusammen!
Ich werd mich da jetzt auch mal ein wenig an der Diskussion beteiligen, denn so als Physiker naja, vielleicht doch interessant für mich.
Zuerst mal ein paar Sachen:
@ Space Trucker:

Am anfang steht ne kleine Milchmädchenrechnung:
Für den Ort des Teilchen brauchst du 3 Kordinaten, für den Impuls auch drei, für die Rotation auch 3. Macht insgesammt 9 Koordinaten, nicht 12. Wie viele Byte für was verwendet werden hängt davon ab wie fein man das Raster macht in denen sich das Objekt bewegt / rotiert. Das dazu.

So, jetzt komm ich zu den Einführungspreis: 300 €, sicher ne Menge, sagen viele, sicherlich nicht wenig Geld. Aber: Ein Blue Ray Brenner, wie viel kostet der? 2000 €
Da erscheinen die 300 € Lächerlich.
Ich möchte mal behaupten. Ein so ein Brenner kostet in der Herstellung + Entwicklung weniger als so Ne Karte. Warum? Den Blauen Laser gibts schon seit 1995, An dem System von CD und DVD hat sich auch nichts geändert. Somit so gut wie keine Entwicklungskosten. Material geringfügig.
Für die Physik karten sind die Entwicklungskosten enorm. Probleme die sonst Supercomputer Lösen müssen auf ne Karte übertragen werden die PC kompatibel sind, das steckt alles noch in den Kinderschuhen. Da ist es klar, das so manche Kosten einfach auf den Kaufpreis aufgeschlagen werden müssen, auch wenns in der Herstellung sehr billig wäre.

Da kommen wir dann zu einem anderen Punkt:
Dem System dahinter: Um die Newtonsche Mechanik zu beschreiben in einem Gesamtsystem von mehreren Teilchen sind diverse Diffenrenzialgleichungen zu lösen.
Tja, und warum nicht der CPU? Da eine CPU nicht auf spezielle Probleme ausgelegt ist, sondern dazu da ist universell alle möglichen Probleme zu lösen, ist sie für Spezielle Probleme viel viel zu langsam. Da kann man noch so viele Cores haben die CPU ist nicht dafür geschaffen.
Ob es die GPU ist bezweifle ich auch, sicherlich besser als die CPU, aber ich denke da werden auch so manche möglichkeiten beschnitten, die mit einer Physx Karte gegeben sind.
Ich seh da bei manchen das Argument von Nvidia. Man hat ja SLI für die Physik. Super Argument, echt. Da kauft man sich halt ne zweite Karte, für auch mindestens 300€ um dann wieder nur eine Karte für die Graphikbeschleunigung nutzen zu können... Echt genial.
Tja und die Milchmädchenrechnung mit den Flop(s). Ich kann mir den Zynismus leider nicht verkneifen. Dass ne CPU keine Graphik berechnen kann sind wir uns einig. Mal ein anderer Vergleich: So ein Pentium I oder 486 hat schon seine Probleme mit MP3 umwandeln. Geht schon an die Grenzen. Aber dass so ein CPU bei weiten mehr Flops aufweist als so ein poliger Chip in nem tragbarem MP3 Player ist auch klar. Der kommt aber ohne Probleme mit MP3 klar. Tja, warum? Weil er genau für das Problem gemacht und zurechtgeschnitten wurde.

So ist es eben auch mit dem PhysX Chip, ist im Prinzip in der Herstellung billig, ist ne relativ simple Recheneinheit im vergleich zu ner CPU, wird aber jede CPU in den Boden stampfen. Weil er einfach nur das kann, Physik berechnen, aber das hervorragend.

Ein anderer Punkt noch: Es unterschätzen viele wohl das Problem, oder sagen wir mal die Rechenzeit die benötigt wird um ein Physikalisches Problem zu lösen.
Mehrteilchensysteme interagieren in der Realität, d.h. wenn sich ein Teilchen bewegt wechselwirkt es mit allen anderen und umgekehrt. Folglich extrem komplexes System. Bis jetzt lässt sich noch kein System mit 3 Teilchen exakt lösen, mit Teilchen die untereinander Wechselwirken. Siehe He Atom.
Es können nur Näherungsmethoden angewandt werden.
Streuexperiemente mit ein paar Teilchen werden mit Hilfe von Supercomputern berechnet, mir viel mehr Rechenleistung als PCs. Tja und da sollen dann in Spielen 1000 Teilchen auf einmal berechnet werden.
Hm, sicherlich braucht man es da nicht so genau wie in der Wissenschaft, aber sonst wären auch nicht 1000 Teilchen zu schaffen. Wunder darf man sich von den PhysX Karten nicht erwarten, aber wie schon gesagt, darin werden die besser sein, als jede aktuelle CPU die es gibt.

Wer sowas braucht, dass ist im Endeffekt immer eine persönliche Subjektive Frage. Eine zerstörbare umgebung, naja gut wäre schon toll, aber ich glaube nicht, dass das bis jetzt möglich wäre, dafür ist die Rechenleistung selbst mit der Karte noch nicht da.
Was bis jetzt in Spielen zerschossen und zerstört wird sind alles Vorprogrammierte Fälle, die unter ähnlichen umständen immer gleich aussehen. Das schafft selbst ne CPU.
Es werden am Anfang nur Kleinigkeiten sein, die sich verbessern, die mich aber doch stören ehrlich gesagt:
- Bei Fear z.b. Wenn man sich mal die Kabel bei den Telefonhörern ansieht. Drei Striche die sich gegeneinander verschieben lassen. Bei sowas wirds sicherlicherlich möglich sein ein Realistisches Kabel zu simulieren.
Ich denke so die Richtung wird es gehen, also Kleinigkeiten.
Und vielleicht irgendwann Deformierbarkeit von Objekten und ganzen Gegenden.

Ich will jetzt auch mal die andere Seite betrachten.
Sicherlich hätt ich es auch gern, wenn der Chip einfach mal so auf dem Board integriert wäre oder die Karte nur 50 € kosten würde. Das will ich ja gar nicht abstreiten. Das sowas kommen wird ist eigentlich auch klar. Aber sagen wir mal in 5 Jahren?
Bis jetzt sind einfach viele Dinge noch nicht möglich und man darf einfach nicht vergessen, dass das ganze noch in den Kinderschuhen steckt. In zwei Jahren wird wohl anders darüber geurteilt werden.
 
@trendsetter

Sehr schön geschriebener Beitrag. So macht es Spaß, sich durch das Forum zu lesen ;)

Leider ist es in anderen Threads nicht so lesenswert...

greets
 
trendsetter schrieb:
Hallo zusammen!
Ich werd mich da jetzt auch mal ein wenig an der Diskussion beteiligen, denn so als Physiker naja, vielleicht doch interessant für mich.
Zuerst mal ein paar Sachen:
@ Space Trucker:

Am anfang steht ne kleine Milchmädchenrechnung:
Für den Ort des Teilchen brauchst du 3 Kordinaten, für den Impuls auch drei, für die Rotation auch 3. Macht insgesammt 9 Koordinaten, nicht 12. Wie viele Byte für was verwendet werden hängt davon ab wie fein man das Raster macht in denen sich das Objekt bewegt / rotiert. Das dazu.

So, jetzt komm ich zu den Einführungspreis: 300 €, sicher ne Menge, sagen viele, sicherlich nicht wenig Geld. Aber: Ein Blue Ray Brenner, wie viel kostet der? 2000 €
Da erscheinen die 300 € Lächerlich.
Ich möchte mal behaupten. Ein so ein Brenner kostet in der Herstellung + Entwicklung weniger als so Ne Karte. Warum? Den Blauen Laser gibts schon seit 1995, An dem System von CD und DVD hat sich auch nichts geändert. Somit so gut wie keine Entwicklungskosten. Material geringfügig.
Für die Physik karten sind die Entwicklungskosten enorm. Probleme die sonst Supercomputer Lösen müssen auf ne Karte übertragen werden die PC kompatibel sind, das steckt alles noch in den Kinderschuhen. Da ist es klar, das so manche Kosten einfach auf den Kaufpreis aufgeschlagen werden müssen, auch wenns in der Herstellung sehr billig wäre.

Da kommen wir dann zu einem anderen Punkt:
Dem System dahinter: Um die Newtonsche Mechanik zu beschreiben in einem Gesamtsystem von mehreren Teilchen sind diverse Diffenrenzialgleichungen zu lösen.
Tja, und warum nicht der CPU? Da eine CPU nicht auf spezielle Probleme ausgelegt ist, sondern dazu da ist universell alle möglichen Probleme zu lösen, ist sie für Spezielle Probleme viel viel zu langsam. Da kann man noch so viele Cores haben die CPU ist nicht dafür geschaffen.
Ob es die GPU ist bezweifle ich auch, sicherlich besser als die CPU, aber ich denke da werden auch so manche möglichkeiten beschnitten, die mit einer Physx Karte gegeben sind.
Ich seh da bei manchen das Argument von Nvidia. Man hat ja SLI für die Physik. Super Argument, echt. Da kauft man sich halt ne zweite Karte, für auch mindestens 300€ um dann wieder nur eine Karte für die Graphikbeschleunigung nutzen zu können... Echt genial.
Tja und die Milchmädchenrechnung mit den Flop(s). Ich kann mir den Zynismus leider nicht verkneifen. Dass ne CPU keine Graphik berechnen kann sind wir uns einig. Mal ein anderer Vergleich: So ein Pentium I oder 486 hat schon seine Probleme mit MP3 umwandeln. Geht schon an die Grenzen. Aber dass so ein CPU bei weiten mehr Flops aufweist als so ein poliger Chip in nem tragbarem MP3 Player ist auch klar. Der kommt aber ohne Probleme mit MP3 klar. Tja, warum? Weil er genau für das Problem gemacht und zurechtgeschnitten wurde.

So ist es eben auch mit dem PhysX Chip, ist im Prinzip in der Herstellung billig, ist ne relativ simple Recheneinheit im vergleich zu ner CPU, wird aber jede CPU in den Boden stampfen. Weil er einfach nur das kann, Physik berechnen, aber das hervorragend.

Ein anderer Punkt noch: Es unterschätzen viele wohl das Problem, oder sagen wir mal die Rechenzeit die benötigt wird um ein Physikalisches Problem zu lösen.
Mehrteilchensysteme interagieren in der Realität, d.h. wenn sich ein Teilchen bewegt wechselwirkt es mit allen anderen und umgekehrt. Folglich extrem komplexes System. Bis jetzt lässt sich noch kein System mit 3 Teilchen exakt lösen, mit Teilchen die untereinander Wechselwirken. Siehe He Atom.
Es können nur Näherungsmethoden angewandt werden.
Streuexperiemente mit ein paar Teilchen werden mit Hilfe von Supercomputern berechnet, mir viel mehr Rechenleistung als PCs. Tja und da sollen dann in Spielen 1000 Teilchen auf einmal berechnet werden.
Hm, sicherlich braucht man es da nicht so genau wie in der Wissenschaft, aber sonst wären auch nicht 1000 Teilchen zu schaffen. Wunder darf man sich von den PhysX Karten nicht erwarten, aber wie schon gesagt, darin werden die besser sein, als jede aktuelle CPU die es gibt.

Wer sowas braucht, dass ist im Endeffekt immer eine persönliche Subjektive Frage. Eine zerstörbare umgebung, naja gut wäre schon toll, aber ich glaube nicht, dass das bis jetzt möglich wäre, dafür ist die Rechenleistung selbst mit der Karte noch nicht da.
Was bis jetzt in Spielen zerschossen und zerstört wird sind alles Vorprogrammierte Fälle, die unter ähnlichen umständen immer gleich aussehen. Das schafft selbst ne CPU.
Es werden am Anfang nur Kleinigkeiten sein, die sich verbessern, die mich aber doch stören ehrlich gesagt:
- Bei Fear z.b. Wenn man sich mal die Kabel bei den Telefonhörern ansieht. Drei Striche die sich gegeneinander verschieben lassen. Bei sowas wirds sicherlicherlich möglich sein ein Realistisches Kabel zu simulieren.
Ich denke so die Richtung wird es gehen, also Kleinigkeiten.
Und vielleicht irgendwann Deformierbarkeit von Objekten und ganzen Gegenden.

Ich will jetzt auch mal die andere Seite betrachten.
Sicherlich hätt ich es auch gern, wenn der Chip einfach mal so auf dem Board integriert wäre oder die Karte nur 50 € kosten würde. Das will ich ja gar nicht abstreiten. Das sowas kommen wird ist eigentlich auch klar. Aber sagen wir mal in 5 Jahren?
Bis jetzt sind einfach viele Dinge noch nicht möglich und man darf einfach nicht vergessen, dass das ganze noch in den Kinderschuhen steckt. In zwei Jahren wird wohl anders darüber geurteilt werden.


:fp

Finde den Beitrag vom feinsten .... allerdings einen Einwand muss ich
loswerden.

Dein na toll zu dem Punkt , man kauft sich ein SLI System um eine GPU
die Physik rechnen zu lassen .... etc. ist folgendermassen zu sehen :

Man HAT ein SLI System um in den Anfängen der HAVOK Physik Engine
Sie nutzen zu können , ohne einen CENT zu investieren.

Wir schreiben auch von zwei Dingen , Ageia und Nvidia .... und wenn
schon bitte alles probieren & kosten , und wenn es sich lohnt auskosten.

Da springt das Atom im Dreieck ....

Greetz Koyote008
 
Zuletzt bearbeitet:
Koyote008 schrieb:
:fp

Finde den Beitrag vom feinsten .... allerdings einen Einwand muss ich
loswerden.

Dein na toll zu dem Punkt , man kauft sich ein SLI System um eine GPU
die Physik rechnen zu lassen .... etc. ist folgendermassen zu sehen :

Man HAT ein SLI System um in den Anfängen der HAVOK Physik Engine
Sie nutzen zu können , ohne einen CENT zu investieren.

Wir schreiben auch von zwei Dingen , Ageia und Nvidia .... und wenn
schon bitte alles probieren & kosten , und wenn es sich lohnt auskosten.

Da springt das Atom im Dreieck ....

Greetz Koyote008

Danke euch allen zwei!
Damit hast natürlich recht, dass du die Havok Engine nutzen kannst, wennst schon ein SLI System hast. Von dem her find ich das eigentlich auch gut, man muss/ soll ja nicht immer gleich sein Geld raushauen müssen.
Für leute mit SLI eigentlich ne gute Alternative. Graphikintensive Spiele einfach SLI, sonder eine Karte und Havok dazu. Wer dann beides haben will kann sich ja noch ne Ageia Karte kaufen.

Ich sehs halt so, die PhysX Karten von Ageia werden schätzungsweise mehr können und das besser können.
Ich glaub auch, dass die Karten technisch herzustellen kein großer Aufwand ist. Die sind wohl kaum in 90 nm Technologie gefertigt. Würd mal eher schätzen 130 nm aufwärts. Befehlssätze müssen auch nicht viele implementiert sein --> Wenige Transistoren.
Dass der Preis im vergleich zu den Herstellungkosten so hoch ist, liegt an den Entwicklungsgeldern.
Aber: Ich schätz mal in nem Halben Jahr sind die Entwicklungskosten ziemlich drinnen und dann wird die Karte sicherlich nur noch 200€ kosten und im laufe der Zeit noch weniger.
Ich denk mal ab dann wird sich der Markt ein wenig aufspalten. Die Standartphysik wird mit ner Billiglösung abgedeckt sein, die aber schon deutlich besser ist als man mit jeder CPU rechnen kann.
Will man dann High End Physik haben, Deformierbarkeit und Zerstörbarkeit, dann wirds auch dementsprechende High End Karten geben, halt auch zu nem gewissen Preis. An der Leistungsfähigkeit solcher Karten kann man ja sicher noch einiges schrauben.
Aber glaubt mir, der Leistungshunger physikalischer Effekte ist schier unendlich.
 
Bei FEAR hab' ich das auch schon mal geschafft - da hab' ich einen Gegner an eine Tür mit dieser Nailgun geschossen und der hat noch ganz wild gezuckt (wie Headbangen in Zeitraffer )

[OT]
ich hab mal einen soldaten so mit einem schlag getroffen, dass der mit dem Kopf in der Wand hing und wie wild zuckte ...
[/OT]

also ich werd mir erstmal bestimmt keine PhysX Karte kaufen (lohnt ja auch net bei meinem sys) ...
Aber Prinzipiell finde ich das schon gut, wenn jetzt Flüssigkeiten etc berechnet werden können ..
 
trendsetter schrieb:
Danke euch allen zwei!
Damit hast natürlich recht, dass du die Havok Engine nutzen kannst, wennst schon ein SLI System hast. Von dem her find ich das eigentlich auch gut, man muss/ soll ja nicht immer gleich sein Geld raushauen müssen.
Für leute mit SLI eigentlich ne gute Alternative. Graphikintensive Spiele einfach SLI, sonder eine Karte und Havok dazu. Wer dann beides haben will kann sich ja noch ne Ageia Karte kaufen.

Ich sehs halt so, die PhysX Karten von Ageia werden schätzungsweise mehr können und das besser können.
Ich glaub auch, dass die Karten technisch herzustellen kein großer Aufwand ist. Die sind wohl kaum in 90 nm Technologie gefertigt. Würd mal eher schätzen 130 nm aufwärts. Befehlssätze müssen auch nicht viele implementiert sein --> Wenige Transistoren.
Dass der Preis im vergleich zu den Herstellungkosten so hoch ist, liegt an den Entwicklungsgeldern.
Aber: Ich schätz mal in nem Halben Jahr sind die Entwicklungskosten ziemlich drinnen und dann wird die Karte sicherlich nur noch 200€ kosten und im laufe der Zeit noch weniger.
Ich denk mal ab dann wird sich der Markt ein wenig aufspalten. Die Standartphysik wird mit ner Billiglösung abgedeckt sein, die aber schon deutlich besser ist als man mit jeder CPU rechnen kann.
Will man dann High End Physik haben, Deformierbarkeit und Zerstörbarkeit, dann wirds auch dementsprechende High End Karten geben, halt auch zu nem gewissen Preis. An der Leistungsfähigkeit solcher Karten kann man ja sicher noch einiges schrauben.
Aber glaubt mir, der Leistungshunger physikalischer Effekte ist schier unendlich.


Ich denke die Havok Physik Engine basiert auf SM 3.0 und ist als Physik
Basis einzelner Spiele zugeordnet , und Ageia anderen Spielen.

So hatte ich es bisher verstanden.

Gruss Koyote008
 
wollte noch dazu was sagen, das die technik in den kinderschuhen steckt:

habe ja gerade ein P1 system mit ner matrox mystique wieder zum laufen gebracht, warum ist egal. jedenfalls vergleiche man mal die grafikpracht eines spieles wie destruction derby2 (war damals sehr aktuell) mit dem von z.b. need for speed (aktuell most wanted) etc. da hat sich doch in den letzten 10jahren so viel getan, habe z.b. 1998 f1 racing simulation gespielt. sah damals übels realistisch und "krass" aus. schaut es heute an: "or ist das pixlich" ... was ich damit sagen will, in zwei drei jahren werden wir zurückschauen und sagen, or 2006 kam die erste physikberechnungskarte, man war die lahm ... und warum, weils dann vielleicht schon "physx 3 gtx xtx - sli/crossfire" gibt oder ähnliches :d (ist jetzt etwas übertrieben dargestellt)
ich denke es ist der richtige weg, was sich durchsetzen wird, werden wir vielleicht im sommer besser abschätzen können,
...
gruß
 
249$ ?

Vllt gibts in wenigen Wochen schon PPU Karten bei Geizhals für 200-240 ^^ :love:
 
Hab ich mir schon gedacht, dass die Karten relativ schnell im Preis zurückgehen. Ist doch immer so mit was neuem.
 
@commander1984

das kann ich gut nachvollziehen
ich habe mal aus neugier vor paar wochen unreal 1 installiert (mit hürden)
damals war es in grafik das nonplusultra
ich wollte es wirklich mal wieder durchzoggen aber die grafik sah in meinen augen so dermassen besch** aus das ich es wieder deinstalliert habe
was alles heute möglich ist ..
schaut euch mal die aktuellen crysis screens an
so langsam wird fotorealistisch
 
@Karl
findest du die Grafik von crysis in 10Jahren immernoch als das "nonplusultra"?
Wir kommen drauf zurück ;)
 
Koyote008 schrieb:
Ich denke die Havok Physik Engine basiert auf SM 3.0 und ist als Physik
Basis einzelner Spiele zugeordnet , und Ageia anderen Spielen.

So hatte ich es bisher verstanden.

Gruss Koyote008
Ja, die Javok Engine macht sich die SM 3.0 zu Nutze, bzw genauer gesagt, dass die Shader frei programmierbar sind, ähnlich wie ne CPU.
Nur scheinen die Shader deutlich schneller zu sein als ne CPU bei Physikaufgaben.
Aber: Nehmen wir mal den Idealfall an, dass die PhysX Karten genau so schnell/langsam sind wie die Havok Engine, was ich nicht glaube, dann muss man aber auch sagen, dass der Chip auf der PhysX Karte deutlich einfacher gestrickt ist. Folglich ergibt sich für die Zukunft ein größeres Potential. Würd ich jetzt einfach mal so sagen. Kinderschuhe eben...

Um die Havok Engine zu nutzen ohne die Graphik einzuschränken benötigt man ne weitere Graphikkarte, die kostet ja auch. Über längere Zeit hinweg gesehen maniviert sich da Nvidia also in ne Sackgasse.
Außer sie entwickeln schon an einem Chip der auf ner vorhandenen Graphikkarte mit implementiert ist, was ich für sehr realistisch halte. Versucht ja Ati auch.

Naja, ich sags mal so, ich bin froh, dass sich viele an dem neuen gebiet versuchen, Konkurrenz drückt bekanntlich den Preis.

Was ich nur nicht verstehe, da kaufen sich manche alle halbes Jahr oder kürzer High End Graphikkarten um anstatt auf 8 AA auf 16 AA spielen zu können, aber dass es nicht stört, dass manche Effekte einfach total unrealistisch sind, das stört die dann nicht...
 
mal meine meinung zu den implementierten lösungen (bin zwar kein computer-guru und es gibt hier im forum ja auch ne menge leute mit beiweitem mehr hintergundwissen (informatiker???)) :d ,aber:
also bis jetzt wars ja immer so, das die einzelnen karten immer schneller waren als integrierte lösungen (ob nun ein extra chip oder was auch immer auf die platine gelötet war oder ob es einfach emuliert wurde). siehe onboardsound vs. creativ audigy, graka vs. onboard-lösung (z.b. sis) und so wirds sicher über kurz oder lang auch mit ageia vs. havok. was ich mir noch vorstellen könnte, was glaube ich noch keiner gepostet hat, dass wenn sich der markt etabliert, größe halbleiterfirmen wie ati oder nvidia eben eigene karten auf den markt bringen. siehe z.b. nforce-chipsätze, ... aber das steht in den sternen ...:angel:

gruß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh