Ageia PhysX PPU

Also wenn die "Physik über Grafikkarte" Lösung von ATI und NVIDIA wirklich so flott ist wie z.B. ATI behauptet dann ist das ein echtes Problem für die AGEIA Karten.
Ich meine wer kauft sich dann noch ne PCI PhysX Karte um teures Geld wenn er ne billige X1600 PCI-E Karte kaufen kann und trotzdem mehr Leistung bekommt.
Und falls man mal aufrüstet kann man die X1600 dann ja weiter als Graka nützen.

Einen großen Vorteil von ATI und NV sehe ich auch darin daß sie die Havok Engine nutzen - und da beide ja schon eng mit diversen Spieleherstellern arbeiten und Havok schon weit verbreitet ist wird da ne neue Physikengine a'la Ageia Engine nicht viel Chancen haben - außer wenn sie wirklich schneller / besser ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
DaReal schrieb:
Und schon wird zurückgeschossen:
http://enthusiast.hardocp.com/article.html?art=MTA3OSwxLCxoZW50aHVzaWFzdA==

Ich sage mal: einfache und vor allem nutzbare sache ... einfach ne weitere Grafikkarte zum berechnen nehmen. Wird aber wohl erstmal ne vorübergehen Notlösung sein.
Na das ist doch in meinen Augen viel interessanter als die PhysX. Nur, wo kriegt man Boards mit mindestens 3xPCIe für AMD her? Nirgendwo, oder? Gigabyte hat ja für S775 ein 4xPCIe rausgebracht. Würde also heißen, man wäre CPU limititert.
 
Naja, es reicht ja eigentlich ne single-Grafikkarte und dazu nen Beschleuniger - wenn's dann wirklich unterstützt wird sollte das schon nen guten Performanceschub bringen, zumal die Graikkarte dann nicht mehr slebst die Berechnung übernehmen muss.

Das mit der Performance habe ich ja von anfang an gesagt ... die PhysX Karten sind halt was neues und müssen erst Programmiert werden. Physikberechnungen in den Shadern z.B. wird schon länger betrieben, ist somit ausgereifter und verbreiteter. Ich denke mal in zukunft wird diese Physikberechnung in der GPU nen eigenen bereich haben ... das mit der extra Grafikkarte ist ja nur ne Übergangslösung um es Ageia zu zeigen, wie man es besser machen kann ;)

Ne X1600 ist nunmal so einer PhysX Karte in Richtung Geschwindigkeit Jahre voraus, auch wenn sie nicht explizit auf diese Berechnungen zugeschnitten ist.

Ne Ageia-Karte kostet >220 Euro
Ne X1600 (128 MB) bekommt man schon ab ~ 70 Euro ...
 
tjoar, wenn die ne x1300 mehrfach das berechnen kann, was ne PhysX Karte schafft und sich das umsätzen lässt (da sollen ja sogar Gespräche zwischen ATI, NVIDIA und Spieleherstellern laufen :d

Ich finde das auf jeden fall nen Schritt in die richtige Richtung. Konkurenz belebt den markt und das was PhysX derzeit zeit ist ja auch eigentlich nur lächerlich ... GRAW: kaum mehr Effekte bei effektiven Geschwindigkeitseinbußen!

Auch die Aussagen mit dem "echten Physik berechnen" finde ich bestandslos ... man kann die Shader ja Programmieren, von daher sollten somit auch Physikberechnungen möglich sein - und das deutlich schneller.

Auf jeden fall darf Ageia jetzt um seinen Platz bangen ... haben zwar eine neue Richtung in der Entwicklung gezeigt, doch ATI und NVIDIA werden da alles dran setzen auch hier Fuß zu fassen und sich zu behaupten.
 
Zuletzt bearbeitet:
Find' die letzte Aussage von dem Bericht auch toll: "PhysX gibt es schon jetzt ATI Physik noch nicht"
:lol:
Und PhysX Karten werden in Spielen unterstützt die ich an einer Hand abzählen kann - und da bringen sie teils nichts/nicht viel.
ATI und NV werden sicher nicht lange auf sich warten lassen - und dann werden wir ohnehin sehen was besser ist.
Das Grundmotto "PhysX Karten haben einen Physik Chip der darauf getrimmt ist Physik zu berechnen und GPUs die darauf getrimmt sind Grafik / Effekte zu bereichnen" ist ja schon richtig - wenn aber GPUs (bzw. dessen Shader) so umprogrammiert werden daß sie Physik berechnen - und das genau so gut bzw. besser (schneller) als PhysX Karten dann ist das eigentlich ein Armutszeugnis für Ageia.
Ich meine stellt Euch vor ich nehm ne billige x86 CPU und laß die Sachen einer teuren speziellen RISC CPU berechnen und die kann das dann genau so gut und vielleicht noch schneller ist das ja auch peinlich für den RISC CPU Hersteller.
 
Prinzipiell finde ich die Entwicklung der PPU's ja nicht schlecht. Wirklich schlecht ist nur die Umsetzung.

PPU's machen nur in schnellen Systemen Sinn. Schnelle Systeme basieren auf moder PC-Hardware. PCI ist nicht mehr modern. Von der Zukunftssicherheit mal ganz zu schweigen.
Eine gute & flotte Karte auf PCIe hätte wesentlich mehr Sinn gemacht.

Ich würde mal behaupten, das Ageia ein ähnliches Schicksal erleiden wird wie der Virge 3D Chip. Er ebnete den Weg für die heutigen 3D Grafikkarten, verschwand aber letztendlich still und leise in der Versenkung.
 
@ByteRipper
Also ich bin mir immer noch nicht so sicher ob der PCI Bus wirklich DER limitierende Faktor ist. Ich kann's mir immer noch nicht so recht vorstellen daß die Bandbreite des PCI für die paar Physikberechnungen nicht ausreichen soll. Ich meine da werden ja wirklich nur Objektpositions und Bewegungsdaten übertragen.
Ist ja nicht so daß da massig Texturen wie bei Grakas herumgeschickt werden.

Und zum zweiten wird Aegia das doch sicherlich im Vorfeld geprüft haben ob der PCI Bus langt oder ob PCI-E besser ist. Falls das wirklich so wäre hätten sie sicher keine PCI Karte rausgebracht - zumindest nicht zum Start. Eventuell im Nachfeld eine Mid-Range oder Budget PPU Karte - falls es bei den PPU Karten sowas überhaupt jemals geben wird.

Und der letzte Punkt (den ich schon mehrmals hier geschrieben hab) ist daß wirklich JEDER PCI hat und somit JEDER sich so ne Karte zulegen kann.
Es haben bei weiten noch nicht alle PCI-E und die die es haben haben nicht alle einen PCI-E 1x, 4x ... (je nachdem als was die Aegia PhysX kommen würde) frei.

Und der Vergleich mit dem Virge 3D ist eigentlich eher nicht zutreffend da der Virge nicht der allererste 3D Beschleuniger war - und er auch keine Bahnbrechende Features hatte (im Gegenteil). Er war lediglich eine der ersten 3D Beschleuniger der jedoch in seiner ersten Form eher ausgelacht wurde da er im 3D Modus wesentlich langsamer war als im Software 3D Modus (von der CPU berechnet). Deshalb auch oft der nette Beiname "3D Decellerator" :fresse:
Damals versuchten ja so ziemlich alle Grafikkarten-Chiphersteller auf den 3D Zug aufzuspringen doch viele versagten eher als 3D Karte - sei es aus mangelden Features (Matrox Millenium 1/2/Mystique, S3 Trio3D, ATI Rage3D aber auch nVidia / ST's NV1 usw.) oder aus mangelder Performance (S3 Virge [die DX und GX waren dann schon erträglicher], Intel 740, Rendition Verite und einige Trident Chips) oder beides.
Und damals war der "3D" Boom groß - somit worben alle Chip/Kartenhersteller mit dem "3D". Viele andere haben es aber auch gar nicht geschafft (Tseng Labs z.B. *sniff* - denen trauer ich heute wohl noch am meisten nach. Jedoch war da nicht nur das mangelnde 3D Chip Angebot ausschlaggebend)

Und das muß man 3DFX lassen - sie hatten den ersten Chip der sowohl massenhaft 3D Features bot und zugleich eine tolle Performance. Und nicht zuletzt auch die recht einfach dafür zu programmierende API Glide.

Wenn nun die PhysX Karten wirklich doch eine gute Performance bieten und ähnlich der 3D Karten einen wirklich merklichen Fortschritt zeigen würden und dazu noch die PhysX API leicht zu programmieren wäre würde den Karten eventuell ein ähnlicher Aufstieg (hoffentlich nicht auch Fall) wie 3DFX erwarten.
 
Zuletzt bearbeitet:
Natürlich ja!
 

Anhänge

  • Physx.jpg
    Physx.jpg
    34,1 KB · Aufrufe: 100
Na der Lüfter is net so laut wie ich dachte.
Bei mir laufen 4 120er Papstlüfter auf halber Kraft und 2 7900 GTX, CPU wassegekühlt, und der PPU Lüfter ist nicht herauszuhören
 
Asus P5W DH no Probs

So 17.8.06 Karte unter Wasser gesetzt- 0dB Sound
 
Zuletzt bearbeitet:
Wenn ich eine 7600GT karte habe ist es dann ratsam eine Asus PhysX P1 zu kaufen? Sind diese beiden karten überhaupt kompatibel? lohnt es sich überhaupt 250 Euro für soetwas auszugeben? es kommt für mich halt keine zweite graka in frage, da ich nur noch einen PCI slot in meinem shuttle frei hab :)
 
Die Frage ist lohnt sich ne PPU zur Zeit überhaupt. Und der PhysX ist es glaub ich egal welche Graka im System steckt.
Ich habe auch ne Phys-X und bis auf GRAW (wo man nen paar Partikel mehr sieht) und Rise of Legends (bei dem einem nicht auffällt das die Gebäude und Roboter physikalisch korrekt in sich zusammenfallen) gibts kein Futter für die PPU. Hab die PPU auch nur weil ich nen Computer-Nerd bin.
BTW meine ist auch unter Wasser :-) Und lieber ne Hardware die ich jetzt kaufen kann als Aussicht auf ne Softwarelösung die irgendwann von ATI oder NVidia gebracht wird. Später ne zweite und dritte Graka kaufen wenn das "angesagter" sein sollte ist ja auch kein Problem, schliesslich ist die PPU kein "MUSS" und genau wie SLI ne Nischenlösung.
 
Zuletzt bearbeitet:
Die kommende Engine von Unreal Tournament 2007 wird Ageia unterstützen.
Auch einige andere Spielehersteller nutzen sie, wie Piranha Bytes für Gothic 3:
http://de.wikipedia.org/wiki/PhysX
Weiterhin beteiligt sich Asus daran.
Microsoft hat die Ageia Engine lizenziert für ihre XBox 360, so meine ich auch gelsen zu haben.

Ich finde die Ageia Lösung viel eleganter als die von Nvidia oder Ati. Denn ich brauche nicht unbedingt (mind.) ein SLI-/CF-Mainboard. Ich meine auch irgendwo gelesen zu haben, dass die Berechnungen der Ageia-Karten einfach "realistischer" sind, da die Karte ja nur für Physikberechnungen geschaffen worden ist. Bin mir beim Letzten aber nicht sicher.
 
Gothic 3 wird aber nicht gleich zu beginn PhysX unterstützen. :rolleyes:
Eine Unterstüzung wird warscheinlich erst durch ein Patch nachgeliefert.
 
wir hatten vor ca. 6 od. 8 wochen einen alienware-rechner mit ner ageia-karte in der redaktion (gab' auch einen test im heft) - ich persönlich finde das super-überflüssig und das einzige, was man wirklich merkt, sind 40W mehr stromverbrauch und man hört einen zusätzlichen quirl im case.. das war es dann auch schon.


(..)

mfg
tobi
 
naja wenn die games mit der unreal 3 engine auf den markt kommen, dann kommt futter

aber wie ich schon öffters geschrieben habe vermute ich das die normale pci schnittstelle für die masse an daten einfach nur schwach ist... (flaschenhals)
 
Also ich find es genial. Denn, wenn es Ageia nicht geben würde, müsste ich auf die Lösungen von ATI oder NVidia greifen, die mich aber nicht wirklich ansprechen. D.h., dann würde ich erst gar nich so etwas kaufen. Vorteile gibts aber viele, wenn die Karte unterstützt wird.

Meiner Meinung nach sollte aber eine verbesserte, schnellere Karte auf dem Markt kommen. Denn, wenn die CPU auch noch belastet wird, ist eines der (Papier-) Vorteile dieser Karte verschwunden.
 
Zuletzt bearbeitet:
Wieso sprecht ihr hier von ner Softwarelösung von ATI und Nvidia? Das ist doch quasi genau dasselbe wie PhysX, nur das halt ein anderer Chip benutzt wird um die Berechnungen auszuführen.

Wie realistisch es aussieht wenn was durch die Luft fliegt hängt ausserdem immernoch davon ab, was der Programmierer macht. Wenn man nem Teil was durch die Luft fliegen soll ne Masse von 2 Zentnern zuweist und es aber eher aussieht wie ein Kubikmetergroßer Stahlklotz, dann ist klar das da was unrealistisch aussieht.

MfG
SpaceTrucker
 
Mir war so als würde die Graka-Lösung keine "richtige" Physik berechnen können, sondern nur nen bisschen zusätzliches Shader-Nachträglich-Eye-Candy ... ich würde das nicht immer in einen Topf werfen.


BTW ich hab gerade noch mal in Tomb Raider Legend reingeschaut (soll ja die Phys-X unterstützen). Aber aufgefallen ist mir nix (genau wie bei Raise of Legends).
 
Ich glaube es fällt auch nur dann auf, wenn du die Karte mal im Gerätemangar deaktivierst und so nocheinmal spielst. Oder vllt. haben sie die Karte nicht wirklich genutzt.
 
Futter für unsere Karten, ab übermorgen liefert Amazon Joint Task Force aus (bei MM stehts jetzt schon rum).

Wie bei Rise of Legends physikalisch korrekt zusammenfallende Gebäude *g* und im Wind wehende Flaggen :-)))
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh