GeForce 8-Karten erhalten PhysX-Support

also wie es jetzt mit den 780i Brettern aussehen tut weiss ich nicht, klingt aber halbwegs gut was ich so höre aber die Bretter wie 680/650 i die kann wirklich ekine schönreden, die sind alle durch die Bank weg crap.

OC und Quadcores good night......
Hinzugefügter Post:
Hast gerade mal mit Dave Orton Telefoniert !:lol::lol::lol:

jap naklar der setzt neben mir :shot:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
:stupid::stupid:
Das musste ja kommen!!
Ihr beschimpft Hardwarekenner immer als Lügner/er weiss nicht was er schreibt,aber selber seid ihr doch kein deut besser!!
Im Gegenteil,in letzter Zeit ist es eher so,dass HWK Quellen zu seinen Aussagen liefern kann und Ihr nicht.Dazu muss man sich nur mal den Speku-Thread über die Übernahme von AMD durch NV durchlesen.Jeder Satz von HWK wird als ungesichert und absolut unmöglich beschimpft.Im gleichen Zug jedoch,stellt ihr eine Spekulation auf,die ja so viel Intelligenter ist als die von HWK!!

Um mal zu deiner Aussage zurückzukommen,
hast du jemals ein NV Board mit SLI betrieben und kannst somit aus eigener Erfahrung über die "Probleme" berichten??
Ich schätze mal Nein!!

€:Wie man an diesem Bespiel leider schon wieder feststellen kann,ist es nicht möglich,sich sachlich über NEWS zu unterhalten.
Es gibt einfach zu viele Fanboys,die jede Aussage gegen ihre Firma sofort mit Beleidigungen oder mit einer gegen Aussagen gegen die andere Firma kommentieren müssen!!:stupid:


:btt::btt:
meine aussage war nur anspielung an kenners theorie dass AMD zu dumm ist eigene CF chipsätze zu basteln, sonst nix
 
ich find die idee an sich klasse ,gut ich hätte lieber nen chip im chipsatz gesehn aber nuja irgendwie is des ja auch möglich wenn der chipsatz ne onboard vga hat (und mit dem onboard sli ka wie des nu hies - perfekt und ja die rechenleistung sollte mehr als reichen ich meine mich zu erinnern das ati mal verlautbaren lassen hat eine x1600 hätte als physikkarte das vielfache an leistung einer AGEIA PhysX karte)

und keine spiele ??? häh was also bei mir warens in letzter zeit unreal two worlds fury ... jedes game halt was unreal3 engine nutzt und das sin ne menge games
 
Jetztige Karten sind doch viel zu lahm um Rechenleistung für Physik abzukommandieren (-> Crysis).
Sollte Nvidia der alleinige Inhaber einer Hardwarebasierten Physikbeschleunigung bleiben, sehe ich eine Weiteretablierung von HWPhysik nur durch kräftige Subventionierung der Entwicklerstudios durch NV gewährleistet. Im Rahmen des TWIMTBP Programms sind ja auch schon Milliönchen geflossen. Ohne solch eine Finanzspritze ist der extra Physiksupport nämlich unrentabel, wenn nur maximal 40% der Zielgruppe was damit anfangen können.
Ich könnte mir aber durchaus vorstellen, dass Nvidia zukünftig relativ teure Zusatzkarten anbieten wird um so der Kundschaft der Konkurrenz den HWPhysik Weg offen zu halten und parallel dazu aber den Physiksupport auf den eigenen Karten als günstige Zugabe einführt um somit gleichzeitig den eigenen Vorteil auf seiner Seite behält aber auch den Bedarf auf dem Markt an HW Physik erhält.
 
Zuletzt bearbeitet:
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1477732/nvidia.html

So wie ich das auch verstehe möchte NVIDIA doch die meisten Leute davon überzeugen sich ein Bord mit 680, 780 oder 790 Chipsatz zu kaufen für SLI oder Tripple SLI um mit einer oder zwei weitern Karten die Physx zu redern. Finde nur das ne Physx Karte deutlich billiger zu haben ist, als ne zweite oder dritte 8800GTX. So wird der Verkauf der Karten und Mainbords noch mehr angekurbelt schon schlau die Taktik.

mfg
 
Ist es nicht so, dass eine Ageia PhysiX Karte nicht die Physikberechnung beschleunigt, sondern eben diese erweiterte Art der Physikberechnung erst ermöglicht? So weit ich weiss werden damit auch keine FPS gewonnen, im Gegenteil, die PhysiX Karte ermöglicht zwar die Darstellung zusätzlicher Effekte, aber verbessert die allgemeine Performance nicht, so ist jedenfalls der aktuelle Stand der Dinge.

Ob es nun möglich ist, einige Teile der GPU der GF8 für die Physikberechnung abzustellen, oder nicht, ist es fraglich ob das sinnvoll wäre, wenn man o.g. in Betracht zieht. Denn es gibt ja heute schon Spiele die eine top GF8 ausreizen, wenn auch dann noch Teile der Physik in der GPU berechnet werden in Zukunft, ist da nicht mehr viel mit Performance.

Ich finde die Physikberechnung wäre nur interessant, wenn man sie durch eine 2. GraKa einer anderen Leistungsklasse hinzufügen könnte. Z.B. eine GF88 und eine GF86, wo die GF86 für die Physik zuständig ist. Das natürlich übertragen auf die kommende(n) Generation(en). Weil zwei (oder drei?) mal 300€ ausgeben, nur damit eine der Karten nur die Physik berechnet ist etwas happig...
 
Zuletzt bearbeitet:
vielleicht wollte Nvidia nur die Patente von ageia und kann jetzt auf einfache weise eine zweite graka zum berechnen der physik benutzen.

sowas ähnlichen hat BenQ mit Siemens auch gemacht.
 
nö, aber BenQ hat sich alle patente von siemens gesichert und dann einen haufen leute auf die straße gesetzt.
 
naja, aber da Ageia ja nun NV gehört, werden die die Treiberlizens vieleicht nicht an ATI Verkaufen, und somit wird wenn die Games das voll unterstützen es für ATI "egal wie schnell" dann nicht möglich sein diese sachen in der GPU zu berechnen.
Also werden die effekte fehlen.


Lizenz schreibt man mit "z", nicht "s".

Effekte, die auf (ca.) der Haelfte aller Grafikkarten nicht darstellbar sind, duerften fuer Spiele-Entwickler wenig attraktiv sein. Das gilt fuer DirectX 10.1 genau so wie fuer Physikbeschleunigung - im Zweifel wuerde ich letzterer aber deutlich weniger Perspektive beimessen.

Ganz angesehen davon, dass Physikbeschleunigung bereits Bestandteil der DirectX-API ist.
 
was bringt es dir wenn die NVs kein Havok können und Agai nichtunterstützt ? :hmm:

Intel hat Havok gekauft, udn 3x darfste raten wer solche Rechte bekommt um Havok zu nutzen ;)

*Ding* Crossfire so ist es, und ich glaub e nicht das sich Spiel entwickler auf Nvidia Physik Geschi9chte einlassen ohne das die ATI User das überhaupt spielen können.
Das ist das selbe Spiel wei jetzt auch es werden kaum spiele kommen die es nutzen weil sich das nicht lohnt sonst hätten alle schonso eine Karte drin.
Es gibt schon jetzt einige physix Spiele (Unreal Tournament 3 ist eines der prominenteren) und es sind sehr viele weitere in Entwicklung.

Wer Nvidias "the way it`s meant to be played" Programm kennt, weiß auch daß Nvidia ziemlich gut ist, ihr Programm durchzusetzen.

Was die Zukunft bringt weiß keiner aber Nvidia hat physix support und ATI wird wohl kaum Havok haben da Intel sich das einverleibt hat.

Wieviel das ganze bringt weiß keiner aber es ist auf keinen Fall ein NAchteil für Nvidia Besitzer.
 
Zuletzt bearbeitet:
@Hardwarenichtsosehrgutkenner:

Dein Vergleich legt gleichwertige Hardware zu Grunde; die Limitierung erfolgt durch die API (DirectX 9 <-> 10). Faktisch waere es aber das genaue Gegenteil.

Wenn Du glaubst, nVIDIA koenne per Treiber Hardwarefunktionen offerieren, die man ueber DirectX als Marketinginstrument nicht zugaenglich macht, hast Du nicht verstanden, wie DirectX 10 (und hoeher) funktioniert (Stichwort: EAX).

Aber vielleicht uebernimmt nVIDIA ja einfach MICROSOFT ...
 
Zuletzt bearbeitet:
Ja - und zwar wegen der geringen Verbreitung befaehigter Hardware (wie hoch mag der Anteil an GeForce 8-Karten da draussen wohl sein? im einstelligen Prozentbereich?).

Warum sollte ein Spiele-Entwickler Ressourcen abstellen, um fuer diesen Mikromarkt Produkte zu entwickeln (die dann eh geklaut und nicht gekauft wuerden)?

Ergibt irgendwie keinen Sinn.
 
SLi wird nie Funktionieren auf einem Intel Chipsatz

kann skulltrail jetzt doch kein SLI?

ich freue mich über diese ankündigung und behaupte mal, dass dieses features selbst non-SLI-usern vorteile bringen wird. die verbaute ppu auf physx karten wird leistungstechnisch auch nicht der überflieger sein (im vergleich zu modernen gpus), weshalb es wohl nicht schaden sollte, wenn sich ein programm einfach nen teil für physikberechnungen abzwackt. ausserdem ist der markt an SLI-usern winzig klein, was die ausgaben wohl kaum rechtfertigen würde.

als groben anhaltspunkt könnte man die leistungsfähigkeit von z.b. einer 8800gts g92 und einer physx ppu heranziehen:

G92: 624 FLOPS
PhysX: 58 FLOPS

eine weitere möglichkeit wäre, dass nvidia physx über hybrid-SLI realisiert. dafür sprechen z.b. auch diese news:
http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1477475/nvidia.html

dass nvidia ageia aufkauft um dann lizenzen an AMD zu verteilen halte ich für recht unwahrscheinlich, genauso wie intel havok nicht lizenzieren wird, da sie ihre eigenen pläne haben (einstieg ins discrete graphics geschäft und in zeiten von multicore cpus möglichkeit von dedizierten kernen für physikberechnungen).
 
Zuletzt bearbeitet:
Skulltrail ist kein Chipsatz, sondern eine Plattform. Der Chip, der dort für SLI zuständig ist, ist der nForce100.
 
wenn man bei der formulierung kleinlich ist, hast du recht ;) mir ist aber im endeffekt egal wie SLI aufs intel mobo kommt.
 
Und du glaubts bestimmt jetzt das der neue mark nur mit Nvidia Karten läuft...;)

Lächerlich und selbst schuld das du dir keine geile HD 3850 gekauft hat mit Dx 10.1.:rofl:
 
Zuletzt bearbeitet:
und selbst wenn der schwanzmark nur noch mit Nvidia Karten oder PhysX Karten läuft...

stört nur solche Leute, wie den einen Typ im PCGH Comment-Bereich

Das ist jetzt aber nicht wahr, oder? So ein System und dann nur so wenig FPS?
Wenn das stimmt, na dann gut Nacht...

kopfpatsch.gif
 
Und du glaubts bestimmt jetzt das der neue mark nur mit Nvidia Karten läuft...;)

Lächerlich und selbst schuld das du dir keine geile HD 3850 gekauft hat mit Dx 10.1.:rofl:

nein wird er nicht, aber gerade solche wie du, die werden es nicht ertragen, wenn einige Tests nicht laufen.
Und schon gehts an eine Ageia Karte oder eine NV!
weil und das werden wir dann sehr schnelle sehen du es nicht ertragen kannst !
 
leute euch ist schon klar wenn man dann z.B. eine 8800GT hat und die die physik übernimmt das,dass 1/3 spiele performance kostet;)
 
leute euch ist schon klar wenn man dann z.B. eine 8800GT hat und die die physik übernimmt das,dass 1/3 spiele performance kostet;)

dieses jahr noch kommen einzelkarten raus, die ~50% schneller als eine 8800GT sein werden und zumindest hat man die option physx hinzuzuschalten, wenn das game z.b. nicht so grafikintensiv ist (mal abgesehen davon dass "1/3 spiele performance" jetzt völlig aus der luft gegriffen ist).
 
Ich weiß nicht worum sich alle aufregen. NVidia hat doch schon eine gute Physik's Grafikkarte im Programm. Alle haben gemeckert das die Sheder Leistung der 8800 GTS 512 im nirvana verpufft dank der nur 16 ROP's.

Was ist jetzt der Fall?

Genau diesen Leistungsüberschuß in den Shedern kann man wunderbar für Physik's nutzen ohne an 3D leißtund einzubüsen. Könnte sein das die Übernahme schon vor der einführung der 8800 GT klar war und das der G92 schon drauf abgestimmt wurde.

Wenn der Kunde von den Übernahmespekulazionen mitkreigt ist das Theme ehe schon für die Firmen gegessen.
 
wenn dann die Shader die Physik mitberechnen sollen, ist es dann wenn ich mal die ca. leistungsgleichen karten 8800GS & 9600GT vergleiche nicht sinniger die 8800GS zu nehmen, wegen der 32 Shader die diese mehr hat?
also eine 8800GS 96US 768MB sollte dann auf jeden fall für Physik besser sein als eine 9600GT 64US 512MB oder nicht ?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh